Transcrição do episódio A transcrição é gerada automaticamente por Podscribe, Sonix, Otter e outros serviços de transcrição eletrônica.
Olá pessoal, aqui é o Ricardo Vargas e esse é mais um 5 Minutes Podcast e hoje eu quero fazer uma provocação importante: será que a inteligência artificial ela está criando mais riscos do que reduzindo os riscos nos projetos? Nós ouvimos diariamente que a inteligência artificial é a solução para monitorar prazo, prever atraso, identificar gargalos e até antecipar falhas contratuais. E tudo isso eu não tenho a menor dúvida. É verdade. A inteligência artificial, ela realmente ajuda a reduzir os riscos operacionais, riscos financeiros e até erros humanos. Agora, ao mesmo tempo, nós precisamos encarar a outra face da moeda que AI nos traz. Ela também cria riscos novos e muitos desses riscos são invisíveis às nossas percepções. O primeiro deles é o viés dos dados. Se a nossa base de dados usada para treinar a inteligência artificial, ela é enviesada, o resultado também vai ser. Então, seja um monte de riscos que você ao usar para treinar a inteligência artificial os colocou com viés. Eles vão aparecer todos aqui. Um outro risco superperigoso, e esse talvez seja um dos riscos que mais me preocupa é o chamado de confiança cega. Muitos profissionais tendem a aceitar as previsões e as recomendações da inteligência artificial como verdades absolutas e deixam de ter o pensamento crítico. Ou seja, a IA respondeu, é verdade, a IA respondeu, é certo, ela respondeu, é o que vai funcionar? E o que vai ficar? Isso não é verdade. Além disso, existe a dependência tecnológica. Se a inteligência artificial falhar, se o fornecedor mudar de modelo de negócio ou simplesmente encerrar o serviço, o projeto pode ficar paralisado e a gente não pode esquecer dos aspectos éticos e legais. Ou seja, quem é que vai ser responsável quando a inteligência artificial propuser um risco ou simplesmente não identificar o risco e esse risco acontecer e gerar um prejuízo ou um fracasso para o projeto. Ou seja, você vai entrar com um processo contra a OpenAI, contra a Google? Como é que vai ser isso? Eu estou falando isso assim, de uma forma um pouco de brincadeira, um pouco sarcástica, porque é verdade o que eu tenho visto de pessoas usando a inteligência artificial como se fosse um oráculo milagroso que tem todas as respostas perfeitas para tudo, não tem cabimento. Isso me assusta bastante. Agora, o que eu quero destacar aqui é que o gerente de projetos, é claro. Ele não pode e não é inteligente ele tratar a inteligência artificial como vilã. Agora, a gente não pode ser ingênuo e nos iludir achando que a inteligência artificial atual ela vai resolver tudo. Pode até ser que no futuro nós teremos uma maturidade tão grande na inteligência artificial que isso aconteça. Mas hoje, em pleno 2025, isso não é verdade. O caminho é usá-la como uma aliada poderosa, agora sempre, o que a gente chama de supervisão humana. É que eu falo em inglês, The man in the loop. Isso significa revisar as decisões sugeridas pela IA, criar planos alternativos caso a tecnologia falhe e reforçar a cultura de responsabilidade. A IA, ela pode até apoiar a decisão. Agora, a responsabilidade final de quem assina aquela decisão ela é humana e ela é nossa. A inteligência artificial não é a salvadora absoluta e nem é a culpada por todos os problemas. Cabe a nós encontrarmos o equilíbrio, aproveitar a eficiência e a previsibilidade que ela nos traz, sem deixar que esse entusiasmo tecnológico nos cegue, falando que tem agora uma solução que faz tudo do zero ao 100%, porque isso não é verdade. Pensem bastante nisso. Espero que vocês tenham gostado desse episódio e nos vemos na semana que vem com mais um 5 Minutes Podcast. Até lá!