Transcrição do episódio A transcrição é gerada automaticamente por Podscribe, Sonix, Otter e outros serviços de transcrição eletrônica.
Olá, pessoal, aqui é o Ricardo Vargas. Esse é mais um 5 Minutes Podcast. Hoje eu queria falar sobre um artigo que eu e o André Barcauí publicamos recentemente sobre inteligência emocional artificial ou artificial emotional intelligence. Muitas vezes quando a gente está falando sobre inteligência artificial, inteligência artificial generativa, a gente está muito falando, assim como aumentar a sua produtividade, como ser mais eficiente, como é gerar relatórios. E quando a gente fala do conceito, de AEI. O artifício emotional, intelligence, nós estamos falando no uso da inteligência artificial de uma forma diferente. Isso foi a ideia disso foi desenvolvida pela Rosalind Picard em 1995. Mas hoje, com o advento e o poder desses mecanismos de inteligência artificial, isso se tornou, vamos dizer, uma coisa que era mais empírica, se tornou uma realidade e eu, por exemplo, em várias palestras minhas, eu tenho dado o exemplo do site americano highview.com como um exemplo importante disso, não é, por exemplo, onde você pode é aplicar esse conceito de artifício inteligência emocional, por exemplo, na contratação, você pode conseguir usando mecanismos de inteligência artificial ter uma percepção daquilo que não está escrito. Você ter um, vamos dizer, um insight muito mais profundo é da capacidade cognitiva, da capacidade emocional daquele candidato não é aquilo que está escrito no currículo, ou aquilo que sai da boca dela ou que sai da boca dele, onde você consegue entender, vamos dizer, características de movimento dos lábios, movimento dos olhos, por exemplo, no caso da imagem ou tom de voz, ou a forma com que é falado, ou o movimento dos braços das mãos. O piscar dos olhos você consegue inferir características daquele candidato é, então isso tem uma aplicação, inclusive se já está sendo usado, é claro que eu já sei que muitos de vocês estão ouvindo aqui, vão ficar preocupados, eu vou falar daqui a pouquinho sobre esse aspecto. Agora além disso, você pode ter aplicações infinitas. Você pode, por exemplo, personalizar o atendimento de um paciente no hospital baseado, por exemplo, nessas características, por exemplo, tratamento psicológico, tratamento onde você tem, por exemplo, doenças, é de cunho psicológico ou psiquiátrico, você também tem na educação, ou seja, a maior parte da forma com que eu fui educado e a maioria de vocês que estão ouvindo também foi o que, uma forma assim é, né, 1 tamanho serve pra todo mundo, né? O professor pegava 40 alunos na sala e ensinava de uma forma ou você aprendia ou não aprendia. Agora você pode hoje é usar isso para personalizar o aprendizado é de cada de cada participante. Você pode usar isso em negociação, você pode usar isso em suprimentos, você pode usar isso no processo de aquisição, você pode ter dicas no processo de negociação que te ajudem a estar numa posição mais é vantajosa. E isso até no limite um pouco mais extremo é pode inclusive desenvolver relações virtuais, como por exemplo, hoje nós temos o site Character.ai onde você consegue conversar com um chatbot, que tem uma emoção e uma personalidade parecida, por exemplo, com Einstein ou com o presidente russo Vladimir Putin, ou, por exemplo, com o presidente brasileiro Lula, com o ex-presidente brasileiro Bolsonaro, seja, você pode inclusive escolher personalidades vivas ou personalidades que já não estão mais aqui e discutir até temas da atualidade onde você vai ter aquele cunho de personalidade, e isso inclusive é esse é um dos sites mais populares do mundo, se eu não estou enganado, é o segundo site mais visitado de inteligência artificial, este Character.ai, e a maior parte das pessoas usa para criar conexões virtuais, ou seja, amigos virtuais, relacionamento virtuais. Isso me leva ao último ponto do artigo e ao último ponto desse podcast é o seguinte, bem, essa parte humana, essa parte de tratar a emoção das pessoas, etc. é uma parte que a gente precisa lidar com muito cuidado do ponto de vista ético. Por quê? Porque hoje a tecnologia a envolvendo aprendizado por máquina está tão evoluída que a gente corre um risco de viés cognitivo muito grande, ou seja, você consegue, por exemplo, é treinar uma máquina de uma forma tão perfeita, que ela consegue identificar é a sua opção sexual, ela consegue identificar é sua opção política, ela consegue identificar um conjunto de valores, sem que você diga, eu não, eu não vou precisar dizer assim em quem você vota? Eu vou conseguir baseado na análise de milhões e milhões e milhões é de entrevistas e de vozes, por exemplo, eu vou conseguir fazer. E isso vai se tornar extremamente perigoso, porque o conceito de privacidade ele vai praticamente deixar de existir, onde eu vou poder assistir um vídeo no YouTube do Ricardo, eu vou conseguir desvendar traços da personalidade do Ricardo que a gente não imaginava. E isso pode, por exemplo, fazer com que eu é contrate o Ricardo como meu fornecedor ou não contrate o Ricardo como meu fornecedor, baseado nesses vieses. E isso é o lado assim perigosíssimo que eu acho disso. Então, assim, a gente tem que entender que é esse lado maravilhoso de eu conseguir personalizar um trabalho, por exemplo, eu escolher um gerente de projeto que se adapta melhor à característica daquele projeto, do ponto de vista emocional, não apenas técnico, é maravilhoso, é espetacular. Mas eu preciso entender até que ponto eu não vou estar construindo uma coisa que vai só aumentar o preconceito, que vai só aumentar a discriminação, porque a inteligência artificial, como eu disse ela, é aquilo que a gente coloca ela para ser. Então esse artigo foi esse alerta sob o potencial e também sobre os desafios. Bem, eu espero que vocês gostem do artigo. Espero que vocês tenham gostado desse podcast e dê uma lida no artigo. Está na London School of Economics Business review na publicação do dia 20/05/2024. Um abraço enorme para vocês, até semana que vem com mais um 5 Minutes Podcast.