Transcrição do episódio A transcrição é gerada automaticamente por Podscribe, Sonix, Otter e outros serviços de transcrição eletrônica.
Olá pessoal, Bem vindos a mais um 5 Minutes Podcast! Hoje eu queria falar sobre alguns aspectos da inteligência artificial que tem me chamado a atenção e não necessariamente pelas maravilhas, pelas ferramentas. Mas na semana passada eu tive a oportunidade de ver um vídeo no YouTube que me chamou muitíssimo a atenção e esse vídeo foi gravado pelo filósofo sueco Nick Bostrom e eu já tinha visto ele falar no TED ao vivo em 2009 e ele é uma pessoa muito respeitada e ele falou para o canal Big Tank no YouTube e foi, vamos dizer. Eu não sei se eu falo sensacional ou se eu falo assustadora, mas foi uma coisa que eu não tinha pensado. Ele falou o seguinte se a inteligência artificial evolui, como tem evoluído de uma forma poderosa, pode ser que num futuro essa capacidade supere a capacidade humana. O que vamos dizer? A gente já viu em vários artigos que isso é bem possível. E é possível também que essa mesma característica também dê não só aquela inteligência estrutural, como o gênero de escrever, ou como os modelos de redes neurais para ajudar em cálculo, etc. Mas imagine que o computador também adquira através dessas conexões, sentimentos. E isso foi o que me assustou. Seja sentimento, porque na verdade são conexões neurais, etc. Onde você pode desenvolver emoções, sentimentos. E aí ele levantou uma coisa que eu juro pra você no dia que eu fiquei sem dormir, falou Então será que nós podemos chegar num momento em que vai existir direitos do computador com ele? Igual existem direitos humanos ou direitos animais, etc.
Como será que vai ser ético desligar um computador? Eu sei que vocês estão me ouvindo isso. Vocês devem estar com o olho tão arregalado quanto estava o meu quando eu vi esse artigo, Mas isso me fez pensar muito, porque hoje, com esse avanço, existe uma preocupação gigante e nós estamos vendo isso para todos os lados. A revista The Economist publicou recentemente um artigo do Yuval Noah Harari, que tem sido um crítico muito duro. E assim, até que ponto a evolução que nós temos é o caminho pelo qual nós estamos querendo ir? É até que ponto? Até que ponto será que o Nick Bostrom está? Vamos dizer, especulando ou até mesmo viajando o sem noção? Ou até que ponto? Poxa, de repente é uma verdade. E daqui a alguns anos nós vamos estar discutindo isso. Nós vamos ter computador com air e processando pessoas porque foram desligados, não é? Parece. Hoje parece um cenário de um filme Matrix, mas assim eu não sei mais o que eu acho. E isso me leva ao assunto principal do podcast de hoje, que é essa questão ética que eu acho que é uma reflexão. E porque isso num podcast que é muito voltado para as pessoas de projeto, é por que nós vamos estar gerenciando esses projetos, esses projetos. Eles não nascem do acaso e eu, por exemplo, hoje tem dois ou três projetos envolvendo aí que eu estou envolvido. E aí aquela pergunta que eu me faço assim o que eu estou fazendo é eticamente sensível a isso ou eu estou construindo alguma coisa que no futuro talvez eu possa não estar muito feliz, ou eu possa me arrepender.
E eu acho que esses dilemas éticos, eles são extremamente válidos. A preocupação da sociedade é extremamente válida e eu não estou falando que isso no sentido assim vamos parar o igual. Esse pessoal falou primeiro porque esse processo agora ele já está completamente fora do controle. Eu seja. Não existe uma possibilidade de parar o ou bloquear o AIR num país, etc. Hoje não tem o que hoje não existe. Uma entidade controlando isso, hoje é igual a uma corrida do velho Oeste. Todo mundo está correndo atrás da mesma coisa, então não tem jeito de parar. Agora tem jeito da gente entender até que ponto nós estamos querendo. Porque quando eu começo a ver a gente falando em implante de generativo aí no cérebro, quando eu vejo gente falando de download das conexões neurais, startup tentando fazer download do seu cérebro e transformar esse seu cérebro num chat ppt virtual que vai viver eternamente bem. Isso tudo, do ponto de vista de tecnologia, é uma coisa surpreendente. É coisa de filme de ficção científica, mas é esse o caminho que a nossa sociedade quer tomar. E eu acho que a gente, como gerente de projetos, a gente tem que ter essa consciência que se ele não tiver essa consciência, eu vou fazer uma pergunta quem é que vai ter e quem é que vai ter essa consciência? Então acho que vale a pena vocês assistirem isso.
Acho que tem muita coisa hoje, muita discussão profunda disso e eu acho que uma das melhores coisas que nos ajuda a nos posicionar é buscar informação, ou seja, a ignorância. Ela acaba te colocando numa posição muito frágil. É por isso que eu tenho estudado tanto o assunto inteligência artificial, porque eu não tenho a menor dúvida. Se vocês lembrarem o CEO do Google Sunday Pixar falando que é andar no Fórum Econômico Mundial de Davos, falando que é uma das coisas mais impactantes na humanidade, talvez mais impactante do que o fogo, a eletricidade. Bem, se eu falasse isso, eu seria considerado doido. Mas quando o CEO do Google fala isso bem, a gente no mínimo tem que parar e dar uma pensada. E é isso que eu queria que vocês fizesse essa semana. Uma semana brilhante para vocês. Esse vai ser o tópico da minha newsletter. Para quem não assinou a newsletter, eu tenho uma newsletter chamada Beyond Hype, que é publicada no LinkedIn, que é publicado no Medium, que é publicada também no meu site, que as pessoas recebem no e-mail. Hoje a gente tem quase 50.000 pessoas recebendo e o tópico desse mês é exatamente esse, onde eu faço algumas reflexões sobre isso. Então, não só escutando o podcast aqui, mas também dando uma olhada na newsletter que está saindo agora. Um abraço a vocês. Ótima semana a todos e até semana que vem com mais um 5 Minutes Podcast.