• Home
  • Notícias
  • Pages
  • A inteligência artificial parece cada vez mais humana, mas ela não é – IT Forum

A inteligência artificial parece cada vez mais humana, mas ela não é – IT Forum

Materiais educativos e gratuitos
Inscreva-se na nossa Newsletter
Obtenha os mais recentes artigos e atualizações de tecnologia que você precisa saber, você ainda receberá recomendações especiais semanais.

A nossa interação com diferentes plataformas de inteligência artificial fica cada vez mais parecida com conversas que temos com outras pessoas. Em alguns casos, nossos cérebros podem ser enganados para crer que estão interagindo com outros indivíduos, por mais que saibam que não é verdade. Não é por acaso: as big techs querem que nos relacionemos com esses produtos de maneira mais “humana” possível. Mas longe de ser apenas um recurso para melhorar sua usabilidade, isso levanta questionamentos éticos e até de produtividade.
Ao longo da nossa evolução, aprimoramos a capacidade de atribuirmos características humanas ao que não é. Fazemos isso com animais de estimação, objetos, fenômenos da natureza e até a deuses. É o que chamamos de antropomorfismo.
Por exemplo, dizemos que “o cachorro é muito inteligente”, “o carro está nervoso”, “a chuva está chorando” e representamos divindades com corpos e emoções humanas. Isso é importante, porque facilita a nossa compreensão e interação, especialmente com aquilo com que não somos familiarizados
Leia mais: Redes sociais podem nos transformar em zumbis que trabalham de graça para elas
Além disso, com essa prática, criamos vínculos e até sentimos empatia pelo que não é humano. Isso explica, pelo menos parcialmente, o ChatGPT ter atingido 100 milhões de usuários em apenas dois meses, o que o tornou o produto de mais rápida adoção da história. Antropomorfizar a inteligência artificial nos deixa à vontade para usá-la intensamente e para acreditar em suas respostas, às vezes além do que deveríamos.
Porém atribuir capacidades que esses sistemas não têm pode atrapalhar a nossa compreensão sobre o que realmente eles são e o que podemos fazer com a inteligência artificial. Corremos o risco de acabar atribuindo responsabilidades que as máquinas não possuem, enquanto ignoramos quem fizer usos indevidos de todo esse poder. Por isso, precisamos usar a IA como ela realmente é.
Veja esse artigo em vídeo: https://www.youtube.com/watch?v=QsNaW3sfX3U
Para deixar mais claros os efeitos do antropomorfismo, podemos comparar como nos relacionamos com a IA com o que sempre fizemos com os buscadores, que existem há quase três décadas. O Google, maior exemplo deles, tenta responder a todas as nossas perguntas desde 1998, quando foi lançado. E faz isso com uma eficiência incrível, sendo mais confiável que qualquer plataforma de inteligência artificial generativa do momento.
Nem por isso, nós atribuímos características humanas a ele. Como já debati nesse espaço, o mais incrível da inteligência artificial generativa não é o que ela nos diz, mas o simples fato de ser capaz de conversar conosco, como se fosse outra pessoa! Isso facilita o seu uso e amenta a credibilidade de suas respostas, mesmo quando ela nos diz alguma bobagem, as chamadas “alucinações” da IA. Quando lançou o GPT-4o, no dia 13, a OpenAI dobrou essa aposta!
Essa nova versão do “cérebro” do ChatGPT fala conosco com uma fluidez ainda mais impressionante, e é capaz de analisar, ao mesmo tempo, texto, voz, áudios e imagens, em tempo real, “enxergando” (olha a antropomorfização!) e analisando o que filmamos como celular. Para reforçar ainda mais essa projeção, a empresa sugeriu que estaríamos nos aproximando do visto no filme “Ela” (2013), dirigido por Spike Jonze e estrelado por Joaquin Phoenix e Scarlett Johansson.
Na história, Theodore (Phoenix) se apaixona por Samantha (a voz de Johansson), o sistema operacional de seu computador e smartphone, movido por uma aparente inteligência artificial geral. Sam Altman, CEO da OpenAI, disse que “Ela” é seu filme preferido. Ele tentou contratar Johansson para dar voz ao GPT-4o, mas ela recusou a oferta.
Não satisfeito, ele lançou o produto com uma voz muito parecida com a dela, o que lhe rendeu um processo da atriz. Aquela voz deixou de ser oferecida na plataforma. Se tudo isso parece ficção científica demais, uma pesquisa publicada no ano passado na JAMA, a revista da Associação Médica Americana, indicou que pacientes consideraram empáticas quase dez vezes mais respostas dadas por um chatbot em relação às de médicos humanos.
Na verdade, os pacientes sentiram alguma empatia do médico em apenas 5% das consultas, o que não deixa de ser uma informação importante por si só. As pessoas querem se sentir acolhidas! Será que chegamos a um ponto em que as máquinas serão mais eficientes que humanos nessa tarefa?
O filósofo italiano e professor de Oxford Luciano Floridi, considerado uma das maiores autoridades nos campos da filosofia e da ética da informação, publicou um artigo nesse ano em que afirma que a inteligência artificial cria os mecanismos do que ele chama de “hiperpersuasão”.
Resumidamente, essas plataformas ofereceriam um enorme poder para se convencer qualquer pessoa sobre qualquer coisa. Segundo o pesquisador, isso se dá graças à já incrível e crescente capacidade de a máquina coletar e processar dados dos indivíduos, identificando padrões de comportamentos, preferências e vulnerabilidades, para manipular opiniões e comportamentos.
Além disso, a inteligência artificial generativa pode produzir todo tipo de conteúdo com alta qualidade e cada vez mais parecida ao gerado por humanos. Para ele, tecnologias persuasivas são tecnologias de poder. Já experimentamos isso com as redes sociais, e a esse processo deve se intensificar muito com a IA, não apenas pela tecnologia em si, mas por usos indevidos de grupos políticos e econômicos.
Veja também: IA potencializa Android para conter crimes comuns no Brasil
Para minimizar esses riscos, Floridi afirma que é necessária uma melhor proteção legal e ética da privacidade, contra os usos persuasivos da IA. E curiosamente, diante do fato de que esses usos nocivos acontecerão, ele sugere que a “hiperpersuasão” seja pluralista.
Em outras palavras, usos positivos desse recurso poderão “compensar” os maus usos, trazendo também visões complementares do mundo. É mais ou menos o que acontece desde sempre com a mídia, mas agora aplicado à inteligência artificial. Uma população em que todos os membros fossem muito educados e engajados ajudaria a resolver esse problema. Devemos perseguir sempre isso, mas entendo que seja uma utopia. Isso nos leva então de volta ao antropomorfismo.
Precisamos usar a IA como ela realmente é. Ela certamente atua como um agente social, no sentido em que promove transformações em nosso mundo, mas não é um agente moral, pois não tem autonomia e capacidade de escolher o que fará. Atribuir característica humanas à máquina pode distorcer essa realidade, isentando criminosos que fazem maus usos dela, e responsabilizando a máquina. E isso não faz sentido algum!
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Os melhores conteúdos do IT Forum na sua caixa de entrada.

source

Compartilhe:

Picture of Marcelo Faria - Redação Kriahtiva

Marcelo Faria - Redação Kriahtiva

Marcelo Faria, aos 27 anos, é a mente criativa por trás da produção de textos da Kriahtiva. Com uma paixão inigualável pelo universo online, seus textos são faróis de inspiração, navegando pelos mares do marketing digital com inovação e expertise. Em cada artigo, ele transforma conceitos complexos em leituras envolventes, guiando os leitores por uma jornada única de descobertas no vasto mundo do marketing.

Sobre o autor

Picture of Marcelo Faria - Redação Kriahtiva

Marcelo Faria - Redação Kriahtiva

Marcelo Faria, aos 27 anos, é a mente criativa por trás da produção de textos da Kriahtiva. Com uma paixão inigualável pelo universo online, seus textos são faróis de inspiração, navegando pelos mares do marketing digital com inovação e expertise. Em cada artigo, ele transforma conceitos complexos em leituras envolventes, guiando os leitores por uma jornada única de descobertas no vasto mundo do marketing.

Veja também

mais acessados

On Key

Related Posts

A inteligência artificial parece cada vez mais humana, mas ela não é – IT Forum