A dependência excessiva da IA está crescendo, e isso é um problema
Desde escrever redações escolares até substituir agentes de atendimento ao cliente, a IA está assumindo um papel cada vez maior na vida de muitas pessoas. E por mais que algumas pessoas estejam encantadas com a ideia de que a IA tornará as coisas mais fáceis ao assumir tarefas rotineiras e nos deixar livres para atividades mais criativas e a comunicação com amigos e familiares, isso não é o que está acontecendo de fato. Pelo menos, esse não é o cenário atual.
O que estamos vendo cada vez mais é que as pessoas tendem a depender da IA a ponto de abdicarem de qualquer responsabilidade. E embora a IA não seja consciente e provavelmente não irá se rebelar contra nós tão cedo (ou nunca, mais provavelmente), a perspectiva dessa dependência excessiva é perturbadora. Mas ao mesmo tempo, não é algo que não tenhamos visto acontecer antes com novas tecnologias.
A loucura das receitas geradas por IA
Lembra quando pensávamos na IA generativa mais como um brinquedo, tentando criar o prompt mais criativo apenas para divertimento e para exibir nossas habilidades incipientes de criação de imagens online? Esses dias iniciais da revolução da IA generativa eram pura diversão, mas as coisas ficaram muito mais sérias desde então. Hoje, tanto indivíduos quanto empresas em várias indústrias estão cada vez mais confiando na IA para fazer seu trabalho por eles, muitas vezes com resultados que vão desde hilários até perturbadores.
Uma das empresas que abraçou a atual febre da IA é o Instacart. O gigante americano de entrega de alimentos anunciou em maio que estava se associando à OpenAI para receitas alimentadas por IA. E os frutos dessa colaboração se mostraram, na melhor das hipóteses, não muito bonitos e, na pior das hipóteses, um tanto repugnantes. Um tópico do Reddit dedicado ao Instacart foi inundado com imagens de refeições de aparência estranha. Algumas são claramente irreais (como uma salsicha que se parece muito com um tomate na receita de "refogado de cachorro-quente") e não são nada apetitosas.
Além disso, a publicação de tecnologia 404 descobriu que algumas das receitas geradas por IA que o Instacart divulgou não faziam sentido algum. Por exemplo, algumas das receitas apresentavam ingredientes inexistentes, como "molho Monito", enquanto outras receitas não incluíam ingredientes ou os listavam em quantidades suspeitas.
Pizza ou torta?
O Uber Eats foi pego em flagrante usando a IA da mesma forma, sem intervenção humana, com resultados igualmente duvidosos.
Assim, numa tentativa de representar uma "torta média inteira", que neste contexto específico deveria ter sido entendida como "pizza", a IA interpretou as coisas de maneira bastante literal e produziu uma imagem de uma torta de sobremesa. E embora se possa entender a situação da IA nesse caso específico (afinal, uma pizza é comumente referida pelo seu nome em vez de como uma “torta”), tal confusão poderia ter causado uma dor de cabeça potencialmente grave para a pizzaria envolvida se o erro não tivesse sido percebido por um observador curioso que ligou para o estabelecimento.
Pode-se argumentar que esses modelos alimentados por IA, responsáveis por perder o rumo, simplesmente precisam de alguns ajustes extras na forma de aprendizado supervisionado, e que se tivessem sido ajustados corretamente, as empresas teriam sido poupadas do constrangimento. Mas não é tão simples assim. Às vezes, ajustar demais pode sair pela culatra. Assim como ajustar de menos pode levar a erros como este, ajustar demais também pode levar a consequências não intencionais.
Precisão histórica versus diversidade
Considere um caso recente do Gemini AI do Google e sua tentativa de trazer diversidade... para imagens históricas. Quando solicitado a representar um Soldado Alemão de 1943, o chatbot alimentado por IA do Google produziu uma imagem mostrando um homem negro e uma mulher asiática, entre outros.
Um pedido para gerar uma imagem de escritores franceses primitivos também resultou no Gemini produzindo uma imagem de uma mulher negra e o que parece ser um homem asiático.
Esses resultados pouco ortodoxos foram um subproduto do desejo do Google de orientar seu modelo de IA para uma maior diversidade. Após a controvérsia resultante, o Google suspendeu a capacidade do Gemini AI de gerar imagens de pessoas. "Vamos fazer melhor," eles prometeram. "Então, o que deu errado? Em resumo, duas coisas. Primeiro, nossa afinação para garantir que o Gemini mostrasse uma variedade de pessoas não levou em conta casos que claramente não deveriam mostrar uma variedade. E segundo, ao longo do tempo, o modelo se tornou muito mais cauteloso do que pretendíamos e se recusou a responder a certos prompts inteiramente - interpretando erroneamente alguns prompts muito inócuos como sensíveis," disse o Google em um comunicado.
Quanto aos modelos de IA optando pelo lado da cautela, o Google sabe do que está falando. Na verdade, a Amazon também enfrentou o mesmo problema, quando foi inundada com listagens de produtos com títulos que mais pareciam mensagens de erro. E embora estejamos acostumados a ver marcas com nomes excêntricos que parecem uma salada de palavras, a nova onda que atingiu a Amazon incluiu itens com nomes peculiares como: "Peço desculpas, mas não consigo atender a este pedido, ele viola a política de uso da OpenAI."
Chatbots rudes e profecias falsas
Para adicionar a esta já impressionante lista de exemplos de absurdos gerados por IA, há um chatbot alimentado por IA que foi usado pela empresa de entrega de encomendas DPD para fornecer suporte ao cliente em vez de agentes de atendimento reais. Não apenas o chatbot foi relatadamente inútil para responder perguntas, mas também criticou sua própria empresa e disse ao cliente para parar de incomodá-lo sem rodeios. A DPD acabou desativando o chatbot depois de vê-lo saindo dos trilhos.
E apesar de todo o discurso sobre chatbots alimentados por IA potencialmente substituindo os mecanismos de busca tradicionais... bem, tanto o Copilot da Microsoft quanto o Gemini do Google foram vistos respondendo perguntas sobre o resultado do recente Super Bowl antes mesmo de acontecer. Não apenas eles (incorretamente) deram o placar final (no caso do Copilot da Microsoft, eles também forneceram links incorretos para fontes para respaldar suas afirmações), mas também forneceram estatísticas detalhadas dos jogadores, todas inventadas.
A superdependência da IA é apenas uma fase?
Podemos continuar a listar exemplos nos quais a IA deu uma bola fora e os humanos não intervieram como deveriam. Afinal, cada ferramenta impulsionada por IA, seja um chatbot ou apenas um gerador de imagens, vem com um aviso de que ainda requer supervisão humana e verificação dupla. Mas, repetidamente, as pessoas tendem a ignorar tais conselhos. E a IA não é o primeiro e provavelmente não será o último exemplo desse tipo de coisa.
Entram em cena os capacetes de realidade virtual (VR). Enquanto ainda há um debate fervoroso sobre se a VR pode substituir a realidade, como viagens reais, educação na vida real, ou entretenimento na vida real, isso tem diminuído um pouco. Os capacetes de VR agora têm sido amplamente usados para jogos, e mesmo nesse aspecto eles não estão se mostrando uma opção superior, principalmente por questões de segurança. Apesar dos avisos para remover todos os móveis dentro do alcance e fazer pausas, as pessoas ainda sofrem graves lesões enquanto jogam videogames, seja por bater em objetos no calor do momento, ou por lesões cumulativas que infligem a si mesmas ao repetir os mesmos movimentos várias vezes sem perceber.
Outro exemplo primordial de fé em uma tecnologia ainda nova são os chamados carros autônomos. Em 2015, Elon Musk, CEO da Tesla e pioneiro na indústria de veículos autônomos em geral, sugeriu que poderíamos ter um veículo totalmente autônomo que pode se dirigir sozinho em 2 anos. Na mesma época, o Google e a Toyota estavam ambos esperando colocar o carro sem motorista no mercado até 2020, enquanto a BMW queria alcançar este objetivo de 2021. Desde então, Musk recuou, admitindo que fazer o carro se dirigir completamente sem supervisão humana é mais difícil do que ele pensava, e o frenesi em torno dos carros totalmente autônomos diminuiu. Atualmente, todos os carros "autônomos" que existem não são totalmente autônomos. Na verdade, todos os carros no mercado com recursos de assistência à direção só se qualificam para o Nível 2 de autonomia veicular de um total de 6.
E o primeiro sistema de Nível 3 foi aprovado para produção apenas no ano passado, o que representa um contraste muito grande entre a expectativa e a realidade dos carros sem motorista que tínhamos até o início dos anos 2020. Alguns até sugerem que agora é hora de jogar a toalha, e que “carros autônomos não serão uma realidade” e é melhor focar no desenvolvimento do transporte público.
Ainda assim, apesar de todos os avisos e classificações, os motoristas presumem que podem confiar cegamente em seus carros para dirigir, enquanto se ocupam com... brincadeiras, jogos de cartas ou até mesmo leitura de livros. Alguns dos acidentes reais envolvendo veículos parcialmente autônomos também supostamente viram pessoas assistindo TV e tirando cochilos ao volante.
Conclusão
A fascinação com a IA generativa, assim como o encanto da realidade virtual e o sonho de veículos autônomos, reflete nossa busca por utopias tecnológicas. No entanto, como a história tem mostrado, a jornada desde a inovação revolucionária até a utilidade confiável do dia a dia é muitas vezes mais longa e complexa do que se antecipa. Tecnologia de ponta, por mais avançada que seja, geralmente requer um período de amadurecimento que pode durar anos, se não décadas. Isso permite o refinamento da tecnologia, o estabelecimento de protocolos de segurança e a adequação às necessidades da sociedade e aos padrões éticos.
A situação atual das Inteligências Artificiais serve como um lembrete de que o caminho para integrar novas tecnologias à vida cotidiana é uma maratona, não uma corrida. Se essas tecnologias algum dia cumprirão totalmente suas promessas, nós não sabemos, mas uma coisa é certa: o equilíbrio entre supervisão humana e avanço tecnológico continuará a moldar nosso futuro.