Anthropic critica duramente ChatGPT e levanta tema importante sobre anúncios em chatbots
A notícia de que a OpenAI introduziria anúncios no ChatGPT foi recebida com curiosidade, ressentimento e uma sensação persistente de “lá vamos nós…”. Depois de anunciar no mês passado que os anúncios chegariam ao chatbot de IA voltado ao consumidor mais popular do mundo, a OpenAI foi rápida em aliviar as preocupações iniciais, garantindo aos usuários que a publicidade não influenciaria as respostas do ChatGPT e que seria claramente identificada como tal.
Os anúncios devem começar a ser exibidos para usuários gratuitos e do plano mais básico do ChatGPT nos EUA nas próximas semanas — se não dias. Alguns usuários já tiveram uma prévia por meio de uma versão beta lançada na semana passada. Nessa versão beta, os anúncios aparecem abaixo da janela de resposta e são claramente marcados como “patrocinados”. Eles são personalizados por padrão, com segmentação baseada tanto na conversa atual quanto no histórico de chats do usuário, a menos que ele opte por desativar a personalização de anúncios. Nesse caso, apenas o chat diretamente relacionado ao prompt é usado para direcionamento. A OpenAI também enfatizou que nenhum dado do usuário será vendido e que a experiência com anúncios permanecerá o mais integrada possível.
No papel, essas garantias soam bem — talvez até boas demais. A postura do CEO da OpenAI, Sam Altman, em relação à publicidade mudou ao longo do tempo: de uma autodeclarada aversão aos anúncios como escolha estética para uma visão mais pragmática de que eles podem ser “bons se feitos da maneira certa”. Só isso já torna difícil descartar um futuro em que os anúncios se infiltrem em mais partes da experiência com o chatbot. E, embora isso possa não acontecer tão cedo — ou nunca — é difícil não imaginar como poderia acontecer com facilidade.
A provocação da Anthropic é grosseira, mas as preocupações são reais
A Anthropic, rival da OpenAI fundada por ex-pesquisadores da própria OpenAI e mais conhecida por seu chatbot Claude, aproveitou o debate sobre anúncios — e a forma como escolheu fazer isso diz muito sobre o quão intransigente se tornou a corrida armamentista da IA.

Cena de um anúncio da Anthropic. Fonte: Anthropic/YouTube
A Anthropic publicou vários vídeos curtos, cada um mostrando um cenário familiar em que usuários recorrem a chatbots em busca de ajuda: procurando conselhos de treino, fazendo brainstorming de ideias de negócios, buscando ajuda com trabalhos acadêmicos ou tentando melhorar a comunicação com um familiar.
Os vídeos, publicados no canal da Anthropic no YouTube e programados para ir ao ar durante um dos maiores momentos publicitários do ano — o Super Bowl, em 8 de fevereiro — seguem a mesma estrutura. Eles começam com um chatbot oferecendo conselhos que parecem razoáveis, atenciosos e genuinamente úteis, apenas para descarrilar abruptamente em um anúncio completamente fora de tom. Um personal trainer representando o agente de IA de repente passa a recomendar palmilhas que aumentam alguns centímetros na altura e ajudam os “reis baixinhos” a parecerem mais altos. Em outro vídeo, o agente abandona o conselho empresarial para promover um serviço de empréstimo duvidoso. Em mais um, um terapeuta conversando com um usuário sobre sua relação com a mãe interrompe a frase no meio para exibir um anúncio de aplicativo de namoro onde ele pode conhecer mulheres mais velhas.
Todos os vídeos terminam com a frase na tela: “Ads are coming to AI. But not to Claude”, ao som de “What’s the Difference”, de Dr. Dre. O anúncio tem paralelos inquietantes com o episódio “Common People”, da série Black Mirror, que imagina um mundo em que uma personagem sobrevive a um procedimento cerebral experimental que salva sua vida, apenas para descobrir que permanecer viva agora exige uma assinatura mensal. À medida que os custos aumentam, ela é empurrada para um plano com anúncios, o que faz com que passe a recitar propagandas involuntariamente no meio de conversas — muitas vezes de forma profundamente inadequada, ainda que teoricamente relacionada ao contexto. Em um caso, um estudante conta que os pais estão brigando e que a mãe quer deixar o pai, e ela de repente passa a anunciar um site cristão de aconselhamento familiar incentivando as famílias a permanecerem juntas. Em outro, interrompe um momento íntimo com o marido para recomendar um gel contra disfunção erétil. A única maneira de parar é pagar por um plano sem anúncios, extremamente caro. O episódio exagera o medo que a Anthropic destaca: a monetização invadindo momentos profundamente inadequados e desconcertantes. E, ao contrário dos anúncios tradicionais em mecanismos de busca, a sensação é muito mais pessoal quando é um chatbot que imita padrões de fala humanos.
É uma discussão que vale a pena ter. Afinal, chatbots estão se tornando rapidamente parte do cotidiano. Ouvimos cada vez mais relatos de pessoas se tornando dependentes do ChatGPT, de companheiros de IA virando substitutos emocionais — até interesses românticos — e de bots conversacionais se transformando em uma espécie de muleta cognitiva, já que muitos já não podem imaginar sua vida sem eles.
Como aponta Denis Vyazovoy, Head de Produto da AdGuard:
“Se os modelos de publicidade começarem a se integrar de forma mais profunda aos assistentes de IA, isso levanta uma questão importante de confiança. Os usuários não percebem esses serviços como plataformas de mídia, mas como auxiliares. Qualquer motivação comercial oculta, mesmo na forma de recomendações, precisa ser o mais transparente possível. O simples fato de grandes desenvolvedores de IA estarem debatendo essa questão mostra que o mercado ainda não definiu os limites éticos da monetização — e este é o momento ideal para ter essa conversa.”
Nesse sentido, a IA começa a se parecer com o computador pessoal em seus primórdios, quando silenciosamente — mas de forma permanente — transformou a maneira como as pessoas trabalhavam e pensavam. Portanto, se os anúncios em agentes de IA realmente seguirem na direção contra a qual a Anthropic alerta, os sinais de alerta deveriam estar soando.
“Duplipensar” enganoso: a resposta da OpenAI
Mas estão? Por enquanto, é difícil dizer, já que os anúncios no ChatGPT ainda não foram amplamente lançados. Sam Altman respondeu diretamente às provocações da Anthropic em uma publicação no X, rebatendo o que chamou de crítica enganosa.
“Acho que é bem a cara do duplipensar da Anthropic usar um anúncio enganoso para criticar anúncios teóricos enganosos que nem existem, mas não era no Super Bowl que eu esperava ver isso”, disse Altman.
Ele afirmou que o ChatGPT jamais exibiria anúncios da forma intrusiva retratada pela Anthropic. Altman aproveitou para contrastar as duas empresas, chamando a Anthropic de elitista por vender um produto caro e de nicho para um público pequeno e abastado, enquanto destacou o alcance democrático do ChatGPT, com acesso gratuito para bilhões de pessoas e planos pagos opcionais e sem anúncios. “Mais texanos usam o ChatGPT gratuitamente do que o total de pessoas que usam o Claude nos EUA”, observou. Altman também enquadrou o debate como uma questão de controle versus abertura. Enquanto a Anthropic bloqueia certas empresas de usar seu produto de programação e se posiciona como árbitra de como a IA deve ser utilizada, a OpenAI apresenta o ChatGPT como uma ferramenta amplamente acessível.
Paralelos históricos: um caminho já trilhado
Concorrência acirrada gera publicidade agressiva. A Anthropic não teria lançado tais provocações — e investido dinheiro em um dos espaços publicitários mais cobiçados do mundo — apenas por diversão. A empresa claramente colocou muito dinheiro em jogo: um anúncio de 30 segundos no Super Bowl custa mais de US$ 8 milhões, e o comercial mais longo exibido antes do jogo, mostrando um homem pedindo ajuda para se comunicar com a mãe, também não saiu barato.
Oferecendo um dos modelos de IA mais caros do mercado (Altman não estava brincando quando disse que ele foi feito para pessoas ricas), a Anthropic há muito tempo é considerada a melhor opção para tarefas especializadas — especialmente programação. Mas, com a OpenAI atraindo talentos da Anthropic e lançando novos modelos em ritmo acelerado — mais recentemente o GPT-5.3-Codex — não há espaço para sentimentalismo. Nessa corrida armamentista da IA, vale tudo: no amor e na guerra, tudo é permitido.
A Anthropic também claramente está se inspirando na estratégia da Apple com sua investida no Super Bowl. Assim como o icônico anúncio “1984”, que posicionou a Apple como a rebelde desafiando a monolítica IBM, os anúncios da Anthropic foram pensados para causar impacto ao ridicularizar o ChatGPT e retratar o Claude como a escolha pura e imparcial. O impacto do anúncio da Apple naquela época foi imediato e mensurável: relatos indicam que cerca de US$ 3,5 milhões em computadores Macintosh foram vendidos pouco depois de sua exibição.
A diferença, claro, é que o ChatGPT se posiciona como a alternativa democrática, enquanto o Claude permanece, ao menos por ora, um produto de alto padrão para poucos. Com essa campanha, a Anthropic pode estar tentando mudar essa percepção de uma vez por todas. A grande questão é se essa estratégia dará certo ou sairá pela culatra. Mas a Anthropic também assume um risco considerável: se algum dia tentar introduzir seus próprios anúncios, poderá se ver no centro de uma tempestade de relações públicas criada por ela mesma.












