OkCupid usou fotos de 3M de usuários para treinamento de IA sem consentimento
Quando você se cadastra em um aplicativo de namoro, sabe que está assumindo um risco. Você se expõe a golpistas e a todo tipo de interação desagradável em um ambiente bastante competitivo. E apenas por estar nesses apps, você já fica mais vulnerável a problemas de segurança e privacidade: seus dados podem ser coletados e usados para quebrar suas senhas, suas contas podem ser sequestradas, suas fotos podem ser roubadas e usadas para criar perfis falsos… a lista continua. Mas, no fim das contas, esses são riscos que você escolhe correr. Fazem parte do pacote.
O que não parece fazer parte do pacote, porém, é uma plataforma de namoro compartilhar suas informações sensíveis, fotos e dados de localização com alguma empresa de IA da qual você nunca ouviu falar (e fazer isso sem o seu consentimento). Isso ultrapassa um limite e configura uma quebra de confiança. Mas foi exatamente isso que o OkCupid, um app de namoro pertencente ao Match Group (que também é dono do Tinder, Hinge e Plenty of Fish), fez.
E o pior: quando isso veio à tona, a punição que recebeu foi pouco mais do que um tapinha na mão.
Quando os dados dos usuários são vistos como propriedade da empresa
Em um acordo proposto que o OkCupid e sua empresa controladora, Match Group, firmaram com a Comissão Federal de Comércio dos EUA (FTC) em março deste ano, o governo alegou que o app estava “enganando” os usuários ao compartilhar suas informações pessoais — incluindo fotos e dados de localização — com um terceiro não relacionado. Isso foi feito sem o conhecimento ou consentimento dos usuários, e em violação das próprias promessas de privacidade do OkCupid.
Na época da infração, lá em 2014, a política de privacidade do OkCupid afirmava que poderia compartilhar dados dos usuários com “prestadores de serviço”, parceiros comerciais ou empresas afiliadas, ou então apenas após informar explicitamente os usuários e dar a eles a opção de recusar. Mas não foi isso que aconteceu. A FTC concluiu que o OkCupid compartilhou informações de potencialmente milhões de usuários, incluindo até 3 milhões de fotos, com uma empresa de IA chamada Clarifai. Essa empresa não se encaixava em nenhuma dessas categorias — não era prestadora de serviço, parceira nem afiliada — e o OkCupid nunca pediu consentimento aos usuários, nem deu a eles a chance de recusar. Na prática, isso deixou milhões de pessoas completamente sem saber que seus dados estavam sendo reaproveitados nos bastidores.
Como e por que isso aconteceu? A explicação é relativamente banal. Os fundadores do OkCupid tinham interesse direto na Clarifai, que depois utilizou essas 3 milhões de fotos e outros dados de usuários para desenvolver ferramentas de reconhecimento facial e processamento de imagens. Em outras palavras, eles haviam investido na empresa e trataram o OkCupid como uma fonte conveniente de dados. Como relatou o Ars Technica, o CEO da Clarifai reconheceu que os dados ajudaram a construir um sistema capaz de “identificar a idade, o sexo e a raça de rostos detectados”, ou seja, as fotos dos usuários foram transformadas em material de treinamento para uma ferramenta que eles nunca concordaram em apoiar. A FTC observou que, por anos, o OkCupid tentou negar qualquer relação com a empresa de IA.
No papel, isso poderia até ser interpretado como aceitável sob políticas vagas. Mas, na prática, o OkCupid estava tratando os dados dos usuários como se simplesmente pertencessem a ele. Isso vai contra o espírito das promessas de privacidade que fez. Porque o que a política sugeria — e o que os usuários razoavelmente acreditavam — era que seus dados seriam usados apenas das formas explicitamente descritas. E treinar modelos de IA nunca fez parte disso.
Para entender o quão problemático é esse comportamento, pense em um experimento simples: imagine que os fundadores não tivessem investido em uma empresa de IA, mas sim em algo como uma corretora de seguros de automóveis ou uma seguradora de saúde, e então simplesmente dessem a esse negócio totalmente não relacionado acesso a dados sensíveis coletados pelo OkCupid. Esses dados poderiam ser usados, por exemplo, para inferir o estilo de vida das pessoas, orientação sexual ou riscos de saúde e, em seguida, influenciar seus preços de seguro ou elegibilidade — ou seja, gerar consequências negativas no mundo real com base em dados que os usuários nunca compartilharam conscientemente para esse fim.
Um tapinha na mão
Você pode imaginar que um uso tão indevido de dados dos usuários traria penalidades severas. Mas não foi o caso. Como parte do acordo, o OkCupid foi basicamente proibido de deturpar suas práticas de coleta de dados e controles de privacidade no futuro. Nada de multas pesadas — na verdade, nenhuma multa — e nenhuma consequência relevante de longo prazo além da obrigação de cumprir as regras. Em teoria, pessoas afetadas ainda poderiam tentar processar na esfera civil, mas isso é improvável, especialmente porque o Match não admitiu qualquer irregularidade.
Esse tipo de punição é difícil de levar a sério. Na prática, isso nem chega a ser uma penalidade — é apenas uma reafirmação das regras. Basicamente, é como dizer para alguém não fazer algo que já não deveria estar fazendo. Isso faz tudo parecer menos uma fiscalização e mais uma promessa vazia. E isso é difícil de aceitar vindo de uma empresa que já demonstrou estar disposta a esticar — ou simplesmente ignorar — suas próprias promessas quando lhe convinha.
Compartilhar dados sem consentimento: a regra, não a exceção
O caso do OkCupid é apenas o exemplo mais recente desse tipo de postura possessiva em relação aos dados dos usuários. Mas, embora alguns argumentem — incluindo o próprio Match Group — que os tempos mudaram e essas práticas permissivas ficaram no passado, isso está longe de ser verdade. Casos de empresas lidando mal com dados de usuários, muitas vezes compartilhando silenciosamente ou até vendendo essas informações sem consentimento claro, têm se acumulado nos últimos anos.
Veja o Grindr. Nos últimos anos, o app enfrentou penalidades significativas na Europa após ser descoberto que compartilhava dados altamente sensíveis — incluindo orientação sexual, localização precisa e identificadores de publicidade — com centenas de parceiros publicitários sem consentimento válido, resultando em uma multa de US$ 6,1 milhões na Noruega e em ações judiciais coletivas em andamento no Reino Unido sobre o suposto compartilhamento de dados relacionados ao HIV com empresas de publicidade.
Ou outro app de namoro, Raw, onde em 2025 uma falha de segurança expôs a localização exata dos usuários, no nível da rua, junto com dados pessoais como preferências sexuais e datas de nascimento. Esse tipo de exposição não cria apenas riscos online — pode se traduzir em vulnerabilidade no mundo real. Tornando a situação ainda mais distópica, o incidente ocorreu em um momento em que a empresa explorava o desenvolvimento de um dispositivo vestível para monitorar sinais fisiológicos dos parceiros, levantando preocupações óbvias sobre vigilância em cima de práticas de dados já frágeis.
E não são apenas apps de namoro. Entre 2024 e 2025, a General Motors e sua unidade OnStar foram flagradas coletando silenciosamente dados detalhados de comportamento ao volante. Isso incluía informações sobre frenagem, velocidade e localização, que depois foram vendidas a corretores de dados e usadas por seguradoras para aumentar prêmios — em alguns casos, de forma drástica. Novamente, houve consequências financeiras reais para os usuários. A FTC acabou proibindo a prática por cinco anos após uma investigação.
Padrões semelhantes também apareceram em outros lugares — de plataformas de networking como o LinkedIn a corretores de dados e até softwares de segurança. Em todos esses casos — e há muitos outros ainda por vir — os dados dos usuários foram silenciosamente reaproveitados, compartilhados ou vendidos sem que as pessoas realmente soubessem. Se alguma coisa, isso mostra que a ideia de que promessas de privacidade são, muitas vezes, só palavras vazias ainda não desapareceu.
O que isso realmente significa para os usuários
É fácil tratar esses casos como violações abstratas ou questões regulatórias, mas as consequências estão longe de ser abstratas. Quando esse tipo de dado é compartilhado, vazado ou reaproveitado, pode expor informações profundamente pessoais: desde orientação sexual e estado de saúde até histórico de localização precisa — muitas vezes para partes que os usuários nem sabiam que existiam.
Isso pode levar desde manipulação direcionada e criação de perfis comportamentais até riscos no mundo real, como assédio, discriminação ou penalidades financeiras, como vimos com dados de seguros. E, uma vez que esses dados estão por aí, não há uma forma real de recuperá-los ou controlar como serão usados depois. E, à medida que mais sistemas passam a depender da coleta desse tipo de informação, os riscos só aumentam.
Isso fica especialmente evidente com práticas mais recentes, como verificação de idade, que está sendo cada vez mais adotada no mundo todo e frequentemente exige que os usuários forneçam informações altamente sensíveis, como escaneamentos faciais ou documentos de identidade.
Quanto maiores os riscos, maior o problema
Portanto, embora os riscos e preocupações não sejam novos, a situação está se tornando cada vez mais delicada. Veja empresas como a britânica Yoti, que recentemente foi apontada por coletar e reter dados biométricos sem consentimento válido — ou o Discord, que introduziu verificação de idade baseada em documentos e depois enfrentou problemas quando esses dados foram expostos em um vazamento. Em ambos os casos, os usuários foram solicitados a fornecer dados altamente sensíveis, apenas para que eles fossem mal gerenciados ou expostos.
Como um todo, o mundo está caminhando para uma coleta cada vez maior de dados em nome da conveniência. Estamos cercados por tecnologias baseadas nessa mesma premissa — desde sistemas de vigilância doméstica como o Ring até redes de monitoramento urbano como o Flock, que utilizam câmeras com IA para registrar placas e detalhes de veículos em bancos de dados pesquisáveis.
Mas, embora essas inovações sejam promovidas como um benefício para a segurança, todas fazem parte do mesmo problema fundamental. Espera-se que você confie que esses sistemas não serão invadidos e, ao mesmo tempo, que as empresas não farão mau uso dos seus dados. Mas já vimos ambos acontecerem — muitas vezes sem que os usuários sequer saibam. Mesmo quando as políticas parecem tranquilizadoras, sempre há pessoas dentro das organizações com acesso, e basta um uso indevido ou um único “elo fraco”.
É por isso que práticas como coleta massiva de dados, rastreamento comportamental ou monitoramento constante — sejam apresentadas como segurança, personalização ou inovação — passam cada vez mais a parecer não recursos, mas riscos. Porque, quando algo dá errado, são os usuários que lidam com as consequências, não as empresas que coletam os dados. Espera-se que confiemos nas empresas para fazer a coisa certa e que alguém as responsabilize quando não o fazem (se tivermos sorte). Talvez sempre tenha sido assim. Mas, enquanto não houver consequências reais — como mostrou o caso do OkCupid — há muito pouco incentivo para que façam diferente da próxima vez.













