Fiasco da Samsung no ChatGPT evidencia questões de privacidade envolvendo IA
O que foi dito não pode ser desdito. Esta frase é especialmente verdadeira quando se trata dos três funcionários da Samsung que inadvertidamente vazaram o código fonte, uma seqüência de testes e discussões internas da empresa para a OpenAI, a empresa por trás do ChatGPT.
De acordo com o Economist Korea, a Samsung estava com receio de adotar o chatbot alimentado por IA no início, temendo que ele pudesse vazar para o mundo informações internas, como segredos comerciais (eles não tinham ideia do que viria a acontecer). Entretanto, como o ChatGPT estava tomando conta do mundo, a Samsung decidiu juntar-se à festa e aprovou seu uso no local de trabalho para que os funcionários pudessem se manter alinhados às mudanças tecnológicas. Na época, a empresa emitiu um aviso para aqueles que planejavam usar o ChatGPT: "prestar atenção à segurança das informações internas e não inserir informações particulares" ao alimentar o assistente de IA com qualquer solicitação.
A mensagem aparentemente não chegou a todo mundo, pois no espaço dos próximos 20 dias, não um, mas três engenheiros da empresa revelaram o que parecia ser dados corporativos sensíveis da Samsung, potencialmente dando ao OpenAI e a seus concorrentes insights sobre sua tecnologia.
No primeiro caso, um funcionário da Samsung encontrou um bug no código fonte do programa de download do banco de dados de medição da fábrica de semicondutores e pediu ao ChatGPT uma solução. No segundo caso, um funcionário estava usando o ChatGPT para otimizar a seqüência de testes de um programa que identifica o rendimento e os chips defeituosos. No terceiro caso, um funcionário primeiro gravou a reunião interna da empresa em seu smartphone, depois a transcreveu usando um aplicativo de reconhecimento de voz, e a alimentou no ChatGPT para gerar a ata da reunião. Todos os três estão agora enfrentando investigações disciplinares.
Era de se esperar que a Samsung proibisse o ChatGPT imediatamente após os vazamentos, mas isso não aconteceu. Ao invés disso, a Samsung procurou educar seus funcionários sobre os riscos de privacidade envolvidos no uso das Inteligências Artificiais, reforçando o fato de que, não importa o que você diga ao ChatGPT, o conteúdo do chat acabará nos servidores externos do OpenAI. Isso significa que, uma vez que um erro for cometido, não há como voltar atrás, não existe nenhuma maneira de recuperar esses dados. A Samsung também colocou um limite para a quantidade de dados que cada funcionário pode carregar no ChatGPT e avisou que, se alguém deixar algo escapar novamente, o uso do ChatGPT será banido definitivamente.
Não há como desdizer o que foi dito para o ChatGPT
A Samsung não é a primeira, nem será a última vítima da propensão de seus funcionários para discutir assuntos sensíveis com o chatbot da OpenAI. Outras empresas também estão tomando precauções.
A Amazon restringiu o uso do ChatGPT já em janeiro, advertindo os funcionários sobre o perigo da entrada de qualquer informação confidencial no chatbot, como códigos, após a empresa ter detectado uma resposta do ChatGPT que "coincidiu muito" com os dados internos da Amazon. Outro gigante do varejo americano, o Walmart*, tinha inicialmente bloqueado o ChatGPT após detectar atividade que "apresentava risco para a empresa", mas depois permitiu o seu uso e emitiu um conjunto de diretrizes, incluindo que os funcionários devem "evitar a entrada de qualquer informação sensível, confidencial ou de propriedade da empresa".
Várias empresas de serviços financeiros baniram completamente o ChatGPT do local de trabalho. O Bank of America adicionou o ChatGPT à sua lista de aplicações não autorizadas e não permitidas para uso comercial. Outras instituições financeiras que bloquearam o acesso ao chatbot incluem JPMorgan Chase, Citigroup Inc, Goldman Sachs, Deutsche Bank e Wells Fargo. Este último disse à Bloomberg que o inclue nas restrições padrão de software de terceiros, e que "continuará a avaliar formas seguras e eficazes" de usar a tecnologia.
A indústria bancária tem sido a mais pró-ativa em responder aos riscos colocados pelo ChatGPT, e isso é compreensível: os bancos lidam com muitas informações sensíveis dos clientes e são fortemente regulamentados. Mas os mesmos riscos se aplicam a todos os setores. Uma vez que você alimenta o Chatbot com qualquer informação, seja um pedaço de código de proprietário ou a transcrição de uma reunião de diretoria, ela não pode mais ser considerada um segredo, mas parte do domínio público.
Os termos de serviço da OpenAI sugerem que você não deve esperar nenhuma privacidade ao interagir com o chatbot e deixa isso bem claro. Por exemplo, a OpenAI diz que pode ver e usar suas conversas com o ChatGPT para treinar Inteligência Artificial, e que não será capaz de ajudá-lo a remover avisos específicos de seu histórico de chat.
Isso significa que, se você contar ao ChatGPT informações sensíveis sobre você ou sua empresa, qualquer outra pessoa pode potencialmente solicitar esses dados ao ChatGPT, e obter acesso a eles. No caso da Samsung, seus concorrentes podem tentar pedir ao ChatGPT as informações que os funcionários vazaram.
A OpenAI dá a opção de não ter seus dados usados para treinamento, para isso você precisará preencher um formulário especial. Entretanto, se você já compartilhou alguns dados com o ChatGPT que lamenta compartilhar, pode ser tarde demais para isso. Você pode querer considerar apagar sua conta, já que apenas nesse caso seu histórico de chat poderia ser apagado definitivamente. A OpenAI diz que o processo pode levar até 30 dias, e você não será capaz de restaurar sua conta depois que ela tiver sido deletada.
Mas o que acontece depois disso é uma grande questão, já que os usuários geralmente não sabem como suas informações foram utilizadas para treinar o algoritmo, e não têm como verificar se elas de fato foram removidas. Embora seja teoricamente possível fazer o sistema "desaprender" os dados, ou seja, esquecer o que ele aprendeu, este processo é considerado imensamente difícil, até porque requer a identificação do impacto de pontos de dados específicos em um modelo treinado. Por mais que existam pesquisas sobre o tão falado machine “unlearning” em meio à crescente preocupação com as ameaças da IA generativa para a privacidade, trata-se ainda de uma área que precisa ser desenvolvida. A abordagem mais prevalente parece ser a de reeducar todo o modelo a partir do zero, o que é inviável na prática.
Portanto, se não pudermos ter certeza de que as informações que alimentamos no ChatGPT foram excluídas para sempre, mesmo depois de termos exercido todas as nossas opções de privacidade para pedir que fossem apagadas, então provavelmente é melhor não confiar seus segredos mais íntimos a uma Inteligência Artificial, muito menos os da sua empresa. Não há como saber onde eles vão aparecer. É como afirma a própria OpenAI: *"Por favor, não compartilhe informações sensíveis em suas conversas".