El fiasco de Samsung con ChatGPT pone en evidencia los problemas de privacidad de la IA
La expresión "Lo que se ha dicho no se puede deshacer" se hace especialmente verídica en el caso de los tres empleados de Samsung que, de manera inadvertida, filtraron el código fuente, pruebas internas y conversaciones relacionadas con ChatGPT a OpenAI. Este fiasco ha puesto en evidencia las preocupaciones de privacidad en torno a la Inteligencia Artificial (IA).
Según la revista Economist Korea, Samsung inicialmente se mostró reacio a adoptar el chatbot impulsado por IA, ya que temía que pudiera filtrar información confidencial como secretos comerciales al mundo exterior. Sin embargo, a medida que ChatGPT se iba volviendo cada vez más popular, Samsung decidió unirse a la tendencia y aprobó su uso en el lugar de trabajo para que los empleados pudieran mantenerse al día con la tecnología en constante cambio. En ese momento, la empresa emitió una advertencia a aquellos que planeaban utilizar ChatGPT: "preste atención a la seguridad de la información confidencial y no introduzca datos privados" al hacer una solicitud al asistente de IA
En los 20 días posteriores a la advertencia de Samsung sobre el uso de ChatGPT, tres ingenieros de la empresa revelaron lo que parecían ser datos corporativos sensibles, dando potencialmente a OpenAI y a sus competidores información sobre la tecnología de Samsung.
En el primer caso, un empleado encontró un error en el código fuente del programa de descarga de bases de datos de medición de la fábrica de semiconductores y pidió una solución a ChatGPT. En el segundo caso, otro empleado utilizó ChatGPT para optimizar la secuencia de pruebas de un programa que identifica el rendimiento y los chips defectuosos. En el tercer caso, un empleado grabó una reunión interna de la empresa en su smartphone, la transcribió utilizando una aplicación de reconocimiento de voz y la introdujo en ChatGPT para generar el acta de la reunión. Como resultado, los tres empleados se enfrentan ahora a investigaciones disciplinarias.
A pesar de estas filtraciones, Samsung no ha prohibido el uso de ChatGPT en su lugar de trabajo. En cambio, ha tratado de educar a sus empleados sobre los riesgos de privacidad que implica el uso de la Inteligencia Artificial, reforzando el hecho de que cualquier información compartida con ChatGPT terminará en los servidores externos de OpenAI. Samsung también ha establecido un límite en la cantidad de datos que cada empleado puede subir a ChatGPT y ha advertido que, en caso de otra filtración, se prohibirá el uso de ChatGPT para siempre. De esta forma, Samsung espera evitar futuros problemas de privacidad en su empresa.
No se puede borrar lo que se dijo a ChatGPT
Samsung no es la primera, ni será la última víctima de la propensión de sus empleados a discutir asuntos sensibles con el chatbot de OpenAI. Otras empresas también están tomando precauciones.
Amazon restringió el uso de ChatGPT ya en enero, advirtiendo a los empleados sobre el peligro de introducir cualquier información confidencial en el chatbot, como códigos, después de que la empresa hubiera detectado una respuesta de ChatGPT que "coincidía estrechamente" con los datos internos de Amazon. Otro gigante estadounidense, Walmart, había bloqueado inicialmente ChatGPT tras detectar una actividad que "suponía un riesgo para la empresa", pero luego permitió su uso y publicó una serie de directrices, incluyendo que los empleados deben "impedir la entrada de cualquier información sensible, confidencial o propiedad de la empresa en el chatbot".
Varias empresas de servicios financieros han prohibido completamente ChatGPT en el lugar de trabajo. El Bank of America ha añadido ChatGPT a su lista de aplicaciones no autorizadas y no permitidas para uso empresarial. Otras instituciones financieras que han bloqueado el acceso al chatbot incluyen JPMorgan Chase, Citigroup Inc, Goldman Sachs, Deutsche Bank y Wells Fargo. Esta última ha declarado a Bloomberg que la incluye en las restricciones estándar de softwares de terceros, y que "seguirá evaluando formas seguras y eficaces" de utilizar la tecnología.
Se ha visto que el sector bancario ha sido el más proactivo en abordar los riesgos de privacidad que plantea ChatGPT. Es comprensible, dado que los bancos manejan gran cantidad de información sensible de los clientes y están sujetos a estrictas regulaciones. Sin embargo, es importante destacar que estos riesgos son aplicables a todos los sectores. Una vez que se proporciona cualquier información al chatbot, ya sea una pieza de código propietario o la transcripción de una reunión de la junta directiva, esa información ya no puede considerarse confidencial y se convierte en parte del dominio público.
Los términos de servicio de OpenAI establecen que no se debe esperar ningún tipo de privacidad al interactuar con el chatbot, y lo deja muy claro. De hecho, OpenAI afirma que puede ver y utilizar las conversaciones de los usuarios con ChatGPT para entrenar la Inteligencia Artificial, y que no pueden ayudar a eliminar avisos específicos del historial de chat.
Podría decirse que la falta de privacidad con ChatGPT es un riesgo muy real para las empresas, ya que cualquier información compartida con el chatbot podría ser accesible por cualquier persona que la solicite. En el caso de Samsung, sus competidores podrían intentar obtener información confidencial a través de ChatGPT, lo que podría poner a la empresa en una situación vulnerable.
OpenAI te da la opción de que tus datos no se utilicen para el entrenamiento, pero para ello tendrás que rellenar un formulario especial. Sin embargo, si ya has compartido algunos datos con ChatGPT de los que te arrepientes, puede que sea demasiado tarde para ello. Es posible que desees considerar la eliminación de tu cuenta, ya que sólo entonces su historial de chat podría ser eliminado de forma permanente. OpenAI dice que el proceso puede durar hasta 30 días, y no podrás restaurar tu cuenta una vez que haya sido eliminada.
A menudo, la falta de transparencia en el proceso de entrenamiento del algoritmo es una gran preocupación para los usuarios. Después de proporcionar información a ChatGPT, es difícil saber cómo se utilizó exactamente esa información para entrenar al algoritmo y si fue eliminada de manera efectiva después de su uso. Aunque teóricamente es posible hacer que el sistema "desaprenda" la información, es un proceso extremadamente difícil y complejo que requiere identificar el impacto de puntos de datos específicos en un modelo entrenado. Por mucho que se investigue sobre la tan cacareada machine “unlearning” en medio de la creciente preocupación por las amenazas a la privacidad de la IA generativa, este sigue siendo un campo por desarrollar. El enfoque más extendido parece consistir en volver a entrenar todo el modelo desde cero, lo que resulta poco práctico en la práctica.
En conclusión, la privacidad es una preocupación cada vez mayor en el uso de Inteligencia Artificial, y el caso de ChatGPT no es una excepción. Aunque es posible pedir que se elimine la información que se ha introducido en el chatbot, no podemos estar seguros de que se haya borrado por completo. En última instancia, puede ser mejor evitar compartir secretos íntimos o corporativos con una IA como ChatGPT, tal como sugiere la propia OpenAI. Es mejor prevenir que lamentar, y en este caso, la prevención es clave para proteger la privacidad y la confidencialidad de la información. La propia OpenAI afirma: "Por favor, no compartas información sensible en tus conversaciones".