Vigilancia por IA, la primera filtración de datos de ChatGPT y más anuncios. Resumen de AdGuard
En esta edición del resumen de noticias de AdGuard: ChatGPT expone datos personales; Instagram muestra aún más anuncios; una empresa financiada por la CIA gestiona historiales de pacientes; Francia está más cerca de permitir la vigilancia con IA; otro estado de EE. UU. lanza su propia ley de privacidad; y la policía recurre cada vez más a la tecnología de reconocimiento facial.
ChatGPT filtra información sobre chats y pagos en su primera gran filtración de datos
ChatGPT, un popular chatbot basado en Inteligencia Artificial, ha sufrido su primera filtración de datos personales. La filtración reveló los títulos de chat y los mensajes iniciales de algunos usuarios en sus conversaciones con el chatbot a otros usuarios, que pudieron verlos en su propio historial de chat. Además, algunos datos relacionados con el pago de alrededor del 1,2% de los usuarios activos de ChatGPT Plus también podrían haber quedado expuestos. Esta información podría haber incluido el nombre completo de los usuarios, su dirección de correo electrónico, los cuatro últimos dígitos del número de su tarjeta de crédito y la fecha de caducidad de la tarjeta.
OpenAI, la empresa que está detrás de ChatGPT, atribuyó la filtración a un fallo en una biblioteca de código abierto que utiliza para ChatGPT. En un comunicado, OpenAI afirmó que el fallo ya se ha corregido y aseguró que "no hay más riesgo para los datos de los usuarios".
La primera violación de la privacidad de ChatGPT se produjo muy rápidamente, pero no debería haber sido una sorpresa. La privacidad es algo que los desarrolladores de herramientas de Inteligencia Artificial han dejado de lado al entrenar sus modelos con datos que incluyen contenidos protegidos por derechos de autor, recogidos de todo Internet. De hecho, no puedes esperar mucha privacidad al utilizar ChatGPT: en sus condiciones de servicio, OpenAI declara abiertamente que puede utilizar tus entradas de texto e imágenes para mejorar sus servicios.
Instagram ha entregado lo que nadie pidió: más anuncios
Desde que empezó a mostrar anuncios en 2013, Instagram parece tener la misión de mostrar tantos anuncios como sea posible en tu feed. Esta tendencia continuará en 2023, ya que Instagram acaba de introducir dos nuevos tipos de anuncios: anuncios que aparecen cuando buscas algo y anuncios que recuerdan a productos que has visto antes.
Los "anuncios de búsqueda" aparecen después de hacer clic sobre una publicación de los resultados de búsqueda. Este formato de anuncio aún está en las primeras fases de lanzamiento, y está previsto que esté disponible en todo el mundo en los próximos meses. Los "anuncios de recordatorio" prometen ser menos intrusivos, ya que para ver notificaciones sobre el inicio de un evento anunciado es necesario registrarse.
No es ningún secreto que no somos los mayores fans de los anuncios, especialmente cuando se trata de Instagram, una plataforma que ya está saturada de anuncios y publicaciones "patrocinadas". Pero, ¿será ésta la gota que colme el vaso? Es poco probable, pero podría acelerar la migración de los usuarios que sufren "fatiga publicitaria" a otras plataformas más limpias, como BeReal.
Hospitales británicos tuvieron que compartir datos con la empresa estadounidense Spytech
Palantir, una empresa de minería de datos vinculada a la CIA, ha sido contratada para recopilar y procesar "información confidencial de pacientes" de hospitales públicos británicos, informó OpenDemocracy. Según un documento interno citado por la publicación, cientos de hospitales han recibido la orden de empezar a cargar historiales de pacientes en una base de datos gestionada por Palantir. La base de datos utiliza el software de Palantir llamado Foundry, que integra datos de distintas fuentes y ayuda a analizarlos.
Palantir ya ha hecho ofertas para el NHS: en 2020, fue responsable del lanzamiento de la vacuna Covid-19. Desde entonces, la empresa estadounidense se ha asegurado decenas de millones de dólares en contratos con el gobierno británico y está a la caza de un nuevo contrato de 580 millones de dólares para construir una base de datos del NHS.
El gobierno británico ha asegurado que Palantir no tendría acceso a información que pudiera revelar la identidad de las personas, ya que ésta quedaría "enmascarada" mediante la pseudoanonimización. Se trata de un método en el que la información que puede utilizarse para identificar a las personas se mantiene separada del resto de los datos. Sin embargo, este método no es infalible porque la información "oculta" puede volver a mezclarse con los datos conocidos, lo que crea un grave riesgo para la privacidad y la seguridad. Y el hecho de que estos datos los maneje Palantir, una empresa conocida por su trabajo con la policía y el FBI, lo hace aún más preocupante.
Liberdad, igualdad y vigilancia: Francia legaliza un sistema de vigilancia basado en inteligencia artificial
Francia está un paso más cerca de legalizar el uso de la vigilancia basada en inteligencia artificial, y se convertirá en el primer país de la UE en hacerlo. Las dos cámaras del Parlamento francés han aprobado por abrumadora mayoría el proyecto de ley que da luz verde al uso de software de vigilancia basado en Inteligencia Artificial para vigilar a las personas durante los Juegos Olímpicos y Paralímpicos del próximo año en París.
Se supone que la medida es temporal, pero cuando se trata de un programa gubernamental, siempre hay riesgos de que se convierta en algo más permanente. Los partidarios del proyecto de ley afirman que la mezcla de cámaras e inteligencia artificial es lo que se necesita para prevenir conflictos y atentados. El gobierno francés afirma que la vigilancia no implicaría el reconocimiento facial. Sin embargo, los críticos afirman que implicaría necesariamente la recogida y el tratamiento de otros datos biométricos, como el aspecto, la postura, los gestos y la forma de caminar, que serían suficientes para identificar a una persona. Organizaciones de defensa de las libertades civiles sostienen que el sistema propuesto podría suponer un "ataque total a los derechos a la privacidad, a la protesta y a la libertad de reunión".
De hecho, existe el riesgo de que la ley coloque a Francia en un callejón sin salida hacia un estado de vigilancia total, alejándose cada vez más de ser Les Pays des Droits de l'Homme (El País de los Derechos Humanos), como se le conoce desde hace tiempo. Además, podría sentar un peligroso precedente para el resto de la Unión Europea.
La policía estadounidense recurre cada vez más a la tecnología de reconocimiento facial
Si necesitas un ejemplo de dónde podría acabar todo esto, no tiene que ir muy lejos: basta con mirar a Estados Unidos, donde la policía ha realizado casi un millón de búsquedas en una base de datos recopilada por Clearview AI, una empresa estadounidense de reconocimiento facial. Esto fue revelado por Hoan Ton-that, el propio CEO de Clearview. Él dijo que la empresa ya ha recopilado 30.000 millones de imágenes de Internet y las ha incluido en una base de datos que puede ser consultada por la policía. Las imágenes se recogieron sin el conocimiento ni el consentimiento de los usuarios.
El año pasado, se prohibió a Clearview AI vender su software a empresas privadas y particulares estadounidenses, pero no a las fuerzas del orden. Algunos estados y ciudades de Estados Unidos han tomado cartas en el asunto y han prohibido o restringido severamente el uso de la tecnología de reconocimiento facial por parte de la policía. Otros no lo han hecho. La policía de Miami dijo a la BBC que utilizan el reconocimiento facial para "todos" los tipos de delitos.
La forma en que Clearview recopila datos biométricos sin el conocimiento ni el consentimiento de las personas constituye una violación de la privacidad. Esto pone a millones de personas en peligro de que sus datos personales se utilicen indebidamente. Al tratarse de una empresa privada, Clearview opera bajo un velo de secretismo, por lo que la precisión de su algoritmo también es cuestionable. Se sabe que el reconocimiento facial por Inteligencia Artificial puede ser racialmente sesgado y causan acusaciones falsas y detenciones incorrectas. La IA tiene muchos usos positivos, pero posibilitar un estado de vigilancia no es uno de ellos. Para evitar el uso de la IA con estos fines, es necesaria una mayor regulación.
Un estado más de EE.UU. aprueba una ley de privacidad de datos
Para no terminar nuestro resumen de noticias con negatividad, he aquí una buena noticia: Iowa acaba de convertirse en el sexto estado de EE.UU. en promulgar una ley integral de privacidad. La ley da a los residentes del estado un mayor control sobre su información personal, incluido el derecho a optar por la venta de sus datos personales y su uso para publicidad dirigida.
La ley pretende llenar el vacío dejado por la falta de legislación federal estadounidense sobre privacidad. Entraría en vigor en 2025 y se aplicaría a las empresas que manejen datos personales de al menos 100.000 ciudadanos de Iowa en un año, o que obtengan más del 50% de sus ingresos de la venta de datos personales al tiempo que tratan los datos de al menos 25.000 consumidores del estado. Al promulgar esta ley, Iowa sigue los pasos de California, Colorado, Connecticut, Utah y Virginia, que han aprobado leyes similares.
Aunque la nueva ley sea un gran paso adelante en términos de protección de la privacidad en el estado, el mero hecho de que Iowa sea sólo el sexto estado de los 50 que cuentan con una ley de este tipo refleja el deficiente estado de la protección de la privacidad en el conjunto de Estados Unidos. Hace tiempo que debería haberse promulgado una ley federal de protección de la intimidad, y esperemos que llegue cuanto antes.