Resumen AdGuard: bloqueo de anuncios en el mainstream, nueva herramienta de OpenAI y más
Más de la mitad de los estadounidenses ahora bloquean anuncios, según informe
Los bloqueadores de anuncios se han vuelto una parte integral de la vida digital para aproximadamente el 52% de los estadounidenses, según un nuevo estudio realizado por la empresa de investigación Censuswide. Esto representa un aumento significativo en comparación con 2022, cuando se informó que solo alrededor del 34% de los estadounidenses utilizaban software de bloqueo de anuncios.
Cuando se trata de profesionales de publicidad, programación y seguridad que conocen la industria de anuncios al detalle, los números son aún más impresionantes. Entre dos tercios y tres cuartos de los profesionales de estas industrias utilizan bloqueadores de anuncios. Los usuarios de bloqueadores de anuncios informaron a los investigadores que utilizan estos programas para proteger su privacidad (aproximadamente el 20%), mientras que alrededor del 18% afirmó que su preocupación principal es bloquear anuncios. Cerca del 9% también mencionó que los bloqueadores de anuncios ayudan a cargar las páginas más rápidamente. La encuesta fue realizada en nombre de Ghostery, fabricante de software de bloqueo de anuncios.
Los resultados de la encuesta sugieren que el bloqueo de anuncios se ha vuelto cada vez más común a medida que más personas perciben que facilita y hace más conveniente la navegación web. El hecho de que la mayoría de las personas ahora vean el software de bloqueo de anuncios no solo como una forma de deshacerse de anuncios molestos e invasivos, sino también como una manera de proteger su privacidad, sugiere que las personas están más conscientes de los riesgos de privacidad asociados con la publicidad dirigida, es decir, que implica la extensa recolección de sus datos personales. Y eso es una buena señal.
¿Receta para el desastre? OpenAI revela herramienta que podría ayudar a crear deepfakes de voz
OpenAI, fabricante de ChatGPT, dio un adelanto de su nuevo producto llamado Motor de Voz. La herramienta es un modelo de IA que convierte texto en habla y supuestamente es capaz de crear una voz sintética. Para generar una copia de la voz, es necesario alimentar al modelo con un fragmento de audio grabado de 15 segundos.
Aunque la herramienta podría ser útil para aquellos que necesitan ayuda en la lectura, por ejemplo, ha habido preocupaciones sobre su potencial para abuso. La existencia de tecnología que puede imitar cualquier voz basada en una muestra tan pequeña podría abrir la puerta a una nueva ola de estafas telefónicas e incluso violaciones de seguridad. Aunque hay herramientas en el mercado que pueden imitar una voz real, OpenAI se enorgullece de que su producto se destacaría debido a una mayor calidad en el habla de salida.
OpenAI afirma que no lanzará la nueva herramienta al público aún, citando la necesidad de implementar medidas de mitigación para que no sea abusada por individuos malintencionados. Sin embargo, es casi imposible garantizar que una herramienta tan poderosa no será explotada por cibercriminales una vez que esté disponible. Por lo tanto, aunque es fascinante ver avances adicionales en la generación del habla alimentada por IA, las consecuencias de un avance demasiado rápido, sin medidas de seguridad adecuadas, podrían ser muy graves.
TikTok puesto a prueba por sospechas de violaciones de privacidad y seguridad
La Comisión Federal de Comercio de Estados Unidos (FTC) está investigando la supuesta falta de cumplimiento del TikTok con las leyes de seguridad y privacidad del país. Autoridades de EE. UU. están investigando si la plataforma de videos cortos más popular del mundo ha violado la Regla de Protección en Línea para Niños, que exige que las empresas obtengan el consentimiento de los padres antes de recopilar datos de cualquier persona menor de 13 años.
El organismo regulador también está investigando si TikTok violó la ley al practicar “prácticas comerciales injustas o engañosas”. Esta acusación está relacionada con el informe de que TikTok permite que individuos ubicados en China accedan a datos de usuarios de EE. UU.
TikTok ha estado al borde de ser obligado a salir de EE. UU. durante algún tiempo. El proyecto de ley que obligaría a TikTok a deshacerse o ser prohibido en el país ya fue aprobado por la Cámara Baja del Congreso de EE. UU. y ahora está siendo debatido por el Senado. Y aunque los legisladores de EE. UU. han indicado que no van a apresurarse en aprobar el proyecto de ley, el presidente de EE. UU., Joe Biden, ya ha dicho que lo firmará si se lo envían.
Aunque las preocupaciones sobre TikTok son válidas, es importante aplicar el mismo escrutinio a otras redes sociales que recopilan datos del usuario. El enfoque no debe estar únicamente en las raíces chinas de TikTok debido a su empresa matriz, ByteDance. En cambio, necesitamos poner todas las redes sociales bajo la misma mirada crítica.
Chatbot respaldado por el gobierno de Nueva York difunde desinformación
Nunca confíes demasiado en tus amigos impulsados por IA, eso es lo que hemos estado predicando desde que los asistentes impulsados por IA se convirtieron en parte integral de nuestras vidas diarias en los últimos años. Pero las empresas, y ahora los gobiernos, han adoptado la IA a un ritmo vertiginoso y ahora están enfrentando las consecuencias. Un ejemplo de esto es el gobierno de la ciudad de Nueva York.
Lanzado en octubre pasado como una extensión de un portal de la ciudad, el chatbot fue sorprendido difundiendo información engañosa sobre temas legales. Según una investigación de The Markup, el chatbot afirmó que los empleados podrían dar propinas a sus jefes y aconsejó que los propietarios tienen derecho a discriminar a posibles inquilinos basándose en su fuente de ingresos.
El chatbot es alimentado por los servicios de Azure de Microsoft. En respuesta a las críticas, la administración del alcalde de Nueva York señaló que el chatbot está acompañado por una advertencia de que las personas deben verificar sus respuestas antes de confiar en sus consejos. Pero, ¿quién lee la letra pequeña?
Este problema con el chatbot de la ciudad de Nueva York sirve como una lección de precaución. Aunque la automatización puede simplificar procesos, la confianza ciega en algoritmos defectuosos presenta el riesgo de manchar reputaciones y hacer más daño que bien. Encontrar un equilibrio entre la tecnología y la supervisión humana es crucial para la nueva era de la IA, pero esto está resultando difícil por el momento.