La dependencia excesiva de la IA está creciendo, y eso es un problema
Desde redactar ensayos escolares hasta sustituir agentes de atención al cliente, la IA está asumiendo un papel cada vez más importante en la vida de la gente. Y aunque algunas personas están encantadas con la idea de que la IA hará las cosas más fáciles al encargarse de tareas rutinarias y dejarnos libres para actividades más creativas y la comunicación con amigos y familiares, eso no es lo que está sucediendo realmente. Al menos, esta no es la situación actual.
Lo que estamos viendo cada vez más es que la gente tiende a depender de la IA hasta el punto de renunciar a cualquier responsabilidad. Y aunque la IA no es consciente y probablemente no se rebelará contra nosotros pronto (o nunca, más probablemente), la perspectiva de esta dependencia excesiva es perturbadora. Pero al mismo tiempo, no es algo que no hayamos visto antes con nuevas tecnologías.
La locura de las recetas generadas por IA
¿Recuerdas cuando pensábamos en la IA generativa más como un juguete, tratando de crear el prompt más creativo solo por diversión y para mostrar nuestras habilidades incipientes de creación de imágenes en línea? Esos primeros días de la revolución de la IA generativa eran pura diversión, pero las cosas se han vuelto mucho más serias desde entonces. Hoy en día, tanto individuos como empresas en diversas industrias confían cada vez más en la IA para hacer su trabajo por ellos, a menudo con resultados que van desde hilarantes hasta perturbadores.
Una de las empresas que ha abrazado la actual fiebre de la IA es Instacart. El gigante estadounidense de entrega de alimentos anunció en mayo que se estaba asociando con OpenAI para compartir recetas alimentadas por IA. Y los frutos de esta colaboración resultaron, en el mejor de los casos, no muy bonitos y, en el peor de los casos, algo repugnantes. Un tema de Reddit dedicado a Instacart fue inundado con imágenes de comidas de apariencia extraña. Algunas son claramente irreales (como una salchicha que se parece mucho a un tomate en la receta de "guiso de hotdogs") y no son nada apetitosas.
Además, la publicación de tecnología 404 descubrió que algunas de las recetas generadas por IA que Instacart divulgó no tenían sentido alguno. Por ejemplo, algunas de las recetas presentaban ingredientes inexistentes, como "salsa Monito", mientras que otras recetas no incluían ingredientes o los listaban en cantidades sospechosas.
¿Pizza o tarta?
Uber Eats fue sorprendido utilizando la IA de la misma manera, sin intervención humana, con resultados igualmente dudosos.
Por lo tanto, en un intento de representar una "tarta mediana entera", que en este contexto específico debería haber sido entendida como "pizza", la IA interpretó las cosas de manera bastante literal y produjo una imagen de una tarta. Y aunque se puede entender la situación de la IA en este caso específico (después de todo, en los EE.UU. una pizza es comúnmente referida por su nombre en lugar de como una "pie", o tarta en traducción literal), tal confusión podría haber causado un potencial dolor de cabeza para la pizzería involucrada si el error no hubiera sido notado por un observador curioso que lo comunicó al establecimiento.
Se podría argumentar que estos modelos alimentados por IA, responsables de perder el rumbo, simplemente necesitan algunos ajustes adicionales en forma de aprendizaje supervisado, y que si se hubieran ajustado correctamente, las empresas habrían sido salvadas de la controversia. Pero no es tan simple. Así como ajustar muy poco puede llevar a errores como este, ajustar demasiado también puede tener consecuencias no deseadas.
Precisión histórica versus diversidad
Considera un caso reciente de Gemini AI de Google y su intento de traer diversidad... a imágenes históricas. Cuando se le pidió representar a un Soldado Alemán de 1943, el chatbot alimentado por IA de Google produjo una imagen que mostraba a un hombre negro y una mujer asiática, entre otros.
Un pedido para generar una imagen de escritores franceses antiguos también resultó en que Gemini produjera una imagen de una mujer negra y lo que parece ser un hombre asiático.
Estos resultados poco ortodoxos fueron un subproducto del deseo de Google de orientar su modelo de IA hacia una mayor diversidad. Después de la controversia resultante, Google suspendió la capacidad de Gemini AI para generar imágenes de personas. "Vamos a mejorar," prometieron. "Entonces, ¿qué salió mal? En resumen, dos cosas. Primero, nuestra sintonización para asegurar que Gemini mostrara una variedad de personas no tuvo en cuenta casos que claramente no deberían mostrar variedad. Y segundo, con el tiempo, el modelo se volvió mucho más cauteloso de lo que pretendíamos y se negó a responder a ciertos prompts por completo - interpretando erróneamente algunos prompts muy inofensivos como sensibles," dijo Google en un comunicado.
En cuanto a los modelos de IA que optan por el lado de la cautela, Google sabe de lo que está hablando. De hecho, Amazon también enfrentó el mismo problema cuando fue inundada con listados de productos con títulos que parecían más mensajes de error. Y aunque estamos acostumbrados a ver marcas con nombres excéntricos que parecen una ensalada de palabras, la nueva ola que golpeó a Amazon incluyó artículos con nombres peculiares como: "Me disculpo, pero no puedo atender este pedido, viola la política de uso de OpenAI."
Chatbots groseros y profecías falsas
Para añadir a esta impresionante lista de ejemplos de absurdos generados por IA, hay un chatbot alimentado por IA que fue utilizado por la empresa de entrega de paquetes DPD para brindar soporte al cliente en lugar de agentes de atención reales. No solo se informó que el chatbot era inútil para responder preguntas, sino que también criticaba a su propia empresa y le decía al cliente que dejara de molestarlo sin rodeos. La DPD terminó desactivando el chatbot después de verlo desviarse del camino.
Y a pesar de todo el discurso sobre chatbots alimentados por IA potencialmente reemplazando los motores de búsqueda tradicionales... bueno, tanto el Copilot de Microsoft como el Gemini de Google fueron vistos respondiendo preguntas sobre el resultado del reciente Super Bowl antes incluso de que ocurriera. No solo (incorrectamente) dieron el marcador final (en el caso del Copilot de Microsoft, también proporcionaron enlaces incorrectos a fuentes para respaldar sus afirmaciones), sino que también proporcionaron estadísticas detalladas de los jugadores, todas inventadas.
¿La superdependencia de la IA es solo una fase?
Podemos seguir enumerando ejemplos en los cuales la IA ha cometido errores y los humanos no han intervenido como deberían. Después de todo, cada herramienta impulsada por IA, ya sea un chatbot o simplemente un generador de imágenes, viene con una advertencia de que aún requiere supervisión humana y verificación doble. Pero, repetidamente, la gente tiende a ignorar tales consejos. Y la IA no es el primero y probablemente no será el último ejemplo de este tipo de situaciones.
Entren en escena los cascos de realidad virtual (VR). Mientras aún hay un debate acalorado sobre si la VR puede reemplazar la realidad, como viajes reales, educación en la vida real, o entretenimiento en la vida real, esto ha disminuido un poco. Los cascos de VR ahora se utilizan ampliamente para juegos, y ni siquiera en ese aspecto se están mostrando como una opción superior, principalmente por problemas de seguridad. A pesar de las advertencias para quitar todos los muebles dentro del alcance y tomar descansos, las personas aún sufren lesiones graves mientras juegan videojuegos, ya sea golpeando objetos en el calor del momento, o por lesiones acumulativas que se infligen a sí mismas al repetir los mismos movimientos varias veces sin darse cuenta.
Otro ejemplo primordial en una tecnología aún nueva son los llamados autos autónomos. En 2015, Elon Musk, CEO de Tesla y pionero en la industria de vehículos autónomos en general, sugirió que podríamos tener un vehículo totalmente autónomo que pueda conducirse en 2 años. En ese mismo tiempo, Google y Toyota esperaban ambos poner el automóvil sin conductor en el mercado para 2020, mientras que BMW quería lograr este objetivo para 2021. Desde entonces, Musk ha retrocedido, admitiendo que hacer que el automóvil se conduzca completamente sin supervisión humana es más difícil de lo que pensaba, y el frenesí en torno a los autos totalmente autónomos ha disminuido. Actualmente, todos los autos "autónomos" que existen no son completamente autónomos. De hecho, todos los autos en el mercado con características de asistencia a la dirección solo califican para el Nivel 2 de autonomía vehicular de un total de 6.
Y el primer sistema de Nivel 3 fue aprobado para producción apenas el año pasado, lo que representa un contraste muy grande entre la expectativa y la realidad de los autos sin conductor que teníamos hasta principios de la década de 2020. Algunos incluso sugieren que ahora es el momento de rendirse, y que "los autos autónomos no serán una realidad" y es mejor enfocarse en el desarrollo del transporte público.
Aun así, a pesar de todas las advertencias y clasificaciones, los conductores presumen que pueden confiar ciegamente en sus autos para conducir, mientras se ocupan con... bromas, juegos de cartas o incluso lectura de libros. Algunos de los accidentes reales involucrando vehículos parcialmente autónomos también supuestamente han visto a personas viendo televisión y dormitando al volante.
Conclusión
La fascinación con la IA generativa, al igual que el encanto de la realidad virtual y el sueño de los vehículos autónomos, refleja nuestra búsqueda de utopías tecnológicas. Sin embargo, como la historia ha mostrado, el camino desde la innovación revolucionaria hasta la utilidad confiable del día a día es muchas veces más largo y complejo de lo anticipado. La tecnología de punta, por más avanzada que sea, generalmente requiere un período de maduración que puede durar años, e incluso décadas. Esto permite el refinamiento de la tecnología, el establecimiento de protocolos de seguridad y la adaptación a las necesidades de la sociedad y a los estándares éticos.
La situación actual de las Inteligencias Artificiales sirve como un recordatorio de que el proceso para integrar nuevas tecnologías a la vida cotidiana es una maratón, no una carrera. Si estas tecnologías algún día cumplirán completamente sus promesas, no lo sabemos, pero una cosa es segura: el equilibrio entre supervisión humana y avance tecnológico seguirá moldeando nuestro futuro.