L'IA prend de plus en plus de place dans notre quotidien. Est-ce une bonne chose ?
Qu'il s'agisse de rédiger des dissertations ou de remplacer les agents du service clientèle, l'IA joue un rôle de plus en plus important dans le quotidien des gens. Et si certains se laissent séduire par l'idée que l'IA facilitera les choses en prenant en charge les tâches routinières et en nous libérant pour des activités plus créatives et des choses que nous avons probablement négligées, comme une communication efficace avec nos amis et notre famille, ce n'est pas forcément ce qui est en train de se passer en réalité. Du moins, ce n'est pas la situation dans son ensemble.
Ce que nous constatons de plus en plus, c'est que les gens ont tendance à s'en remettre à l'IA au point de renoncer à toute responsabilité. Bien que l'IA ne soit pas consciente et qu'elle ne se dressera probablement pas contre nous de sitôt (nous ne pensons pas qu'elle puisse faire ça), la perspective d'une telle dépendance excessive est inquiétante. Mais en même temps, ce n'est pas quelque chose que nous n'avons jamais vu se produire avec les technologies les plus récentes.
Le cirque avec les recettes générées par l'IA
Vous souvenez-vous de l'époque où nous considérions l'IA générative plutôt comme un jouet, en essayant de trouver le prompt le plus créatif pour nous amuser et exhiber en ligne nos compétences naissantes en création d'images ? Les premiers jours de la révolution de l'IA générative étaient amusants et ludiques, mais les choses sont devenues beaucoup plus sérieuses depuis. Aujourd'hui, les particuliers et les entreprises de différents secteurs s'appuient de plus en plus sur l'IA pour faire leur travail à leur place, avec des résultats souvent hilarants ou carrément inquiétants.
Instacart est l'une des entreprises qui a adopté l'engouement pour l'IA. Le géant américain de la livraison de produits alimentaires a annoncé en mai dernier qu'il s'associait à OpenAI pour proposer des recettes alimentées par l'IA. Les fruits et légumes issus de cette collaboration se sont révélés au mieux peu esthétiques, au pire carrément écœurants. Un fil de discussion Reddit consacré à Instacart a été inondé d'images de repas bizarres. Certaines ne sont manifestement pas réalistes (comme la saucisse qui ressemble étrangement à une tomate dans la recette d'un " sauté de hot-dog ") et ne sont pas du tout appétissantes.
De plus, la publication tech 404 a découvert que certaines des recettes générées par l'IA d'Instacart n'avaient aucun sens. Par exemple, certaines recettes contenaient des ingrédients inexistants, comme la sauce "Monito", tandis que d'autres ne contenaient aucun ingrédient ou les mentionnaient en quantités douteuses.
Pizza ou tarte ?
Uber Eats a été pris en flagrant délit d'utilisation de l'IA de la même manière, avec des résultats tout aussi contestables.
Ainsi, en essayant de visualiser une "tarte moyenne entière" qui, dans ce contexte particulier, aurait dû être comprise comme une "pizza", l'IA a pris les choses au pied de la lettre et a produit l'image d'une tarte sucrée. Bien que l'on puisse comprendre l'IA dans ce cas précis (après tout, une pizza est normalement désignée par son nom plutôt que par le terme "tarte"), une telle confusion aurait pu causer un mal de tête potentiellement foudroyant pour la pizzeria concernée si la gaffe n'avait pas été repérée par un observateur curieux qui a contacté la pizzeria par téléphone.
On pourrait dire que les modèles d'intelligence artificielle responsables de l'erreur ont simplement besoin d'un peu de peaufinage sous la forme d'un apprentissage supervisé, et que s'ils avaient été correctement réglés, les entreprises auraient été épargnées de l'embarras. Mais ce n'est pas aussi simple. Parfois, trop d'ajustements se retournent contre les entreprises. De même qu'un réglage insuffisant peut conduire à des erreurs comme celle-ci, un réglage excessif peut également avoir des conséquences inattendues.
L'exactitude historique contre la diversité
Prenons l'exemple récent de l'IA Gemini de Google et de sa tentative d'apporter de la diversité... aux images historiques. Lorsqu'on lui a demandé de représenter un soldat allemand de 1943, le chatbot de Google, alimenté par l'IA, a produit une image montrant, entre autres, un homme noir et une femme asiatique.
Une demande de génération d'une image des premiers romanciers français a également conduit Gemini à produire une image d'une femme noire et de ce qui semble être un homme asiatique.
Ces résultats peu orthodoxes sont le produit de la volonté de Google d'orienter son modèle d'IA vers une plus grande diversité. Suite à la controverse qui s'en est suivie, Google a mis en veilleuse la capacité de Gemini AI à générer des images de personnes. *Nous ferons mieux", ont-ils promis. Qu'est-ce qui n'a pas fonctionné ? En bref, deux choses. Tout d'abord, nos réglages visant à garantir que Gemini montre un éventail de personnes n'ont pas pris en compte les cas qui ne devraient manifestement pas montrer d'éventail. Deuxièmement, au fil du temps, le modèle est devenu beaucoup plus prudent que nous l'avions prévu et a refusé de répondre à certaines questions, interprétant à tort des questions très anodines comme particulièrement délicates " Google a déclaré dans un communiqué.
En ce qui concerne la tendance à la prudence des modèles d'IA, Google sait de quoi il parle. En fait, Amazon s'est déjà trouvé confronté au même problème, quand la société a été inondée de listes de produits dont les titres ressemblaient plutôt à des messages d'erreur. Alors que nous sommes habitués à voir des marques dont les noms excentriques ressemblent à une salade de mots, la nouvelle vague qui a frappé Amazon comprenait des articles à la sonorité étrange tels que : "Je m'excuse, mais je ne peux pas répondre à cette demande, car elle viole la politique d'utilisation de l'OpenAI. "
Chatbots grossiers et fausses prédictions
Pour ajouter à cette liste déjà impressionnante d'exemples d'absurdités générées par l'IA, il existe un chatbot alimenté par l'IA qui a été utilisé par la société de livraison de colis DPD pour fournir une assistance à la clientèle à la place de véritables agents de clientèle. Non seulement ce chatbot n'a pas su répondre aux questions, mais il a également critiqué sa propre entreprise et a dit au client de cesser de l'harceler en des termes très clairs. DPD a fini par fermer le chatbot après la débacle.
Et malgré tout ce qui se dit sur les chatbots dotés d'IA qui pourraient remplacer les moteurs de recherche traditionnels... on a vu Copilot de Microsoft et Gemini de Google répondre à des questions sur le résultat du récent Super Bowl avant même qu'il n'ait eu lieu. Non seulement ils ont donné (à tort) le résultat final (dans le cas de Copilot de Microsoft, ils ont également fourni des liens incorrects vers des sources pour étayer leurs affirmations), mais ils ont également fourni des statistiques détaillées sur les joueurs, toutes inventées.
La dépendance excessive de l'IA n'est-elle qu'une phase ?
On pourrait énumérer à l'infini des exemples de cas où l'IA a manqué sa cible et où les humains ne sont pas intervenus pour aider comme ils auraient dû le faire. Après tout, chaque outil piloté par l'IA, qu'il s'agisse d'un chatbot ou d'un simple générateur d'images, est accompagné d'une clause de non-responsabilité indiquant qu'il nécessite toujours une supervision humaine et une double vérification. Mais les gens ont fréquemment tendance à négliger ces conseils. L'IA n'est pas le premier et probablement pas le dernier exemple d'une telle attitude.
Voici les casques de réalité virtuelle. Bien qu'il y ait encore un débat latent sur la question de savoir si la RV peut remplacer la réalité, comme les voyages réels, l'éducation dans la vie réelle, ou les divertissements dans la vie réelle, il s'est quelque peu apaisé. Les casques de RV sont aujourd'hui largement utilisés pour les jeux, et même là, ils ne s'avèrent pas être une option supérieure, principalement en raison de problèmes de sécurité. Malgré les avertissements invitant à retirer tous les meubles se trouvant à proximité et à faire des pauses, des personnes continuent de se blesser gravement en jouant à des jeux vidéo, soit en se cognant à des objets dans le feu de l'action, soit en s'infligeant des blessures cumulées en répétant les mêmes mouvements plusieurs fois sans s'en rendre compte.
Un autre remarquable exemple de foi en une technologie objectivement encore à l'état brut est celui des voitures dites "autopilotées".
En 2015, Elon Musk, PDG de Tesla et pionnier de l'industrie des véhicules autonomes en général, a laissé entendre que nous pourrions disposer d'un véhicule entièrement autonome capable de se conduire tout seul dans deux ans. À la même époque, Google et Toyota espéraient tous deux mettre la voiture sans conducteur sur le marché d'ici 2020, tandis que BMW visait un objectif de 2021. Depuis, Musk a fait marche arrière, admettant qu'il était plus difficile qu'il ne le pensait de faire en sorte que la voiture se conduise entièrement sans surveillance humaine, et le battage médiatique autour des voitures entièrement autonomes s'est calmé. À l'heure actuelle, toutes les voitures "autonomes" existantes ne le sont pas. En fait, toutes les voitures sur le marché dotées de fonctions d'assistance à la conduite n'atteignent que le niveau 2 d'autonomie du véhicule sur 6.
Et le premier système de niveau 3 n'a été approuvé pour la production que l'année dernière - bien loin du rêve d'une réalité sans conducteur au début des années 2020. Certains suggèrent même qu'il est temps de jeter l'éponge, et que "les voitures auto-conduites n'arriveront pas " et qu'il vaut mieux se concentrer sur le développement des transports publics.
Pourtant, malgré tous les avertissements et les classifications, les conducteurs supposent qu'ils peuvent aveuglément se fier à leur voiture pour conduire, tout en s'occupant à... jouer au patty-cake, aux cartes, ou même lire des livres. Certains accidents réels impliquant des véhicules partiellement autonomes auraient également vu des personnes regarder la télévision et faire des siestes au volant.
Conclusion
La fascination pour l'IA générative, tout comme l'attrait de la réalité virtuelle et le rêve des véhicules autonomes, reflète notre quête d'utopies technologiques. Pourtant, comme l'histoire l'a montré, le passage d'une innovation révolutionnaire à une utilité quotidienne fiable est souvent plus long et plus complexe que prévu. Les technologies de pointe, aussi avancées soient-elles, nécessitent généralement une période de maturation qui peut s'étendre sur des années, voire des décennies. Cette période permet d'affiner la technologie, d'établir des protocoles de sécurité et de s'aligner sur les besoins de la société et les normes éthiques.
Le bilan mitigé de l'IA nous rappelle que l'intégration des nouvelles technologies dans le tissu de la vie quotidienne est un marathon, et non un sprint. Il reste à voir si ces technologies tiendront un jour pleinement leurs promesses, mais une chose est sûre : l'équilibre entre la surveillance humaine et le progrès technologique continuera à façonner notre avenir.