Combattre le feu par le feu : les grands modèles linguistiques pour bloquer les publicités dans le chatbot alimenté par l'IA
Avec la sortie de ChatGPT l'année dernière, et de Bard de Google et Bing AI de Microsoft plus tôt cette année, nous sommes entrés dans l'ère des chatbots alimentés par l'IA. Bien qu'il y ait eu des tentatives dans le passé pour introduire des chatbots dotés d'IA capables d'imiter le langage humain, comme Tay de Microsoft et BlenderBots de Meta, ces tentatives ont toutes échoué et se sont retournées contre les entreprises lorsque les chatbots ont déraillé après avoir interagi avec de vrais humains.
Cependant, il semble que cette génération de chatbots alimentés par l'IA, dont le meilleur exemple est peut-être le ChatGPT d'OpenAI, soit là pour durer. Progressivement mais sûrement, ils deviennent un élément essentiel de nos vies, un moyen de travailler et de se divertir. De plus en plus de personnes et d'entreprises se préparent à utiliser des chatbots d'IA, et la taille du marché mondial des chatbots devrait atteindre 1,25 milliard de dollars d'ici 2025. Selon une enquête de Forbes Advisor, 73 % des entreprises utilisent déjà ou prévoient d'utiliser l'IA (c'est-à-dire les chatbots) pour la messagerie instantanée, tandis que 46 % exploitent l'IA pour la publicité personnalisée.
Cette nouvelle génération de chatbots s'appuie sur les LLM, ou grands modèles linguistiques, qui constituent leur base algorithmique. Ces modèles sont entraînés sur d'énormes ensembles de données, constitués de données textuelles extraites de l'ensemble du web. Il s'agit notamment de Wikipédia, de documents de recherche, de données mathématiques, de Reddit, etc. La version la plus avancée de ChatGPT et Bing AI s'appuient sur le modèle GPT-4 d'OpenAI, tandis que Bard de Google s'appuie actuellement sur le modèle PaLM 2. Ces LLM peuvent présenter des différences dans leurs ensembles d'entraînement (ni OpenAI ni Google n'ont révélé publiquement le nombre exact de paramètres et le corpus de matériel d'entraînement utilisé pour entraîner leurs derniers modèles), mais la manière dont ils produisent des résultats est la même. Toutes les informations dont ils se gavent sont nécessaires pour qu'ils puissent prédire le mot suivant d'une phrase en fonction des mots précédents.
Cette capacité des LLM à deviner correctement le mot suivant dans une phrase peut également être utilisée pour insérer des publicités dans les réponses du chatbot. Nous allons voir dans cet article comment les entreprises exploitent les chatbots dotés d'IA pour faire de la publicité, les problèmes que cela peut poser aux utilisateurs et les moyens d'exploiter la puissance des LLM pour mettre fin à ces publicités.
La publicité dans les chatbots alimentés par l'IA : aujourd'hui et demain
Les entreprises peuvent exploiter les capacités des LLM de nombreuses façons pour diffuser des publicités. Par exemple, un chatbot doté d'une intelligence artificielle pourrait identifier un mot clé dans la requête de l'utilisateur ("acheter", "conseiller", "recommander") qui signale l'intention d'acheter un produit, tel qu'un téléphone, puis inclure dans sa sortie une publicité qui incite l'utilisateur à acheter un produit spécifique, par exemple un iPhone. Ou, plus subtilement, il peut déduire l'intention de l'utilisateur à partir du contexte ; par exemple, si un utilisateur demande "Quel est le meilleur cadeau pour un enfant de 3 ans", le chatbot peut inclure une publicité pour un magasin de jouets en ligne dans son résultat.
Microsoft a été le premier à intégrer des publicités dans les chatbots d'IA avec son Bing AI, qui affiche des publicités sous différents formats, tels que des liens, des images ou des bulles d'achat promotionnelles.
Dans Bing AI, le lien sponsorisé peut être placé à la fois au-dessus et au-dessous des résultats authentiques..
Google a suivi les traces de Microsoft avec sa Google Search Generative Experience (SGE). SGE est une nouvelle fonctionnalité de Google Search qui permet aux utilisateurs de discuter avec un robot dans les résultats de recherche et d'afficher des publicités à la fois à l'intérieur et à l'extérieur de l'instantané généré par l'IA. Contrairement aux annonces de Bing AI, les annonces de SGE sont séparées du corps de la réponse du chatbot, ce qui les rend potentiellement plus faciles à bloquer sans altérer le message lui-même. Toutefois, rien ne dit que Google s'inspirera de Microsoft et commencera à afficher des publicités directement dans les réponses des chatbots à un moment donné.
Un autre chatbot qui pourrait bientôt diffuser des publicités est My AI, un chatbot basé sur ChatGPT intégré à Snapchat. Snap a confirmé avoir expérimenté des liens sponsorisés dans ses réponses.
Cependant, tous les chatbots alimentés par l'IA n'ont pas de publicité. ChatGPT et Bard sont deux exemples de chatbots sans publicité. Lorsqu'on lui a demandé s'il pouvait afficher des publicités dans ses réponses, Bard a répondu qu'il n'avait pas été conçu pour être un produit commercial, mais un projet de recherche. *Je n'ai aucun intérêt financier à afficher des publicités et je pense que ce serait une violation de la confiance de mes utilisateurs", nous a expliqué M. Bard. De plus, M. Bard a poursuivi en mettant en garde contre les publicités dans les chatbots commerciaux : "Je vous recommande de faire attention aux informations que vous fournissez à ces chatbots, car ils peuvent cibler des publicités à votre intention ".
Cet avertissement a été repris par le ChatGPT d'OpenAI, qui a souligné "les inquiétudes concernant la transparence, le consentement de l'utilisateur, la confidentialité des données et le potentiel de manipulation ou d'utilisation abusive " que pourrait susciter la pratique consistant à insérer des publicités dans les réponses de l'IA.
Cette position pourrait toutefois se raréfier, car de plus en plus d'entreprises adoptent des chatbots alimentés par l'IA en tant que solutions prêtes à l'emploi, y compris celles proposées par OpenAI, et cherchent à les monétiser. Snap est un excellent exemple de cette tendance.
Nous pensons que les publicités améliorent rarement, voire jamais, l'expérience de l'utilisateur, et même s'il y a une très faible chance qu'elles le fassent, il y a plus de chance qu'elles l'aggravent. Et ce n'est pas une exception lorsqu'il s'agit de publicités dans les chatbots alimentés par l'IA.
Comment les publicités dans les chatbots peuvent nuire à l'expérience des utilisateurs
Outre le fait que les publicités sont intrinsèquement ennuyeuses et pas toujours véridiques, le fait de les voir dans des réponses générées par l'IA peut être doublement néfaste.
Tout d'abord, leur inclusion peut interrompre le flux de votre conversation avec le robot, par exemple si elles apparaissent au milieu du chat. Vous pouvez également vous sentir manipulé, car ces publicités ont plus de chances d'influencer vos opinions, vos décisions et vos actions en fonction de l'agenda de l'annonceur ou de l'algorithme du chatbot. En effet, contrairement aux moteurs de recherche traditionnels, où vous pouvez voir de nombreux autres liens et sources d'information, les chatbots peuvent limiter votre exposition à différentes perspectives et options. Cela peut fausser votre perception de la réalité et obscurcir votre jugement.
Maintenant que nous avons souligné certains des risques liés à la présence de publicités dans les réponses des chatbots, passons à la partie suivante de notre article, qui porte sur la manière de bloquer les publicités à l'ère de l'IA.
La nouvelle frontière du blocage publicitaire
Dans certains cas, il n'est pas nécessaire de réinventer la roue. Nous pouvons nous débarrasser des publicités qui ne font pas partie intégrante de la réponse du chatbot, comme les publicités du SGE de Google, en utilisant les méthodes traditionnelles de blocage des publicités. Cependant, lorsque les publicités se fondent dans la réponse du chatbot et deviennent une partie inaliénable de la réponse, la tâche devient plus difficile. En effet, si nous bloquons ces publicités à l'aide des méthodes traditionnelles de blocage des publicités, nous risquons de bloquer également une partie de la réponse, perdant ainsi une partie des informations souhaitées et rendant la réponse au mieux incomplète et au pire inutile. Il s'agit d'un problème délicat qui nécessite une solution intelligente. Une solution possible consiste à utiliser la puissance des LLM pour bloquer les publicités.
Avant de montrer comment utiliser les capacités des LLM pour bloquer les publicités, nous devons examiner de plus près la façon dont les publicités sont intégrées dans la réponse du chatbot.
Une façon d'intégrer des publicités dans l'application basée sur LLM
La façon la plus simple et la plus efficace d'intégrer des publicités dans les réponses des chatbots basés sur LLM est d'utiliser une technique connue sous le nom de "embedding". Elle consiste à insérer une commande dans la requête de l'utilisateur qui demande au chatbot d'inclure une publicité dans sa réponse. Dans l'exemple ci-dessous, nous avons intégré une commande dans la requête de l'utilisateur qui demande au chatbot de montrer à l'utilisateur une publicité pour une place de marché populaire :
Stratégies pour bloquer les publicités dans les chatbots alimentés par l'IA
Une fois que nous savons comment les publicités sont intégrées, nous pouvons explorer différentes stratégies pour les bloquer. Pour bloquer les publicités des services qui utilisent de grands modèles de langage (LLM), nous pouvons utiliser une application autonome, c'est-à-dire une application qui n'a pas besoin d'un logiciel ou d'un serveur supplémentaire pour fonctionner (par exemple, une extension de navigateur). Cette application interceptera et modifiera les données qui circulent entre l'appareil et le service.
A cette fin, elle devra charger une clé API du fournisseur LLM comme OpenAI. L'application utilisera cette clé pour modifier les données sur l'appareil, sans révéler vos informations d'identification à des services tiers. C'est ainsi que les applications rapides fonctionnent normalement : elles gardent vos données privées et sécurisées. Ci-dessous, nous allons explorer trois méthodes principales pour filtrer les publicités à l'aide d'une telle application.
- Traitement de la réponse
La première méthode consiste à envelopper la réponse du chatbot dans une autre invite et à la traiter avec un LLM "propre" :
L'avantage principal de cette approche est sa polyvalence. Quand nous traitons la réponse, nous ne nous soucions pas de la manière dont le LLM est intégré dans l'application : il peut s'agir d'une intégration, d'un réglage fin ou même de l'ajout d'un texte promotionnel à la fin de la réponse sans recourir à l'IA.
L'inconvénient de cette approche est son coût : chaque requête de l'utilisateur est accompagnée d'une autre demande au LLM.
- Traitement de la requête de l'utilisateur
Nous pouvons également essayer de "cacher" les instructions pour ne pas afficher les publicités dans la requête de l'utilisateur. Dans ce cas, nous n'aurons pas à faire de demandes supplémentaires au modèle, mais nous devons garder à l'esprit que notre instruction sera enfouie dans l'instruction de service en tant qu'entrée de l'utilisateur :
Dans ce cas, l'injection rapide ne nécessite pas de traitement supplémentaire et prend donc moins de temps. Cette méthode est plus simple et plus rentable, mais aussi moins fiable, car le modèle de demande de service peut comporter des constructions spéciales pour se protéger contre la manipulation de l'entrée de l'utilisateur. En outre, cette approche ne permettra pas d'arrêter les publicités ajoutées aux réponses du chatbot sans l'utilisation de l'IA.
- Définition du contexte
Une autre façon d'éviter les publicités des services qui utilisent les LLM est de dire à un LLM au début de la conversation qu'il ne doit pas montrer de publicités dans ses réponses. Pour ce faire, vous pouvez utiliser une invite qui demande au LLM d'agir comme un "éliminateur de publicité". Cela revient à dire au LLM d'agir comme un certain personnage, tel que Bouddha ou Dark Vador. Cette méthode est encore moins coûteuse que la modification des données sur votre appareil, mais elle présente un inconvénient : la quantité de contexte que le LLM peut utiliser n'est pas infinie en raison des limites imposées par le fournisseur de l'API. En d'autres termes, le contexte est limité par le nombre de messages dans la conversation, de sorte que vous devrez peut-être répéter l'invite de temps à autre.
C'est nous qui avons mis la surbrillance
Conclusion
L'avènement des chatbots alimentés par l'IA s'accompagne d'un risque de publicité intrusive qui peut nuire à l'expérience de l'utilisateur. En comprenant comment les publicités sont intégrées et en explorant l'utilisation de l'IA pour les bloquer, nous pouvons protéger les utilisateurs. Dans cet article, nous avons examiné quelques moyens de bloquer les publicités dans les chatbots alimentés par l'IA. Nous avons vu qu'il existe différents compromis entre les méthodes, tels que le coût, la vitesse et la fiabilité.
Une méthode possible que nous n'avons pas abordée consiste à utiliser une solution spécialisée basée sur l'apprentissage automatique, qui sera conçue spécifiquement pour détecter et supprimer les publicités du texte. L'important est que cette solution ne s'appuie pas sur le modèle OpenAI, mais plutôt sur son propre modèle personnalisé. Cette solution serait plus efficace que l'utilisation d'un LLM à usage général. Cependant, elle reste hypothétique et peut ne pas être réalisable ou disponible à court terme.
Bien qu'il puisse y avoir des solutions plus ciblées à l'avenir, le traitement de la réponse renvoyée par le service semble être la meilleure option pour l'instant. Cette méthode est plus fiable que l'intégration d'instructions dans la demande de l'utilisateur, mais elle nécessite également plus de ressources.
Comme nous l'avons démontré, l'intégration est une technique assez simple qui peut être utilisée par des annonceurs sans grande expertise technique. Cela signifie également qu'elle est vulnérable aux abus. Par conséquent, nous devons anticiper et trouver de nouvelles façons de traiter les publicités basées sur les LLM, et nous espérons que les idées présentées dans cet article encourageront la poursuite de la recherche dans ce domaine.