以火攻火:利用大语言模型的力量来阻止 AI 聊天机器人中的广告
随着去年 ChatGPT 的发布,以及今年 Google 的 Bard 和 Microsoft 的 Bing 人工智能的发布,标志着我们正式进入了人工智能聊天机器人的时代。虽然过去曾有人尝试向公众推出人工智能聊天机器人,可以模仿人类的语言,比如 Microsoft 的 Tay 和 Meta 的 BlenderBots,但都失败了,而且当聊天机器人在与真人互动出现问题时,还会殃及公司。
不过,这一代人工智能驱动的聊天机器人(OpenAI 的 ChatGPT 可能是最好的例证)似乎还有更多使命和任务尚未达成。它们将逐渐成为我们生活中的一部分,以及成为我们工作和娱乐的一部分。随着越来越多的人和企业开始使用 AI 聊天机器人,全球聊天机器人市场规模预计到2025年将膨胀至12.5亿美元。《福布斯顾》的一项调查显示,73% 的企业已经或计划将人工智能(即聊天机器人)用于即时通讯,46% 的企业将人工智能用于个性化广告。
新一代聊天机器人的基础是 LLM(英语:Large language models,中文:大型语言模型),即构成其算法基础的大型语言模型。这些模型是在庞大的数据上训练出来的,训练基础由从网络上搜索来的文本数据组成。其中包括维基百科、研究论文、数学数据、Reddit 等资源。最先进的 ChatGPT 版本和 Bing 都运行在 OpenAI 的 GPT-4 模型之上,而 Google 的 Bard 目前运行在 PaLM 2 上。这些 LLM 的训练可能有所不同(OpenAI 和 Google 都没有公开透露用于训练最新模型的确切参数数量和训练材料语料库),但它们产生输出的方式是相同的。它们需要汲取所有信息,才能根据前一个单词预测句子中的下一个单词。
LLM 能够正确猜测句子中的下一个单词,同时也可用于在聊天机器人的回复中插入广告。我们将在本文中探讨公司如何利用 AI 驱动的聊天机器人来投放广告,这给用户带来的问题,以及如何利用 LLM 的力量来阻止广告。
基于 AI 聊天机器人的广告:现在与将来
公司可以通过多种方式利用 LLM 的功能来投放广告。例如,AI 聊天机器人可以识别用户查询中的关键字(“购买”、“建议”、“推荐”),表明用户有意购买某种产品(如手机),然后在智能回复中包含广告,鼓励用户购买特定产品,例如 iPhone。或者,更微妙的方法是,它可以从输入的内容判断用户的意图;例如,如果用户输入:“送3岁孩子最好的礼物是什么?”,聊天机器人可以在其输出中包含一个在线玩具店的广告。
Microsoft 的 Bing AI 开创了用人工智能托管广告的趋势。它可以用多种方式显示广告,比如链接、图像,或是推广购物(英语:promoted shopping bubbles)。
在 Bing AI 推广链接可以在出来的结果上方或下方被投放。
Google 紧随 Microsoft 的脚步,推出了 Google Search Generative Experience(简称:SGE),Google 的生成式 AI 搜索功能,允许用户在搜索结果中与机器人聊天,并在人工智能生成的快照内外显示广告。与 Bing AI 的广告不同,SGE 的广告与聊天机器人的回答正文是分开的,这使得它们可能更容易被屏蔽,而不会破坏信息本身。不过,Google 也有可能效仿 Microsoft 的做法,开始直接在聊天机器人的回答中显示广告。
另一个即将也会有广告的聊天机器人是 My AI 的智能 AI 助手,它是 Snapchat 推出的一个基于 ChatGPT 的聊天机器人。Snap 证实,它在尝试在回复中加入赞助商链接。
不过,并非所有人工智能聊天机器人都有广告。ChatGPT 和 Bard 就是没有广告的聊天机器人的两个例子。当被问及是否可以在回复中显示广告时,Bard 生成的回答是,它的设计初衷不是商业产品,而是一个研究项目。Bard 告诉我们:“我没有任何经济动机去显示广告,我认为这样做会侵犯用户对我的信任”。不仅如此,Bard 还对商业聊天机器人中的广告提出了警告: “我建议谨慎对待向这些聊天机器人提供的信息,因为它们能投放广告”。
OpenAI 的 ChatGPT 也生成了同样的警告,指出由于在人工智能回复中插入广告的做法,可能会出现“对透明度、用户同意、数据隐私以及操纵或滥用可能性的担忧”。
然而,随着越来越多的公司采用人工智能聊天机器人作为现成的解决方案,包括 OpenAI 提供的解决方案,并希望从中获利,这种立场可能会渐渐变成少数派。Snap 就是这一趋势的一个很好的例子。
我们认为,广告几乎不能改善用户体验。人工智能聊天机器人中的广告也不例外。
聊天机器人中的广告如何损害用户体验
广告本来就很烦人,而且可能包含虚假信息,除此之外,在人工智能生成的回复中看到广告可能会更具有侵入性。
首先,如果聊天机器人在聊天过程中突然出现这些广告,可能会打断用户与机器人的对话。你还可能觉得自己被操纵了,因为这类广告更有可能根据广告商的议程或聊天机器人的算法左右用户的观点、决定和行动。这是因为与传统搜索引擎不同,在传统搜索引擎中用户可以看到许多其他链接和信息来源,而聊天机器人会限制用户接触不同的观点和选项。这会扭曲你对现实的认知,影响你的判断。
既然我们已经概述了聊天机器人回复中的一些广告风险,那么接下来就进入文章的下一部分,即我们如何在人工智能时代屏蔽广告。
广告拦截的新领域
我们可以使用传统的广告拦截方法,去除那些不包含在聊天机器人回复中的广告,比如 Google SGE 中的广告。但是,当广告与聊天机器人的回复融为一体,成为回复不可分割的一部分时,拦截广告的难度就会指数性得变大。原因在于,如果我们使用传统的广告拦截方法屏蔽这类广告,我们可能会拦截回复中的一部分信息,从而丢失一些我们想要的信息,最好的的情况是使回复不完整,最坏的情况是使回复变得毫无用处。这是一个非常棘手问题。一种可行的解决方案是,利用 LLM 的功能来屏蔽广告。
在展示如何利用 LLM 的功能屏蔽广告之前,我们需要仔细了解一下广告究竟是如何成为聊天机器人回复的一部分的。
在 LLM 的应用程序中托管广告的方式
在 LLM 的聊天机器人回复中整合广告最简单有效的方法是使用一种称为 "embedding"(中文:嵌入技术)的技术。它的工作原理是在用户询问中插入一条命令,指示聊天机器人在回复中包含广告。在下面的例子中,我们在用户询问中嵌入了一条命令,指示聊天机器人向用户展示一个热门市场的广告:
在人工智能驱动的聊天机器人中屏蔽广告的策略
一旦我们知道广告是如何整合的,我们就可以探索各种策略来阻止它们。要阻止来自利用大型语言模型(LLM)的服务的广告,我们可以使用独立的应用程序,即不需要任何额外软件或服务器即可运行的应用程序(如浏览器扩展)。该应用将拦截并修改设备与服务之间的数据。
为此,它需要从 LLM 提供商(如 OpenAI)处加载一个 API 密钥。应用程序将使用该密钥更改设备上的数据,而不会向任何第三方服务透露用户的凭据信息。这就是提示应用程序的正常工作方式:它们会保护用户的数据的私密性和安全性。下面,我们将探讨使用此类应用程序过滤广告的三种主要方法。
- 处理回复
第一个方法是将聊天机器人的回复包括在另一个提示中,然后用 "干净"的 LLM 进行处理:
这种方法的主要优势在于多功能性。在处理回复时,我们并不关心如何将 LLM 集成到应用程序中:可以通过嵌入、微调,甚至在回复末尾添加宣传文本,而无需使用人工智能。
这种方式的缺点却是:每次用户查询都会向 LLM 提出另一个请求。
- 处理用户询问
我们还可以尝试"隐藏"指令,在用户查询中不显示广告。在这种情况下,我们无需向模型提出额外请求,但需要注意的是,我们的指令将作为用户输入埋藏在服务指令中:
在这种情况下,提示注入不需要额外的处理,因此所需的时间较短。这种方法更简单、更具成本效益,但却不太可靠,因为服务请求模板可能具有特殊结构,以防止用户输入被篡改。此外,在不使用人工智能的情况下,这种方法也无法阻止聊天机器人回复中添加广告。
- 设置内容
另一种避免使用 LLM 的服务出现广告的方法是,在对话开始时告诉 LLM,它不应该在回复中显示任何广告。为此,您可以使用一个提示,告诉 LLM 充当"广告消除器"。这类似于让 LLM 扮演某个角色,如行政官。这种方法比更改设备上的数据成本还要更低,但也有缺点:由于 API 提供商的限制,LLM 可以使用的上下文数量不是无限的。通俗地说,上下文受对话中信息数量的限制,因此您可能需要不时重复提示。
高光时刻属于我们
总结
人工智能驱动的聊天机器人的出现可能会带来干扰性广告,从而影响用户体验。了解广告的集成方式并探索使用人工智能屏蔽广告的方式使我们能够更好地保护用户。在本文中,我们讨论了在 AI 聊天机器人中屏蔽广告的一些方法,以及这些方法之间的权衡利弊,如成本、速度和可靠性。
我们没有提到的一种可行方法是,使用基于机器学习的专门解决方案,该方案将专门用于检测和删除内容中的广告。重要的是,它不会依赖 OpenAI 模型,而是依赖自己定制的模型。这种解决方案将比使用通用 LLM 更有效。不过,这还停留在理论阶段,可能在短期内不可行或不可用。
虽然未来可能会有更有针对性的解决方案,但就目前而言,处理服务的回复似乎是最好的选择。这种方法比在用户请求中嵌入指令更可靠,但也需要更多资源和探索。
如图所示,嵌入是一种相当简单的技术,广告商无需太多专业知识即可使用。这也意味着它很容易被滥用。因此,我们需要未雨绸缪,找到新的方法来处理基于 LLM 的广告,我们希望本文提出的见解能促进这一领域的进一步研究。