对人工智能过度依赖?这是个大问题
不论是做学术研究还是做客服,AI 在许多人的生活中扮演着越来越重要的角色。有人认为,人工智能会接管日常工作,让我们腾出手来从事更有创造力的事情,一些一直受到忽视的事情,比如与朋友和家人促膝长谈,让生活变得更简单。尽管这种想法令一些人陶醉,但实际情况可能并非如此。至少,这只是冰山一角。
人们对人工智能的依赖日益增长。虽然 AI 上不存在自主意识,而且很可能不会在短期内与人类对抗(我们个人认为未来也不会),但这种过度依赖的前景令人不安。但与此同时,我们也不是没见过这种情况发生在全新技术上。
AI 生成的疯狂食谱
还记得我们曾把生成式 AI 当作一个游戏,试图想出最有创意的提示,纯粹是为了娱乐和在网上炫耀我们的图像创作技能吗?在生成式 AI 革命的早期,一切都充满乐趣和游戏,但从那时起,事情变得更复杂了。如今,各行各业的人们和企业都越来越多地依赖人工智能来为他们工作,其结果则良莠不齐。
Instacart 是其中一家追随 AI 热潮的公司。这家美国食品杂货配送巨头早在今年 5 月就宣布,它将与 OpenAI 合作开发人工智能驱动的食谱。而这次合作的成果和蔬菜,往好了说就是:想法新奇,往坏了说就是:令人作呕。在 Reddit 的一个Instacart 专属 线程中,充斥着各种奇形怪状的饭菜图片。有些显然是黑暗料理,而且图文不符(比如“热狗炒菜”),而且丝毫没有食欲。
此外,科技刊物《404》发现,Instacart 发布的一些人工智能生成的食谱并不合理。例如,一些食谱中出现了不存在的配料,如“莫尼托”酱,而另一些食谱则根本不包含配料,或者列出了可疑的配料量。
到底是披萨还是馅饼?
Uber Eats 曾被当场抓获以同样的方式使用人工智能。
因此,在试图描绘 “中号全馅”(此处是指美国芝加哥披萨) 时,AI 完全按照字面意思来理解,并生成了一个甜饼的图像。虽然在这种情况下你可以同情人工智能(毕竟,披萨通常是指它的名字,而不是“馅饼”),但如果没有发现这一错误,并给披萨店打了电话,这样的混淆可能会导致一家披萨店员“发疯”。
有人可能会说,这些 AI 驱动的模型只需要通过监督学习的形式进行一些额外的调整,就能对情节负责,适当微调之后,这些公司就不会陷入如此尴尬的境地。但事情并非如此简单。有时,过多的微调会适得其反。正如调整不足会导致类似的错误一样,过度调整也会导致意想不到的后果。
历史的准确性与多样性
就拿最近 Google 的 Gemini 人工智能(Gemini AI)来说,它试图为历史图片带来多样性。当被要求描绘一名 1943 年的德国士兵时,Google 的人工智能聊天机器人生成了一张显示一名黑人男子和一名亚洲妇女等人的图片。
在请求生成早期法国小说家图片的过程中,Gemini 还生成了一张黑人妇女和一名亚洲男子的图片。
这些错误的结果是 Google 希望其人工智能模型更加多样化的副产品。在引发争议之后,Google 将 Gemini 人工智能生成人物图像的能力暂时搁置。他们承诺“我们会做得更好”。Google 在一份声明中说,“那到底是哪里出了问题?简而言之,有两点。首先,我们为确保 Gemini 能显示出一定范围内的人物而进行的调整,未能考虑到明显不应该显示出一定范围的情况。其次,随着时间的推移,该模型变得比我们预期的要谨慎得多,完全拒绝回答某些提示,错误地将一些非常平淡的提示解释为敏感”。
至于人工智能模型,Google 知道它在说什么。事实上,Amazon 也曾遇到过同样的问题,它曾被大量标题更像是错误信息的产品列表淹没。虽然我们已经习惯于看到那些名字古怪的品牌名,但 Amazon 这次给我们带来的品牌名更神奇,比如:“很抱歉,我无法满足需求:这违反了 OpenAI 的使用政策”。
粗鲁的聊天机器人和假预言
除了这些令人印象深刻的人工智能生成的无稽之谈之外,还有一个人工智能驱动的聊天机器人,它被包裹递送公司 DPD 用来提供客户支持,而不是真正的客户代理。据报道,该聊天机器人不仅在回答问题方面毫无用处,而且还批评了自己的公司,并明确告诉客户不要再打扰它。DPD 看到聊天机器人失控后,最终关闭了聊天机器人。
尽管关于人工智能聊天机器人可能取代传统搜索引擎的讨论此起彼伏... 但是,Microsoft 的 Copilot 和 Google 的 Gemini 都在最近的超级碗比赛开始前就回答了有关比赛结果的问题。它们不仅(错误地)给出了最终的比分(Microsoft 的 Copilot 还提供了错误的链接来支持它们的说法),而且还提供了详细的球员统计数据,所有这些都是编造的。
过度依赖 AI 只是一个阶段吗?
我们可以举出很多人工智能失误的例子,而人类却没有提供应有的帮助。毕竟,每一个人工智能驱动的工具,无论是聊天机器人还是图像生成器,都会附带一个免责声明,即它仍然需要人类的监督和反复检查。但人们往往一次又一次地忽略了这些建议。人工智能不是第一个,也可能不是最后一个采取这种放任态度的例子。
进入 VR 头盔。虽然关于 VR 能否取代现实,如真实旅行、真实教育或真实娱乐的争论仍在持续,但已经有所平息。现在,VR 头盔主要用于游戏,即使在游戏中,它们也没有被证明是一种更优越的选择,主要是因为安全问题。尽管有人警告说要移开攻击范围内的所有家具并注意休息,但人们在玩电子游戏时仍然会受到严重伤害,要么是由于一时冲动撞到物体,要么是由于在不知不觉中多次重复同样的动作给自己造成的累积伤害。
另一个对客观上仍处于起步阶段的技术充满信心的典型例子是所谓的自动驾驶汽车。2015 年,Tesla 公司首席执行官、自动驾驶汽车行业的先驱 Elon Musk 提出,我们可以在两年内拥有一辆能够自动驾驶的完全自动驾驶汽车。大约在同一时间, Google 和 Toyota 都希望在 2020 年之前向市场投放无人驾驶汽车,而宝马的目标是 2021 年。此后,马斯克退缩了,承认让汽车在没有人类监督的情况下完全自动驾驶比他想象的要难,对完全自动驾驶汽车的炒作也随之平息。目前,所有的“自动”汽车都不是完全自动的。事实上,市场上所有具有辅助驾驶功能的汽车都只达到了汽车自动驾驶6级中的第2级。
而第一个3 级系统在去年才获准投入生产 --这与到 2020 年代初实现无人驾驶的梦想相去甚远。有些人甚至认为,现在是放弃的时候了,“自动驾驶汽车是不可能实现的”,最好集中精力发展公共交通。
不过,尽管有各种警告和分类,驾驶员还是会盲目地依赖汽车驾驶,而忙于...玩消消乐、打牌、看小说之类的。据报道,在一些涉及部分自动驾驶汽车的实际事故中,有人看电视或在方向盘上打盹。
总结
对生成式 AI 的迷恋,就像虚拟现实的诱惑和自动驾驶汽车的梦想一样,反映了我们对技术乌托邦的追求。然而,正如历史所证明的那样,从突破性创新到可靠的日常实用性,其过程往往比预期的更漫长、更复杂。尖端技术无论多么先进,通常都需要长达数年甚至数十年的成熟期。这样才能完善技术,制定安全协议,并与社会需求和道德标准保持一致。
AI 喜忧参半的记录提醒我们,将新技术融入日常生活的道路是一场马拉松,而不是短跑。这些技术能否完全兑现承诺还有待观察,但有一点可以肯定:人类监督与技术进步之间的平衡将继续塑造我们的未来。