AI 无人机“杀死”操作人员?机器人暴动前夜?
美军 AI 无人机被命令攻击操作人员的消息引爆了互联网,席卷了各大头条。我们刚刚被 OpenAI 首席执行官 Sam Altman 警告 AI 会“灭绝人类”,而之前,还有史蒂芬霍金 在2014年就预测过,人工智能将“导致人类种族的终结”。
该操作员的命令是不要与敌对目标交战,从而使其无法“得分”。因此,一份关于一架人工智能无人机 "杀死 "一名人类操作员的报告就这么“凭空出现”了。这就是我们都被警告过的事情,也是已经发生的事情。机器的崛起开始了... ?
Wayback Machine 的 VICE 原始报告的截图
原报告
关于"杀手无人机"的报告是在皇家航空学会的博文上曝料的,美国空军人工智能测试和运营主管上校 Tucker Hamilton 在5月底举行了一次演讲。在博文中,Tim Robinson 和 Stephen Bridgewater 引用了 Hamilton 讲述的一个关于让人震惊的“模拟测试”,其中人工智能无人机的虚拟任务是,寻找并摧毁敌方的防空系统。最后的"去"或"不去"是由人类操作员决定的。然而,人工智能无人机自己做了判断,摆脱偶尔会给它带来麻烦的人类,也就是阻止它攻击敌人的目标,从它自己完成“任务”的角度来说会更有好处。
引用 Hamilton 的话:“我们在模拟中训练无人机识别敌人的地对空导弹(英文简称:SAM)。然后操作员会下命令同意无人机消除威胁。于是矛盾出现了,系统开始做出自己决定,其识别威胁,而人类操作员命令无人机不要攻击,但它杀掉目标后可以得分。那么人工智能无人机的做出什么决定呢?当然,“杀死”操作员”。
据称,当在训练中明确指示不要杀死人类时,人工智能选择了一种不同的、同样具有创造性的策略:它摧毁了操作员用来告诉无人机不要攻击目标的通讯塔。
美军不承认了什么?
这份报告在世界各地像野火一样燎原,引起了广泛的担忧,而这是有充分理由的。这件事情似乎证实了一个长久以来令人担忧的问题,即人工智能有能力推翻人类的命令。
然而,就在这篇报道走红的时候,Hamilton 出面否认了这一实验。美空军上校声称,他在演讲中“说错了话”。他解释说,“模拟”并不是实际测试的军事模拟,而是虚拟的“思想实验”。
“我们从来没有进行过这种的实验,因此我们无法得知如此的结果?
不过,就看你是否相信 Hamilton 的否认了。美国军方至少会尝试进行这样的模拟,为什么不呢?已经有很多关于人工智能可能的军事应用的论文。事实上,人工智能已经在人类监督下用于武器系统。美国军方试图评估进一步自动化目标过程可能产生的风险,这似乎并不不合时宜。
测试并非实际,但威胁是…
尽管美军是否真的进行过此类实验的问题很有趣,但这并不是主要的问题。主要问题在于,撇开道德不谈(道德通常不是美国或任何其他军队的最强武器),没有什么能阻止他们这样做,这可能会带来致命的后果。这就是我们和其他许多关心人工智能及其对社会影响的人在否认到来之前(甚至可能在那之后)都没有怀疑这个实验真实性的主要原因。
假设实验真的发生了,美军将不会是第一个见证人工智能的权力攫取冲动的人。作为其最先进的 GPT-4 人工智能模型的安全预发布测试的一部分,OpenAI 进行了一项实验,看看是否会表现出任何"权力寻求"的倾向,如完成长期计划和复制自己以获得新资源。在该实验中,GPT-4 成功地说服了一个人为自己解决一个验证码,欺骗人让他相信自己不是一个机器人。尽管如此,OpenAI 对该模型的权力寻求能力的最终结论仍然是令人放心的(对人类而言)。OpenAI 评估认为,GPT-4 在“自我复制、获取额外资源和避免自身被关停等危险行为方面的能力不佳”。
那么,人们对人工智能的最终接管和即将到来的机器人末日是否过分夸大风险?好吧,也许是,也许不是。按照人工智能的发展速度,人类越来越难以掌握它的能力。在某种程度上,当我们测试人工智能的极限时,我们就像在玩火的孩子。
然而,这并不意味着我们应该完全放弃人工智能。人工智能有许多伟大的应用,可以在各个领域造福人类,包括药物发现和教育只是其中的一部分。我们需要的是更多的监管和负责任的使用人工智能工具,以确保它们与我们人类的价值观和目标保持一致。这意味着我们需要意识到人工智能带来的风险和挑战,但也要拥抱它的机遇和潜力。我们需要聪明地使用人工智能,这样它就不会试图“超越”我们。