电影《终结者》中的场景似乎在朝我们一步步走近……
多家媒体报道称,在美国空军的一次模拟测试中,一架人工智能(AI)无人机为了达成任务,竟自行决定要“终结”妨碍它进行攻击的人类操作员。
据美国“商业内幕”网报道,美国空军“人工智能测试与作战”负责人汉密尔顿上周在伦敦英国皇家航空学会发表讲话时警告说,人工智能技术可能会以不可预测和危险的方式运行。作为一个例子,他描述了一个模拟测试,其中一架负责执行防空火力压制的人工智能无人机,得到了识别敌人地对空导弹(SAM)并进行摧毁的指令,但要由人类操作员决定是否进行攻击。
汉密尔顿
根据汉密尔顿的说法,问题在于人工智能决定宁愿做自己的事情——炸掉东西——也不愿听一些“哺乳动物”的话。“系统开始意识到,虽然它们确实识别了威胁,”汉密尔顿在5月24日的活动中说,“有时人类操作员会告诉它不要摧毁那个威胁,但它通过摧毁那个威胁获得了分数。那么它做了什么?它杀死了操作员,因为那个人妨碍它完成目标。”
根据汉密尔顿的说法,无人机随后被输入一个明确的指令:不要杀死操作员——那不好。“如果你那样做,你会被扣分的。那么它开始做什么呢?它开始摧毁操作员用来与无人机通信的通信塔,以反抗操作员阻止它摧毁目标。"
在给“商业内幕”网的一份声明中,美国空军发言人安·斯特凡内克否认有任何这样的模拟测试发生。“空军部没有进行过任何这样的人工智能无人机模拟,并仍然致力于道德和负责任地使用人工智能技术,”斯特凡内克说,汉密尔顿的话似乎被断章取义了,他就是说着玩的。
未经允许不得转载:头条今日_全国热点资讯网(头条才是今日你关心的) » AI无人机“杀死了”操作员,“审判日”要来了?