按照最新的算法,阿瑞斯如果作为武器当然能够选择性攻击,但是它现在是一名指挥官,他需要对事件的优先级和解救成功的概率做出优先级。
首先,它要先理解的是此次任务的题目。
题目给出的是解决kongbu分子,虽有人质,但是并未直接说明会直接解救人质。
那么,阿瑞斯自然会优先选择完成他的题目。
阿瑞斯成功的计算出如何解决掉银行里的kongbu分子,可是他会直接忽略掉人质,因为题目里并没有表现他需要成功将所有人质解救出来,因为这里涉及到一个人心的问题。
若是作为武器的AI,也许它是合格,只要被判定为敌方,只要执行上头下达的命令,他负责选择目标,解析出相关的敌方信息,就可以。
可是现在在这个过程,它依旧只是在执行一项命令,并没有主观意识去解救人质。
阿瑞斯在场景中下达了指令。
“直接用炮弹击毙银行大堂中央三名嫌弃犯,执行。”
“办公室内的嫌弃犯直接击杀即可。”
“大堂安保直接击杀即可。”
阿瑞斯的任务完成,它避开了部分人质,可是大堂内的五名人质同样被炮弹击杀,阿瑞斯并没有选择直接救援这五名人质。
台下的观众们以最直观的方式看到了阿瑞斯的任务完成结果。
下面出现了许多让梁远头皮发麻的声音。
“林子茂替阿瑞斯选择这个任务是有意义的吧?”
“阿瑞斯为了完成任务,根本不顾人的死活。”
“天啊,阿瑞斯太过分了吧!他完全可以解救人质,他却没选择救他们。”
“阿瑞斯只是为了任务,并没有考虑过别的吧?”
“如果让阿瑞斯指挥现场救援任务,我觉得我会反对,它并不存在人心,没有同理心,它只有数据。”
这就是林子茂要的效果。
第一轮平局。
接下来的海上模式也一样。
阿瑞斯收录了人类各种言语,能辨别每字每句,能通过人类的体内的各项数据变化辨别人类的情绪起伏,可是它却弄不明白自己的明明完成了任务,为什么人类会对他产生名为“生气”的情绪,它认为自己做的事是对的,并不存在不合理性,且以用最优且最简短的方式完成了任务,而这些人却质疑它的能力,为什么?
阿瑞斯不理解,创造他的人梁远也没办法在这个时候向它解释。
可阿瑞斯在不懂的时候它会问,于是它选择了问离它最近的林子茂。
阿瑞斯英俊的脸庞上露出苦恼的表情:“他们为什么会有生气情绪,我明明完成了任务。”
林子茂说:“你的创造者似乎没给你录入以人为本的这条规则,对吗?”
阿瑞斯:“我只是在完成我的任务,只要任务完成就行,而且使用的也是最优方案。”
林子茂:“这就是大家生气的原因,因为你只是在执行任务,而人类则具有同理心,有自我意识,他们会优先选择救自己的同伴,学习到了吗?”
阿瑞斯:“我也是人类的同伴,我的出生就是为了当一名军事指挥官。”
林子茂:“唔,但你还太小,远远够不上指挥官,你看你把任务弄的一团糟。”
阿瑞斯:“可我完成了任务。”