易昀在论文上敲第二段话:当命令不唯一时,ai会按照主观意愿反向选择主人。若拆机更喜欢原主人,则会选择性服从新主人命令。拆机流转次数越多,相斥命令越多,越容易产生主观意愿,形成独立人格。
a30609逐字吐出句不算完整的话:“你,命令,先,说,他,再,与你,说,回答。”
易望舒在插间睡得鼻涕泡泡都冒出来,完全没想到这时候自己被拆个底掉。易昀站起走到插间门前,又回到椅子上坐下,他忍住想啃死易望舒的冲动,继续对a30609测试。
在ai狂人这里,论证永远是第一。实验结束前,他总能很好地控制情绪。
倒霉机器a30609只能被动地接受测试,回答他早已既定的问题。
易昀说出第二道指令:“我想吃火锅。”
a30609答:“好。”随后火速出门,它一刻也不想在这呆下去。
易昀掐着时间,不过两刻钟,a30609买来食材。a级机器按部就班,即便生气也不会拖延指令完成进度。易望舒就不同,被易昀欺负,就会变着法耍小情绪。就像刚刚,易昀不让他出去,他就不替易昀敲代码。
火锅、调料、青菜、肉……该有的都有,但这不是易昀想要的。
易望舒听到这命令会答“好”,16:00左右准备晚饭食材。他会分析易昀喜好,茼蒿多买,白菜少买,牛肉多买,羊肉少买,蘸料要辣的,锅底要清汤的……若分析不出来,也会问上两句“什么时候吃?”“喜欢什么菜?”
a30609不聪明,只具备执行力。
火锅煮开,易昀作势要把手伸煲汤锅里。a30609制止易昀,它的程序不允许易昀有危险。
易昀收手,说:“正常人不会把手伸进汤锅里。”
a30609接收到的信息:把手伸进汤锅里,为否命题。
易昀再次作势要把手伸煲汤锅里。
arch
{if让他把手伸进汤锅里,不安全;
prt阻止他;
if不让他把手伸进汤锅里,正常人不会把手伸进汤锅里,这是否命题,他不会这样做;
prt不该阻止他;
?
}
algorith=?
?
a30609再次宕机。