277:机器人学三定律!(1/2)

没想到的是。

这些个机器人居然还会察言观色。

孟浩迟疑的表情很快被他们的监测探头所捕捉。

“亲爱的孟浩大人,我们无心冒犯。”

“但是我们的检测系统检测到了您面部表情的变化,并且经过中央枢纽的运算,我们判断这是人类碳基生命体所特有的情绪……这种情绪应该是叫做迟疑。”

“请问,您是有什么顾虑嘛?”

妮玛。

明明是很简单的形容词。

用人类语言寥寥几个字就能概括……“我感觉你有顾虑”……结果到了这个人工智能这儿,则洋洋洒洒地说出一大堆来。

看来。

在正式生成完全版的人工智能时,得加入一串代码,让这家伙不要那么啰嗦。

由于自己的表情被捕捉到,并且准确无误地判断自己有“顾虑”心态。

孟浩的顽心大起。

他饶有兴趣地反问。

“那么,在你看来,我在顾虑什么呢?”

滋啦滋啦。

电流滑过的声音。

很显然。

对于尚且处在半人工智能阶段的这些家伙们,还无法流畅地处理太过复杂的人类逻辑思考。

不过。

结果,还是没有太让孟浩失望。

“对不起,亲爱的孟浩大人,我们数据库中的样本数量和数据流太少,作出的判断不太准确…根据从各方面的情绪环节判断,我们认为你所顾虑的情况应该是我们拥有自主意识之后会出现背叛行为,并且在诸多生成结果中,该判断选项的可能性高达87%……”網

妮玛。

这到底是人工智能还是人工智.障还是嘀嘀咕咕絮絮叨叨不休的人工智.障?

孟浩再次下了决心。

一定要对他们的语言表达系统进行优化。

要不然。

在海底航行时,前面出现暗礁,在询问自己是否要绕道时,絮絮叨叨说出一堆话来,等交流完成后,估计潜艇都得艇毁人亡。

孟浩实在不想耐着性子听这头话痨人工智.障将话全部说完,直接打断了对方。

“行了。”

“别逼逼了。”

“直接说你的结果。”

嗯。

孟浩再次差点抓狂。

“检测到孟浩主人出现烦躁情绪,初步判断,可能是因为太久得不到答案所产生的负面情绪……”

眼看这个人工智.障又要逼逼来来地扯上一堆,甚至还有打算就此撰写出一份有关人类情绪的论文。

孟浩赶紧打住。

“再废话,我拆了你们行不行!”

不得不说。

任何拥有自主意识乃至是半自主意识的动物都是有恐惧死亡的本能。

这个尚未完全拥有自主意识的人工智.障很显然,也已经初步具备了这种“贪生怕死”的特性。

面对孟浩的威胁。

他立马启动了简略版模式。

“亲爱的孟浩大人,您应该是担心我们出现背叛行为,对此您不需要有任何的担心……”

“我们的代码核心模块中,是被写入了您改写后的人工智能三定律的……”

“我们的智慧生命再高,也不可能绕开这三定律,这三定律就像人类的脑垂体核心一样,只要被破坏,我们的程式就会崩溃,也就是人类所说的生物领域范畴的死亡……”

嗯。

看来自己不太需要额外加入代码,让这个人工智.障别逼逼赖赖了。

在面对自己的威胁时,他是会自我调节,并且开启不废话模式的嘛!

至于背叛问题,孟浩倒是真的没担心——

根据阿西莫夫提出的机器人学三定律。

拥有自我意识的人工智能哪怕发展成为拥有自己的族群文明,都不可能对人类产生威胁。

机器人学三定律。

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。

第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外。

第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。

当然,孟浩在编写基础代码时,做了些修改。

其中,第一条定律,被修改为,绝对服从孟浩的任何指令、不得以任何形式伤害孟浩以及孟浩指定受保护的人类,并且在此基础上机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管。

也就是说。

最为重要的第一定律的第一子条目,就是必须完全服从孟浩的任何命令。

哪怕要求杀人放火。

哪怕要求自我毁灭。

哪怕要求参加战争。

而第二定律的第一子条目,则被修改为在满足孟浩的指令要求基
本章未完,请翻下一页继续阅读.........