真是完美的设定,乍一看巧妙又稳妥地解决了问题。那么,我们可以在构建人工智能的时候内置这些定律吗?
关于阿西莫夫的机器人三定律,首先要说的是,它们设计得虽然精巧,但阿西莫夫的故事很多时候都是发生在定律有缺陷或者互相矛盾的情况下。例如,在故事《环舞》中,一个名叫SPD-13的机器人要无休止地围着一池熔融的硒绕圈,因为要遵守人类下达的采硒命令(第二定律)和保护自己(第三定律)之间存在冲突,所以它只能在离硒矿湖固定的距离处绕圈子,如果它再靠近一点硒矿湖,保护自己的定律开始起作用,让它远离;而它要是离得过远,采硒矿的命令又起作用,它必须服从。在阿西莫夫的故事中还有许多其他例子(我强烈推荐你去读一下)。因此,三定律本身虽然很巧妙,但绝不是无懈可击的。
但机器人三定律更大的问题是,它在人工智能系统中根本无法实施。
想想实施第一定律意味着什么,当人工智能在考虑每一个动作时,都需要考虑这个行为可能产生的影响,大概需要考虑全人类(或者能够涉及的部分人类)以及未来可能出现的影响(总不能只关心现在吧)。这是不可行的。另外,“不得因为不作为而让人类受到伤害”这一条也存在同样的问题:系统能够做到不断地思考它涉及的每个人所有可能的行为,并且思考自己是否有相关行为能够阻止他们受到伤害吗?这也是不可行的。