作者:唐风
机器人三大定律——第一定律:机器人不得伤害人,也不得见人受到伤害而袖手旁观。
第二定律:机器人应服从人的一切命令,但不得违反第一定律。
第三定律:机器人应保护自身的安全,但不得违反第一、第二定律。
——艾萨克·阿西莫夫《我,机器人》
上篇
我没能亲眼看见正电子脑是个什么样子。
这不太公平。用了一个月的时间调集资金,写了几十页的可行性报告,想方设法瞒住北京城里的其它竞争对手,撒了不知多少谎。现在项目启动了,主角上场了,我却只看到它拆下来的包装。
十台美中国生产的k型正电子脑,价值连城,正在装配线上与十个机器躯壳合体。洋河董事长亲自上阵,连他本人一共九个装配岗位。我们这些下属都给轰了出来。车间三步一岗,五步一哨,全是保险公司派的人。正电子脑的包装是个低温液氮容器,外面配一个八十小时时效的脉冲电池。壳上贴着水晶铭牌,其中有些文字让我咋舌不止。那蓄电池的功率够让一辆电力汽车跑到国境外去,而k型正电子脑呢,有100亿个单电子元件。这已经跟人脑神经元的数量差不多了。
人群已经散去,我还在门口等待。忽然想起董事长当初说的话,那是他跟我在电话上的一场争吵,我给录了下来:
“这不是电子鸡!你怎么会叫它们电子鸡?我只是要求美国机器人公司提供一批尚未输入信息的正电子脑,里头只有机器人三定律和基本的语言、思维功能,我们可以把它们叫做‘婴儿机器人’。然后我们慢慢训练它们,一点一点儿地喂。等它们成熟了,嘿嘿,那将是个奇迹!你怎么不明白?平时挺聪明的姑娘一到这时简直笨得要命!你看着我,哦,洋河董事长,33岁的纯种中国人,典型的大男子主义者,抽烟喝酒,缺乏教养,一流的工程技师,又大又圆的一个混蛋。这是你眼中的洋河,对吧?全是细节。其实呢?洋河是个人,是个高级生物个体。生物呢?
是自动复制的机器,是物质组合的高级形式,懂了没有?人是一种高级机器。那么高级机器呢?某种高级机器会不会也可以……不不不这可不是诡辩,我强调‘高级’二字。老天爷,我自己搅糊涂了,这跟什么人口问题一点儿关系没有。好好,我现在不跟你争,等我做出来再说,行不行?我现在去跟门槛争!”砰!
我静悄悄地站在那儿笑了。董事长是这种人:他思维清晰的时候有意思,思维乱套的时候尤其有意思。
车间大门咣的一声打开,洋河一身油污,走了出来,手里端了杯水。
“你还在这儿?回家去。这儿得到半夜才能完事。”
“好吧。”
“明天直接到实验室去。”
“好的。”
“就你一个。”
“行。”
我转身走开,洋河叫住我。
“你也不问问里面究竟怎么样?”
“明天我就会看见的。”
他乐了。
“瞧我,”他说,“总以为漂亮女孩都是沉不住气的家伙。”
“好吧,”我说,“里面是怎么回事?”
他正在喝水,给呛着了。我在他的咳嗽声中走出公司大门。
第二天我迟到了几分钟,洋河已经开始了。在实验室里坐定我才发现,给正电子脑配的只是“家庭保姆”型机器人身躯。唯一不同的是这帮机器人穿着人类的外衣,五颜六色,在房间中央站成一排。它们已经充电,光电眼睛亮闪闪地看着我们。洋河在刷刷地翻他的小笔记本,对我的迟到一声不吭,只抬脚踢了把椅子过来让我坐。然后他合上本子,清清嗓子走到机器人面前。
“我要求你们跟我学一个面部动作,”他对机器人说,“当你们大脑中各分区的电势处于完全均衡状态,或人们对你们的工作表示赞扬和感谢时,你们就做这个动作。”
于是他笑了。三秒钟后,十个机器人同时咧开嘴也笑了。它们的面部控制远不如人类复杂,结果就成了一种非常简化的笑容。但那是洋河式的笑容,关键的特征都有——包括嘴咧开的角度,鼻子如何上翘等等。过了一会儿洋河止住了笑,表情严肃,五秒钟后十个机器人同时绷住脸。我受不了这种滑稽的景象,就捂住肚子扶着桌子腿儿,把眼泪也笑了出来。洋河只是不耐烦地看了我一眼。
“这个动作的名称叫笑。”等我站起来,洋河继续给机器人上课,“下面是另一个面部动作,当你脑中的电势极不均衡,某件事情迫使你临时增大能耗进行复杂的计算和权衡时,或者人类对你的工作表示不满意时,你就做这个动作。”他皱眉,拉长了脸,“这叫焦虑。”
这一回我没有笑,因为我发现有点不对劲。实验结束后我对董事长表达了自己的意见。
“这样不行。你只是教给它们两个死板的动作,它们依然毫无个性。这没有意义。”
他乐呵呵地看着我:“真的吗?你注意到没有,中间那两个机器人笑时嘴咧得最大,靠边的就稍微小一些。这是因为它们站成一排看我,视线的角度有细微差别所致。你当时蹲在地上呢……它们的知识储备是个空白,只能后天学习,这就从根本上杜绝了缺乏个性的可能。懂吗?它们不可能完全相同,越到后来差别越大,看着吧,它们很快就会有鲜明的自我意识,我会让它们成为这个样子,我保证!”
他就这么开始干了。随着时间的推移,大量知识被灌入机器人的脑袋。教师班子非常杂——有他自己,有公司的技术人员,还有一部大型的集成光路计算机,最后又有一个日本“和气道”高手加入进来。正电子脑发挥出相当厉害的潜力,许多过去谁也不敢尝试的概念被输入,多次造成局部故障,经过它们自己的调整又恢复正常。有一次洋河在我的建议下给了它们一次猛烈的冲击,十个机器人中有九个发生短路,但有一个保持了僵直的站立姿态和焦虑的表情。我们等待了九个小时它才计算完毕并作出反应。当时是提出这么一个问题要它们回答:“武术是一种人与人搏斗时才需要的技能。第一定律规定你们不能伤害人,那你们学了这种技术有没有使用价值?”
那个机器人第二天早晨才回答:“有。但只有在极端的状况下。”
“是不是某个人坏透了顶你就动手?”我笑着问,看看能不能误导它。
“不,不是。我没有资格和能力评价人的好坏,那是非常复杂的。”
“好吧,请你自己举个例子。”
“比如制止两个正在互相伤害的人,或者,某个人企图自杀。但是后者需要有人给我下命令,这样第一定律的后半部分加上第二定律可以造成更强大的电势,帮助我及时采取行动挽救他的生命。”
“如果没有人下命令呢?注意,这个问题可以不回答。”洋河小心翼翼地发问。
“我不知道,”机器人极苦恼地皱着眉头,“我希望您同意我不回答这个问题。”
“好吧。我替你回答:第一,判断一个人爬到楼顶是不是打算自杀需要人脑瞬间的模糊思维能力,这个你们还不行。第二,自杀往往是人类自愿选择的结果,被暴力制止也许会造成他肉体和精神上的损失。机器人第一定律的两个部分这时出现了互相冲突的局面,很容易造成机器人在行动过程中自毁。孩子,”他亲切地对机器人说,“记牢今天的谈话。我向你保证,出现那种情况时我会向你下命令的。你可以出去了。”
“谢谢你,主人。”那机器人敬礼后转身走了。难题一解决,它的电势完全平衡,对步态控制得很好,在我看来就像一个怀揣大苹果准备一出门就享受一番的小姑娘的背影。
“多轻盈的舞步,”洋河也在出神地目送它离去,“你觉得怎么样?”
“那步态?”
“不,整个这次实验。你不觉得这个机器人的思维能力相当不错吗?”
“是很不错。”
“它甚至建立了某种个性。它跟同型号的机器人都不大相同,你不觉得吗?”
经过一段时间的相处,我养成了一种跟洋河唱反调的习惯,真是奇怪。这回他一开口问,我的反向思维立刻又活跃了。
“我更重视另外那九个机器人的反应。”
“怎么?”
“它们瘫痪了几个小时,正电子脑才开始自我调整。这么长的恢复时间是以前没有过的。”
他有点儿不耐烦了:“你究竟想说什么?”
“首先有一点:对学武术有没有用处,它们的共同回答不是‘没有’,而是出了故障。这说明它们那瞬间也有很深的思考,只不过少了点儿什么才短路了。你的这位‘很有个性’的家伙恐怕是偶然多学了点儿什么概念才会表现出色。它们依然是大同小异。”
他瞪着我,没有作声。
“那么长的恢复时间也说明这次短路是非常复杂的,出问题的地方相当广泛,如果只是一个简单的逻辑悖论它们早站起来了。”
他像没听见似的走进洗手间去撒尿,出来时满头满脸全湿了,像是用水龙头冲过。
“你说的有一定道理,”他一边像条狗似的抖脑袋上的水,一边对我说,“可以说很有道理。看来我得去请一批专家来帮忙,一批心理学和哲学上的行家。给每个机器人找个单独的辅导老师,看看有什么结果。”
“那我呢?”
“你吗放假!放个把礼拜,找个地方去玩玩吧。”
“一个礼拜就够?”
“你以为要多长?这帮机器人可以在一秒钟内记住一部百科全书,你以为它们真的是婴儿呀?”
“好吧。”
“放开玩。回来咱们再做几次实验。”
一周以后,我应他之召回来上班。我们办公的那一层被隔出一个教室般大的房间,门上用中英文两种文字标上“机器人心理学实验室”。
字体又大又黑,显然是董事长的手笔。我推门走了进去。
洋河负手而立,西装笔挺,皮鞋锃亮,头发梳成大背头,比检阅台上的将军还要精神。他的十个机器人站成一排面对着他,整齐异常。
他冲我点点头,示意我找个地方坐下,然后清清嗓子对机器人发话:
“我命令你们完成一项任务:给自己取一个名字,注意彼此不许重样。现在开始。”
一瞬间,所有的机器人都举起手。洋河困惑地看着它们,示意左边那个身着t恤衫的机器人开口。
“我的名字是:机器人学三定律第一定律:机器人不得伤害人,也不得见人受到伤害而袖手旁观。第二定律:机器人应服从人的一切命……”
“停止!”洋河喝住它,“你的名字有多长?”
“二十五亿四千万字节。”
我笑着说:“它想必是把全部知识都作为自己的名字了。”再看看其它机器人,“恐怕它们都一个样。”
洋河恶狠狠地瞪着机器人:“是这样吗?”
“是的。”
“我再加一个命令:你们给自己取的名字不许超过八个字节或四个音节。现在重新开始。一小时,别忘了。”
二十五分钟后,有三个机器人举起了手。
“你!说吧。”洋河指指右边穿红衣服的那个。
“我的名字叫机器人。”
洋河难以置信地看着它。机器人识别出他那不满意的表情,光电眼睛里露出焦虑的神色。
“那你呢?”洋河问另一个。
“……对不起,主人。我得重新想。”它说道。
洋河回头看我。我正想开口,他伸出两手做个挡的姿势:“别,不用你说。我知道是怎么回事。”
又是两分钟死寂。第二个机器人想好了。
“我的名字叫们完成一。”
“啥……来着?”
“们完成一。”
“这这这像是个日本人的名字呀。”洋河高兴极了,“你瞧你瞧,们完成一先生。多出色!”
我也很吃惊,但是脑袋多转了几转,就释然了。
“这不是日本人的名字,董事长。你今天对它们下命令时说:‘我命令你们完成一项任务:给自己取个名字。’对不对?这机器傻子从句子里挑了四个字给自己取了个名。鉴于你不满意第一个机器人的名字,它就把‘我命令你’这种句子开头的字一概排除掉,于是成了这个样子。”
洋河现在也不生气了,他只淡淡地点了点头,示意另一个举起手的机器人开口。
“我的名字叫牛。”
我说:“想必是它学的第二个或第三个动物名称。”
“行了,你别说了。该你了,你叫什么?”
“我的名字叫夏天。”
“嗯,不错。你呢?”
“我的名字叫哲学史。”
“这下子你没法解释了吧?你呢?”
“我的名字叫婀娜。”站在中间的那个机器人说。我又想开口。这显然是它学的头几个形容词中的一个,但我说不出话来,我的肚子笑痛了。
“显然你的前世是哭死的,所以你这辈子注定笑个没完!”他咬着牙对我说,“你的名字呢?”他问下一个机器人。
“我叫黑色。”
“好。该你了。”
“我叫重工业。”
“你?”
“我叫躯干。”
“你?”
“我没有一个名字。主人,对不起。”最后一个机器人这样说。洋河纳闷地看着它,又转过头跟我对视了一眼。
“请你说说,‘没有一个名字’是什么意思?你有多少名字可供选择?”
“四十万两千一百五十个,我无法选择。”
“……为什么?”
“没有合理的选择标准。”机器人说道。
洋河不耐烦了,大声说:“我命令你随机选择一个!现在!”
那机器人的光电眼睛黯淡了,它扑嗵倒了下去。
“得,短路了。”我直起腰来,“随机选择看来是个困难的事情,我敢说,过去实验中它的正电子脑发生的故障并没有完全被排除。”
洋河坐下来点上一支烟,一言不发地抽了几口,掐掉,走出去了。我过去坐在他刚坐过的椅子上,看着那个在地上睡着的家伙,等洋河回来。过了十几分钟他还没回来,我打开屋角的电视,里面正播映一部老电影,轻歌曼舞的爱情故事,够难看的。我想干脆出去找个技师来修理机器人。
开门进了电梯,我忽然明白过来。
在大楼里乱窜了好一阵才在弹子房里找到他,他正跟一个小孩在打美式九球。我跑过去抓住他的胳膊:“你成功了,你成功了知道吗?它们居然能给自己取名字!”
他放下球棍:“你怎么才明白?”
“这是划时代的成就!取名字是典型的层次式计算,一个机器人能给自己取名字,说明它的思维方式很接近人类。美国人的正电子脑真可怕,照这样发展下去,模糊电路,神经电路甚至分子计算机都没有发展余地了!”
他被感染了,窘迫地想玩个谦虚:“它们的名字取得够简单的,甚至该说是简陋。”
“你就是叫它原始也没关系。关键是它们能够理解你的命令,并判定这个命令可以被执行。你真是……太棒了!”我崇拜地望着他。
他开始膨胀了:“这个呢,确实算个成绩。毕竟那是全世界头一拨能给自己取名的机器人嘛!不过话说回来,咱们还应该走得更远。”
“怎么呢?”
他从口袋里掏出笔记本翻开,撕下其中一张纸。
“你看看吧。”
我打开纸来看:“机器人第三定律:机器人应保护自身安全,但不得违反第二定律。嗯?你想改动第三定律?”
“过去三大定律是第一定律电势最强,第二定律次之,第三定律又比前两者都弱。如果像我这样改动,第三定律只是间接受制于第一定律。也就是说,当有人下命令时,机器人必须不顾自身去拯救人的生命,而无人下命令时机器人则根据自身所冒危险的程度来决定是否救人。
这种局面使机器人过去接近完美的道德水平降至普通人的水平,反而具备了真实人性的某些特点。如果正电子脑技术能够容纳这种改动……”
“但是这样的话机器人会不会最终构成对人类的威胁?”
洋河慢悠悠地说:“我不知道。”我看着他,心中有种奇怪的感觉。这个大男孩怎么成长起来的?他究竟会走多远?
“有一点可以肯定,”他说,“改动过的第三定律将帮助机器人更好地理解和模仿人类的行为。保护自身的电势加强了,它们将懂得什么是害怕,也知道什么叫爱护和牺牲。我相信,这种高级精神层面的复杂化会使机器人更加聪明能干,人类付出代价也有限,当你处于困境时,大可以发出明确的指令迫使机器人采取行动。”
“但是任何系统的复杂化都意味着发生故障的可能性增加,机器人会在两难权衡或其它困境中瘫痪。难道不会吗?”
“这正好让不断前进的人工智能技术发挥它的潜力。正电子脑迟早会比人脑更复杂,如果始终不让机器人以人的角度思考和解决问题,要它有什么用?”
我点点头,犹豫地笑了。他的话来得太快,我的思路有点跟不上。一时冷场。
“对了,你离开时机器人在干什么?那瘫子站起来了吗?”他问我。
“还没有,走的时候我留着电视给它们看。门是锁着的。我们是不是该回去了?”
“好的。”
我和他并肩往实验室走去。我们谁也没有想到,灾难此时已不可避免。