机器人将来会掌控我们吗?

很少有像《终结者》这样一部看完之后能对我产生巨大震撼的电影。我这么说,不仅仅是感叹于《终结者》剧情的峰回路转,更是因为电影中大胆提出了“天网”—一个人类于20世纪后期创造的以计算机为基础的人工智能防御系统,最初研究用于军事的发展,后自我意识觉醒,视全人类为威胁,以诱发核弹攻击为起点发动了将整个人类置于灭绝边缘的审判日。如果这个电影剧本成为现实,那么在2029年,这些智能机器人就会把人类灭绝。

机器人的英文“Robot”来源于捷克语,有工作的含义。机器人这个概念听上去很现代,但其实机器人的起源最早可以追溯到古希腊的“自动装置”。18世纪,机器人发展的巅峰时期来临了—钢琴演奏器、长笛演奏器、象棋机器人以及布尔戈斯大教堂著名的敲钟机器人等均被发明了出来。同样地,人类创造出的人工智能终将毁灭人类这一说法也是由来已久,著名的《弗兰肯斯坦》就讲了这样的故事。难道这些机器人真的会奋起反抗,毁灭人类吗?

可以确定的是,我们现在正处于一个机器人发展的鼎盛时期(现在,伴随着技术的高速发展,人工智能已经成为世界经济增长的引擎),但并不是所有机器人都具有人的形态。大部分机器人在工厂制造线上负责流水线生产,特别是在汽车行业,利用机器人来制造产品最为常见(在这些地方,与其说是机器人,不如说是机器臂,因为它们的形状和人类的手臂一样)。医学里面同样有人工智能的应用,比如将机械臂、机械骨骼安置到残疾人的身上,让他们可以更便捷地生活。著名的达芬奇手术机器人还能够辅助人类进行复杂的外科手术(但值得注意的是,机器人是没办法单独操作手术的,仅仅能起到辅助人类的作用)。

机器人这个词语有着很广泛的含义,从人工智能到自动程序。更准确地定义机器人的话,可以认为它指的是具有固定形态的、能够机械化移动的一种器具,如工厂里的自动臂。这些机器只会在特定的环境中对一定的刺激产生固定的反应,所以基本不具备什么智能元素。人工智能却不一定需要有固定的形态,也不需要对固定的刺激做出死板的反应,因此更多应用在软件程序之中。比如说,苹果系统的Siri就会对苹果用户的提问进行回答,还有IBM(国际商业机器公司)研发的超级人工智能系统“沃森”。但是一般来说,机器人和人工智能这两个元素会被结合起来运用。

像《星球大战》中C-3PO的那种人形机器人,也就是上文中提到的那种,其实并不是机器人中最受关注的类型,但人们的确花了大量的精力和时间来研究并发明更好的人形机器人,这些机器人被创造出来并已经被用在酒店、机场、餐厅等公共场所,以向客人提供指引和咨询服务,相对而言具有一些简单重复的工作特性(C-3PO也是一样)。著名的人形机器人还包括日本企业软银机器人的三大机器人佩帕、纳奥和罗密欧。在日本,人们对于研究机器人有着格外浓厚的兴趣,有一个叫石黑浩的大学教授根据自己的外貌造了一个人形机器人,这个机器人和他的外形相似度高达90%。

我们在上文中也提到过,现在,机器人的大部分应用场景仍局限于工业领域、无人驾驶和家电设备中。因此,人们希望在未来,机器人的应用能够从工厂走进普通人的家里。虽然,这些机器人可能并不是你想象中的英式全能型管家,而是一个自动熨衣器或一个三明治制作机器。我们完全不需要担心这些机器人会在哪一天把人类淘汰掉,因为我们和机器人之间有一个巨大的本质差异,那就是机器人是程序编造制作出来的,完全理性、充满逻辑和规则,但它们缺乏感性部分、没有情绪。这也就是为何机器人永远无法替代人类,甚至没有办法成为《银翼杀手》里面的复制人。何况,据科学研究表明,人类智慧的85%都诞生于我们的情绪,而这种感情正是现在的这些机器人还不具备的东西。

说到这里,让我们回到最初的问题:“机器人将来会掌控我们吗?”我们绝不是第一批有这种担忧的人。伟大的科幻作家和科普作家艾萨克·阿西莫夫在1942年提出了“机器人学三定律”。三定律内容如下:

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手旁观;

第二定律:机器人必须服从人类给予它的命令,但不得违反第一定律;

第三定律:机器人要尽可能地保护自己免于毁灭,但不得违反第一、第二定律。

流行小知识:2004年上映的电影《我,机器人》和阿西莫夫的原著内容相差甚多,但是电影中提出了在发展机器人和世俗伦理道德之间进退两难的困境。警探戴尔·史普纳是电影主人公,同时也是一个非常憎恶机器人的人。电影中,机器人已经成为地球上很常见的存在,也是最为普遍的劳动力,这些机器人都严格遵守“机器人学三定律”。可是史普纳为什么这么讨厌机器人呢?因为曾经有一个机器人,在灾难中面对选择救他还是救另一个年仅12岁的小女孩时,决定救他并放弃那个小女孩,因为机器人算出史普纳生还的概率为45%,而小女孩活下来的概率只有11%。史普纳却认为:虽然小女孩只有11%的概率能够存活下来,但是哪怕只有1%的希望,只要这个概率不为零,就应该用尽全力去拯救她。类似的选择会发生在每一个由程序算法构成的人工智能中,尤其是在自动驾驶(未来汽车上都不会有司机了)、交通管控系统、空运和铁路控制系统等领域。当这些算法面临救两个老人还是救一个小女孩的问题时,机器人会如何抉择呢?或许,救两个人比救一个更好?另外,如果救下一个摩托车驾驶员有80%的成功率,救下一辆满载的校车只有30%的成功率,这些算法会怎么选择呢?或许,正是由于以上的这些伦理和道德难题,使得这些完全由算法组成的机器人还没有完全应用到我们的日常生活中吧。

正如我们理解的,三定律的关键正是为了防止人类经历机器人反叛。为了避免这种担忧成为现实,机器人学三定律会被写进每一个机器人的算法程序设置当中,作为机器人的一种道德代码。这到底是如何实现避免机器人反叛出现的呢?如果机器人违背了三定律,它们的内在程序会让其走上自行毁灭的道路。阿西莫夫提出的观点正是对于人类对抗“弗兰肯斯坦情结”的体现,即所有人类潜意识里对机器人奋起反抗人类并消灭人类的恐惧。

机器人现在对我们造成的最现实的威胁(包括自动化设备)是就业危机。在专业性不强、重复性高的那些劳动中,人类已经被机器人替代。有人认为科技是创造就业机会的原动力,这是历史上所有科技革命的经验。人类需要的是不断学习新科技,并去适应新的科技。然而,这种观点可能还是过于乐观了。历史经验并不等于未来,尤其是在人口飞速增长的环境中,机器人对于人类的就业会带来怎样的影响仍然未知。还有另一种说法,认为机器人的发明可以让人类进入一个后工作时代,也就是所有的工作都交给机器人去完成。目前,所有的观点都只是臆测和推断,只有时间才能告诉我们未来究竟会怎样。

总而言之,人类发展科技的目的之一本来也在于解放劳动力,让人类更少地工作、更多地消遣。对于资本主义而言,现实利益是做出选择的最重要因素:机器人会大大降低企业的成本,虽然这会使很多工人失业。考虑到这个情况,很多工会已经提出让机器人交税的建议(当我们说到机器人时,更确切地说,我们指的是那些使用机器人的企业家),而且还有理论家指出机器人也会占用社会资源。但我们现在还不知道,未来,这些机器人是否也会去商场逛街,毕竟,正如我们熟悉的T-800[ T-800:电影《终结者》中,由阿诺德·施瓦辛格饰演的终结者。

]说的:“这种欲望毫无意义。我不过是一个机器罢了。”