人工智能的伦理思考(1 / 2)

超级软件 钓鱼 0 字 2023-05-18

 <div id="center_tip"><b>最新网址:www.</b>人类一直幻想自己能和上帝抢饭碗,既然上帝能按自己的形象制造人,那我们能不能按自己的形象来制造人造人呢?但人类大概也会遇到上帝的问题吧,如果我们给人造人自由意志,他们就有可能背叛我们,就像亚当和夏娃那样偷吃禁果。基督教相信上帝有能力让人类听话,不听话的他要搞个最后审判来解决,问题是,我们人类能有这样的能力控制人工智能吗?这年头,人类都敢宣称上帝死了,会不会有朝一日,人造人宣判了我们的终结。世界上第一部科幻小说《弗兰肯斯坦》就是出于这种担心,创造了一个力量比人类强,却继承了人类所有罪恶的人造人形象。

事实上,我们对人工智能的担忧正反映了我们对自身弱点的担忧。什么是人工智能,就是让人造的物最大限度地模仿人,好的坏的全学了去,我们无法看透我们自己,同样的困惑也在人工智能身上,当然,这里面还有另外一个疑惑,如何定义人。

人,如果按照马克思主义的定义,最核心的是会制造和使用工具,这点,似乎只要技术发展了,人造人都能达到。如果人类都放宽心,单凭这点就接纳人造人,平等对待,那这篇文章后面的一切都不用发生,问题恰恰就出在,不是人人都愿意接受马克思的观点,人类总要保持那点自傲,人类并不了解自己,不知道自己究竟是谁。

在这样的背景下,两种主要的观点产生了,一种站在人类中心论上,另一种把人类和人工智能平等对待,用人工智能暗示人类的弱点。

上篇:人类中心论下的恐惧、仇恨和有条件接纳

1、机器人三定律的困惑:《星球大战》、《阿童木》、《大都会》

星球大战里最可爱的家伙莫过于两个机器人,矮胖的r2d2和高瘦的c3p,他们有自己的主张,知道自己的决定会产生什么后果,但他们的目的很明确,就是帮助主人。他们不是电影矛盾冲突的主角,基本上是个调味品,电影里没有出现给他们编程序的情节,其实已经假定他们是主人的助手,而不是捣乱去的。

同样的可爱型机器人还有很多,比如阿童木,大概是因为天生的孩子气,东方式的“人之初,性本善”令他的善良得到发挥,完全清洗了创造者对于他有可能带有的暴力倾向的恐惧。阿童木应该代表了人类对于力量的理想,人类发现,自己的力量很单薄,于是求诸于机器的力量,十万马力的孩子机器人正具有这样一种独到的力量。然而,人类毕竟是害怕一个更强大的力量,所以阿童木是个孩子,孩子的天真让他做本性要求他做的事情,他不会有太多的思考的累赘,他的价值判断观也是简单的,正符合人类的梦想:一个力量无穷,至善至诚的社会秩序维护者。

说到这里,其实他们都没逃出过阿西莫夫的机器人三定律,这个定律是这样说的:第一定律――机器人不得伤害人,或任人受到伤害而无所作为;第二定律――机器人应服从人的一切命令,但命令与第一定律相抵触时例外;第三定律――机器人必须保护自身的安全,但不得与第一、第二定律相抵触。也就是说,首要的是人类中心论,机器人终究是人类的助手,必要的时候还得舍己救人。但这个理论的一个致命的问题在,机器人究竟服从谁?是服从程序设定者还是人类这个整体。

这个问题其实就出现在德国电影《大都会》里。电影设想2000年,富裕的统治阶级住在奢华的摩天大楼中,而劳动者则在地下深处重复单调地劳作着。英雄弗雷德是最坏且有权有势的一个统治者弗雷德森的养子。当弗雷德遇见最可爱的洞**居民玛丽亚时,他整个人都变了。他偷偷地进入地下,为劳动者脏乱的生活状态所震惊,立即投身于人道主义的改革运动。邪恶的企业家罗特望当然要阻止改革的进行,他设法让奴隶们反对改革者。在他那氖气控制的实验室中,他按照玛丽亚的模样制造了一个机器人,并把它设计成迷惑群众的邪恶先知。经过一次毁灭性的暴动和地下水灾以后,暴君弗雷德森终有所悟,他同意以后善待劳动阶层。

《大都会》中,玛丽亚的机器人服从着罗特望的命令,但其实她已经从一定程度上抵触了第一条,因为她没有能力定义什么是人类。既然大家都把她当作先知,那就应该是如假包换的人工智能,可惜最后也只能堕落为一个会说话的机器,这个问题,应该怪阿西莫夫吗?

2、以暴制暴的极端仇恨:《终结者》

即使有了机器人三定律,人类也没就此安心,假设这个定律的失灵――机器忽然觉醒,毫无理由地展开了和人类的战斗,这就是《终结者》。大概只是为了争夺地球的地盘吧,电影很明确地把机器和人类放在对立的地位上,两派势不两立,没有任何谈判的基础,没有共同语言,两派都出于一种杀红了眼的境地。这正反映了电影产生的冷战时代,两大阵营你死我活的较量,根本没有什么伦理人权的说法,只有**裸的,要把对方至于死地的决心。

第一集完全是机器和人类的对抗,人类抵抗力量和阿诺扮演的终结者惨酷的战斗,人类的力量比不了机器,最后的胜利完全靠的是智取。按照当时对于人工智能的理解,机器人是体力大大超过人类,但脑力,由于他们是人造的,必然无法超过人类的精英。机器人是忠实的程序执行者,只要还有一丝能量和运动的可能,就要战斗到底,所以阿诺的这场梦魇一直继续到他被彻底压烂。

第二集和第三集其实只扩展了机器人科技的可能形式,出现了液态的机器人,无孔不入,更难对付,而且还会伪装,简直就是个间谍的形象。阿诺扮演的终结者这次倒成了个正面人物,当然,是完全执行约翰的指令,他的不杀人,体现的是约翰的观点,依然逃不出人控制机器的套路。和第一集相比,对于人工智能的看法有了改变,机器不再是人类必须恐惧的对象,而是双刃剑,就看谁能控制机器的力量。

3、人类中心论上的有条件接纳:《人工智能》

如果一个有思维的机器人用玩具熊的形态出现,你一定不会考虑很多伦理问题,毕竟那就是个超级玩具,但如果它以人的形态出现,更进一步的话,如果他有情感,那我们要考虑的东西可就多起来了。《人工智能》里的小男孩大卫只需要妈妈的爱,这是一种无偿的情感,是产品的设定,即使他的诞生从一开始就得到质疑:机器人给人类爱,如果机器人得不到爱会如何?这个问题,对于玩具熊就不会是问题,它不需要付出什么,也不懂得得到什么,它考虑自己的时候也就是找针线把自己缝缝好,别的就都无所求了。

但别的机器人面临的问题就不同,当他们型号老化,再不能创造新的生产力的时候,等待他们的只有被抛弃。然而,他们并不是没有知觉的机械,他们有自我意识,有求生本能,所以当毁灭机器到来,他们努力逃跑,即使最后不免于公开被虐杀的遭遇,为人类杀戮的本性奉献最后的能量,却依然能对天真的大卫保持爱护,把他当小孩子一样保护起来。那些看着机器人被毁灭的人类本身就是一种矛盾,他们能够对大卫报以恻隐之心,却能用残忍的手段毁灭**形态的机器人,难道仅仅因为他孩童般的长相吗?要知道,他的年纪并不比别的机器人小多少,唯一的解释是,他们对机器人怀有恐惧,而一个小孩形态的机器人看上去毫无威胁,所以他们得以施舍自己的“宽容”。

这种基于施舍的接纳并不能从根本上解决人类是否要接纳机器人的矛盾,这个问题最后推给了大卫的设计者,他那里有许多大卫等待被唤醒,游荡了一圈的大卫这才真的愤怒了,因为他有完全的自我意识,有自私的对爱的需求,当他不可避免地接受了幻灭的现实,唯有离开,将自己沉入大海,寻找自己的童话。

这部电影探讨了人工智能的情感伦理,最后绕了一圈还是回到原地,成了无奈的控诉,毕竟斯皮尔伯格没有勇气打破人类中心论的老调子,所以人类依然对机器心存戒备,虽然表面上可以说对机器有感情,终究这种感情只能停留在类似对宠物那样的态度上,人类自身似乎找不到任何解决方法,还要等待外星人来实现大卫的梦想。