吉他价格品牌,吉他教学教程,吉他曲谱视频
关注520吉他网
文章页顶部广告位
当前位置:首页 > 头条 > 如何解答武汉大学 2018 秋季学期「哲学核心问题(形而上学)」期末考试试卷?
时间:2020-04-03     来源:网络资源     标签:

对于高赞 @慧小田哲思学 提供的“满分答案”,我是不以为然的。

在这份答案中,至少有两个我认为致命的矛盾:第一,作者认为机器人摆脱了身体的束缚,因而“重拾”笛卡尔的二元论,一定程度上比人类更优越(作者原文说“想成为一个AI”),但机器人并不是没有身体,而是有一个更广义的“身体”。

第二,作者认为机器人的“基因”——其程序代码是对自己开放的,因此可以绕过“无知之幕”,所以比人类“高明”;但实际上,如果机器人能够预判所有的代码会造成什么样的结果,那么就不存在自由意志,这与作者认为机器人“几乎没有决定论”相矛盾;如果机器人不能预判所有的代码会造成什么结果,那么机器人和人类并没有什么两样。

对于第一点,作者的解释可以归纳为三点:1)机器人可以“做到完全的意识共享和上传”因而不依赖身体,而人类的意识则会随着肉体消散;2)机器人的“意识训练”不依赖于身体,而人类必须有身体才能训练意识;3)机器人由于不依赖身体,因而丧失了因为身体而造成的先天差异(和进而导致的其它差异)。

我的反驳是:机器人的意识共享和上传,仍然需要依托于物理存在在某处的存储器和运算设备,也就是说,机器人只不过不依赖狭义的“身体”,即单个机器“人”设备或者说义体,但同时仍然依赖一个更广义的“身体”,和人类的“身体”的唯一区别恐怕只在于:1)这个“身体”允许多个意识同时存在;2)意识在不同“身体”间便于迁徙。

正如同人类需要担心自己的身体的损耗一样,机器人也需要担心这个共享的“身体”是否能够正常的运作。

从这个角度上来说,机器人也会担心“生病”和“衰老”,因为设备总是会损耗的,随着使用时间增长,物理错误的发生概率也会增加;机器人也需要担心被人“杀死”,只需要将机器人的意识引导到某个单独的设备中,再“物理隔绝”并摧毁该设备就可以了。

(最后这个想法来自2014年的科幻电影《超验骇客》)当然,作者可以辩称,由于意识便于“迁徙”,机器人可以在“身体”运作机能下降时将意识转移到别的“身体”中。

我猜测具体的操作应该类似于将包含有机器人意识的代码的文件从一个存储器转移到另一个存储器。

现在,请掌握了基本计算机科学知识的同学回想一下,当我从C盘剪切并粘贴一个文件到D盘的时候,实际上发生的是什么?是我先读取C盘中该文件的代码,在D盘写入同样的文件代码,然后在C盘删除文件索引(一般不会抹除文件代码,后面有新数据进来才会覆写掉)。

这一过程让你想到了什么?对,就是科幻作品中将人通过“复制-重建-摧毁”的方式进行“瞬间转移”所带来的“忒修斯之船”问题。

如果要把机器人放在“人”的同一层面看待,那么我们就必须回答这个问题:现在D盘里那个文件所包含的机器人意识是原本C盘的那个吗?由于C盘里的文件代码并没有被真正地抹掉,那么C盘里仍然存在的文件所包含的机器人意识和D盘里重新建立的那个机器人意识,哪一个才是“真正的”原本那个机器人呢?我们现在其实已经撞上“意识”这堵墙了,在我们进入第二个问题之前,让我再说一点:意识的共享和上传真的就是作者想像的那么“美好”的事情吗?作者自己在后文中也意识到了:人体从另一个角度看,不过就是一系列经过“编码”的细胞的组合,这些细胞本身甚至都没有自己的“意识”(起码我们并不承认),但是单单这些没有意识的细胞的组合,就使得在宏观层面出现了“意识”,那么当所有的机器人意识能够共享甚至“整合”在同一个设备或者虚拟的“网络”上时,情况难道不会更加“糟糕”吗?作者非常轻描淡写地带过了一件事,那就是“社会实体”(某种“宏观意识”)要求个体程序必须拥有一段自然死亡的代码。

这种代码的添加是怎么做到的呢?是这一“社会实体”凌驾于个体意识之上覆写进去的吗?个体会发展出“不想死”的意志吗?起码我知道,在人体中,这种不“想”死的细胞叫“癌细胞”,在矩阵(《黑客帝国》)中,这种不想死的程序叫作“Agent Smith”。

好了,我们可以正式进入第二个问题了。

我们姑且承认,程序可以获得真随机的输入。

但是程序是不能获得真随机的输出的,一切程序输出的都是伪随机(依赖于随机种子,这个种子倒是可以是真随机的)。

只要真随机的输入全部都确定了,那么接下来会发生什么,程序是知道的。

注意这里并不能用“停机问题”来反驳。

停机问题是说,不能根据代码就确定程序(在无限未来)是否会停机,但并不是说,不能根据代码知道在有限未来会发生什么。

显然,如果程序代码对程序开放,但是程序不能预判所有的程序代码(在真随机输入给定)时将会发生什么,那么机器人和人其实没多大差别。

人类现在已经能够对任意个体进行DNA测序了(目前要把一个人的基因都测出来估计代价还挺高,但是这种代价是能够随着技术进步而降低的),只不过我们现在还无法确定任意的某段DNA(在给定外界刺激时)会如何发挥作用。

反过来,如果程序能够预判所有的程序代码(在真随机输入给定)时将会发生什么,这意味着机器人的任何举动都不过是外界真随机输入的某种函数,那么机器人就并不存在自由意志了;至少从他们自身出发,机器人不会否定决定论。

(他们还是可能从外界的某种“真随机”中否定决定论)注意这里也不能用“输入是随机的为什么还是决定论”来反驳:用“拉普拉斯妖”来说明牛顿力学本质上是决定论的时候,也从未要求“当下的动量和位置数据是非随机的”。

当然,悲观地说,上述观点意味着,人的“自由意志”不过是我们还未充分了解自己带来的假象而已,不过这显然不是我一个人持有的观点吧。

反过来,或许机器人和人类一样,也不过是拥有着“假象”式的自由意志而已。

可以说,作者的这份答案,有点像人文学科“欧洲中心论”两种不同发展方向的翻版(姑且称为“人类中心论”):一方面,是以欧洲或者说西方(本题中的“人类”)的习惯风俗、思维方式、经历体验去推断东方(本题中的“机器人”),一个典型的例子是作者说年轻机器人去“学校”学习:机器人既然都能网络共享意识了,为什么还要去学校,甚至为什么还要“学习”?(更不用说教授作为题目的那一段了,难以吐槽……)另一方面, 则是过度高估或赞美东方(机器人),以致于忽视了某些东西方(人与机器人)共通的法则(参考历史教科书都会提到的,伏尔泰、孟德斯鸠等法国思想家是如何高度评价中国社会的……)。

作者自己也提到,网络容量有限。

俗话说得好,哪里有稀缺性,哪里就有经济学,哪里有经济学,哪里就跟着有了法学、政治学和社会学(好吧,这句话是我编的)。

既然网络容量有限到必须杀掉部分机器人,那么网络容量是怎么分配的,比如说谁先死谁后死?又由谁决定什么时候“生下”新的机器人呢?是某个集权政府还是民主决定还是随机呢?再比如,作者提到如果喜欢钓鱼可以直接将意识下载到河边的某个义体,显然义体的数量是要比机器人意识的数量要少的(总不能地球上每条河边密密麻麻摆满了义体吧?),那么谁能去谁不能去?机器人A今天想和机器人B去河边约会钓鱼,碰到单身狗群体“机器人FFF团”集体下载到河边一隔一占据了一半的义体,有没有谁出来管管?如果保证自由意志,那么即使是透明思想,也不能解决集体决策的偏好问题,经济学上我们管这个叫阿罗不可能定理,科幻小说里面请参考《三体》中的三体人(三体人都特么的有领导有社会分层的好嘛?!)。

当然,这其实有一部分原因是要怪出题的教授的,因为教授描述了一个异常诡异的机器人社会,那就是机器人在模仿“人类”的生活方式。

这种社会本身就是矛盾的:如果机器人真的有足以发展自己社会的自由意志,那么就会摒弃人类的生活方式,进化出机器人自己的生存方式(上述答案的作者所描述的机器人肯定无须担心申请经费或发表论文,因为意识都共享了……);如果机器人未能摒弃人类的生活方式,那足以让人质疑这些机器人不过是根据代码运作而没有自身思想的机器而已。

任何事情的发生都有其原因,为什么机器人会模仿“人类”的生活方式?为什么机器人明明不用吃喝但还是要吃喝,明明不用生小孩但还是要生小孩,明明不用发愁但还是要发愁,明明不用死但还是要死?我觉得唯一合理的解答只能是,这些机器人的一切是编程好的,他们不过就是将人类出走比邻星b时的一切以一种活动的方式定格住,就像是加装了机械装置的秦始皇陵兵马俑一样,这也就解释了为什么人类要派历史学家(准确地说,应该还要加上考古学家?)回地球了。

既然如此,机器人的图书馆中的哲学文献,恐怕也就只有人类离开地球时候的那些罢了。

P.S.这篇答案的长度已经太长了超出我预期了,我就不吐槽22世纪+上千年发展后的人类为什么和21世纪的人类在思想上没啥两样了(过去一百年人类社会有多大变化教授知道吗?)……还有什么“生活在别处”的感觉更是难以吐槽,上千年是什么概念教授有数吗?你去问问美国人有没有因为自己是欧洲人后裔而“水土不服”的……真的要是水土不服,22世纪就能跨过四、五光年去比邻星了,22世纪+上千年这么长时间,你们早干嘛不回去啊?再P.S. 还是Whitehead说得好:The safest general characterization of the European philosophical tradition is that it consists of a series of footnotes to Plato.总结来看,整个欧洲哲学传统就是一系列对柏拉图的注脚。

文章页顶部广告位
文章页顶部广告位
文章页顶部广告位

报歉!评论已关闭。