心理属性是如何产生的,就成为所谓的“意识的困难问题”。

文章作者:管理一号 | 2019-04-12
字体大小:

哲学僵尸应该有才干提出有关体会特点的任何问题。不过,值得沉思的是,一个缺少体会的人或机器怎么能回忆其没有过的体会。哲学僵尸应该有才干提出有关体会特点的任何问题。不过,值得沉思的是,一个缺少体会的人或机器怎么能回忆其没有过的体会。

作者简介:乔·弗洛里希(Joel Frohlich)是加州大学洛杉矶分校的一位博士后研讨者,在马丁·蒙蒂的实验室中从事认识研讨,他在加州大学洛杉矶分校取得了神经科学博士学位,师从沙法利·耶斯特(Shafali Jeste),其时的研讨方向是神经发育紊乱的生物符号物。现在他仍是科学沟通网站“Knowing Neurons”的总编辑。

澳大利亚哲学家大卫·查莫斯(David Chalmers)有一个闻名的问题是,是否可以幻想“哲学僵尸”(philosophical zombies)——那些体现得像你我相同却又缺少片面经历的人——的存在?这个问题引起了许多学者对认识的爱好,包含我。原因在于,假如这种僵尸(或许说精细但毫无爱情的机器人)或许存在,那么仅仅用物理特点——关于大脑或相似大脑的机制——就无法解说认识体会。相反,咱们有必要考虑一些额定的精力特点,才干解说什么是有认识的感觉。弄清楚这些心思特点是怎么发生的,就成为所谓的“认识的困难问题”。

可是,关于查莫斯的哲学僵尸一说,我有一个小小的问题。哲学僵尸应该有才干提出有关体会特点的任何问题。不过,值得沉思的是,一个缺少体会的人或机器怎么能回忆其没有过的体会。在播客“Making Sense”(此前的名称是“Waking Up”)的一集节目中,查莫斯与神经学家兼作家萨姆·哈里斯(Sam Harris)谈论了这一问题。“我以为至少想象一个能这么做的体系并不是特别困难,”查莫斯说,“我的意思是,我现在正与你攀谈,而你正在做出许多有关认识的谈论,这些谈论好像很激烈地标明你具有认识。虽然如此,我至少可以考虑这么一个主意,即你并没有认识,你实际上是一个僵尸,你宣布所有这些噪音的一起心里并没有任何认识。”

这不是一个严厉的学术问题。假如谷歌的DeepMind公司开发了一个人工智能,它开端发问“为什么赤色感觉像赤色,而不是其他什么东西”,那么就自有少量或许的解说。或许它从他人那里听到了这个问题。这是或许的,例如,人工智能或许只需求简略地阅览有关认识的论文,就可以学会提出关于认识的问题。它还或许经过编程来提出这个问题,就像视频游戏中的人物相同。或许,它或许从随机噪音中蹦出了这么一个问题。很显然,提出有关认识的问题自身并不能阐明任何事情。可是,假如没有从其他来历听到这些问题,或许没有满足的随机输出的话,一个人工智能僵尸会自己构想出这种问题吗?对我来说,答案显然是否定的。假如我是对的,那么咱们就应该仔细考虑当一个人工智能自发地提出有关片面体会的问题时,它就很或许是有认识的。由于咱们不知道在没有确认一个人工智能是否有认识的状况下,拔掉它的电源是否符合品德。咱们最好现在就开端留意听取这些问题。

咱们的认识体会由“感质”(quale)组成。感质即感官感触的片面方面,例如赤色中的红,甜味中的甜。构成认识体会的感质是不行简化的,无法被映射到其他任何事物上。假如我天然生成失明,那么任何人都无法让我感触到鲜血和玫瑰花共有的色彩感触,不管描绘得多么明晰。即便我是发展出盲视才干——虽然失明可是可以避开障碍物并精确猜出电脑显示屏上物体呈现的方位——的许多失明者之一,状况也相同如此。

盲视好像标明一些行为可以彻底机械化,也便是说,可以彻底没有任何片面认识地做出某些行为,这回应了查莫斯的哲学僵尸概念。盲视者的大脑好像利用了视觉体系的前认识区域,在没有视觉体会的状况下发生视觉行为。这种状况常常发生在一个人遭受中风或其他视觉皮层损害之后。视觉皮层是处理视觉信息的大脑皮层。由于此时人的眼睛依然是健康的,因而眼睛或许会将躲藏在认识中的信息提供给特定的大脑区域,比方上丘(superior colliculus)。

出于相同的原因,也存在少量聋人具有听力的事例。2017年发表于《哲学心思学》(Philosophical Psychology)期刊的一篇陈述胪陈了一个这样的事例,一位被称为LS的男性患者虽然天然生成失聪,却能依据内容区别不同声响。关于像LS这样的人,这种区分才干是在幽静中发生的。可是,假如一个聋人问出相似正常人所提出的问题,比方“那个声响听起来莫非不是很古怪吗?”那么咱们就有充沛的理由置疑这个人是不是真的聋了(咱们不能彻底确认,由于这个问题或许仅仅一个恶作剧)。相同,假如一个人工智能开端自发地提出只要具有认识的人才干提出的问题,那咱们就会合理地发生相似的置疑:片面体会是不是现已上线了?

在21世纪,咱们迫切需求就认识进行图灵测验。人工智能正在学习怎么驾驭车辆、确诊肺癌以及编写自己的计算机程序。智能对话或许在十年或二十年内就会呈现,而未来的超级人工智能不会日子在真空中。它将可以拜访互联网,读取查莫斯和其他哲学家关于感质和认识等问题的著作。可是,假如科技公司能在本地内部网上对人工智能进行beta测验,阻隔这些信息,他们就可以进行图灵测验式的对谈,以检测有关感质的问题是否对人工智能有意义。

面临一个潜在的硅基思维,咱们会提些什么问题?关于比方“假如我的赤色是你的蓝色怎么办?”或“会有比绿色更绿的色彩吗?”这样的问题,人工智能给出的答案应该能让咱们了解许多关于它们精力体会(或许缺少精力体会)的状况。一个具有视觉体会的人工智能或许会考虑这些问题暗示的或许性,或许会这么答复,“是的,我有时会想知道是否还会存在一种色彩,能将赤色的发热与蓝色的冷淡混合在一起。”另一方面,缺少视觉感质的人工智能或许会答复,“那是不或许的,赤色、绿色和蓝色各自以不同的波长存在。”即便人工智能企图自由发挥或诈骗咱们,比方答复“有意思,假如我的赤色是你的汉堡包怎么办?”这就标明它没有抓到要点。

当然,人工认识也或许具有与咱们自己天壤之别的感质。在这种情境下,关于特定感质(比方色彩感知)的问题或许就无法牵动人工智能。可是,关于感质自身愈加笼统的问题或许就能筛选出哲学僵尸。出于这个原因,最好的问题很或许便是“认识的困难问题”自身:认识为什么可以存在?为什么你在处理周围世界输入的信息时会体会到感质?假如人工智能以为这个问题有意义,那咱们就很有或许找到人工认识。但是,假如人工智能显着不理解比方“认识”和“感质”等概念,那么关于其心里精力日子的依据也就不存在了。

树立一个认识的“检测器”并不是一件小事。除了这样的图灵测验,未来的研讨人员还或许会使用今日的笼统认识理论,企图从计算机的接线图中揣度出认识的存在。一种这样的理论就考虑了大脑或其他体系整合的信息量,而且现已被用于揣度脑损害患者是否具有认识,乃至用于揣度鱼群是否具有认识。事实上,在以检测人工认识为动机的研讨取得许多资金支撑之前,在脑损害患者中检测认识的需求就现已突破了科学上的忌讳。

我地点的实验室由加州大学洛杉矶分校的马丁·蒙蒂(Martin Monti)领导,致力于经过开发更好的手法,从大脑电生理活动或代谢活动来揣度认识的状况,然后改进脑损害患者的日子。当咱们拔掉那些认识清醒但没有反应的患者的生计设备时,就会发生道德悲惨剧;而假如咱们拔掉人工认识的电源,就会呈现相同的悲惨剧。就像我在加州大学洛杉矶分校的实验室所做的作业,便是将理论上的认识测定与脑损害患者的临床行为联系起来,而未来的研讨人员也有必要将人工认识的理论测定与人工智能在某种图灵测验中的体现联系起来。到了那时,当咱们不再需求教科书的时分,咱们依然需求考虑僵尸无法答复的那个问题。

Copyright © 2009-2018 外星探索www.ufo-1.cn 版权所有 关于我们| 法律声明| 免责声明| 隐私条款| 广告服务| 在线投稿| 联系我们| 不良信息举报