近年来,无论是在哲学领域还是在科学领域,意识与认知研究中泛心论的复兴都是一个令人瞩目的现象,一度被认为是荒诞不经的理论突然重新成为争论的热点。更有趣的是,泛心论复兴的这个时期恰恰也是人工智能讨论最热烈的时期,这显然并不完全是一种巧合。但奇怪的是,泛心论与人工智能仿佛是两个独立的话题,极少发生交集,斯坦福哲学百科人工智能词条完全没有提到泛心论,而泛心论词条中甚至没有提及智能(Intelligence)。乍看之下, 这二者似乎也的确处于不同的话术层次,一个是当代科技前沿,一个则是心智的形而上学方案。但也有学者指出,强人工智能会走向泛心论,进而能够为泛心论提供支撑。本文将表明, 强人工智能并不自动导致泛心论,即便强人工智能会支持某种形态的泛心论,但这种泛心论也不是当代泛心论者想要的那种泛心论。
一、人与机器:从自动机到人工智能
人工智能(Artificial Intelligence)概念的出现,通常会追溯到图灵1950年发表的《计算机器与智能》,以及1956年美国达特茅斯的人工智能夏季研讨会,自那以后关于人工智能的研究和学术讨论经历了数次热潮。近年来,伴随着深度学习、图像处理、语音识别等理论和技术的重要突破,人们对于人工智能的热情持续高涨,也极大激发了对于人工智能的乐观情绪:机器智能全面超越人类智能的“奇点”似乎触手可及,通过意识的上传和下载,人类甚至能够实现永生。但所有这些都基于一个基本前提,也就是机器能够产生意识,或者更具体一点说,一个适当编程的计算机足以产生人类所具有的那种心灵或意识,也就是塞尔(John Searle)所谓的强AI,相应的弱AI仅仅是对人类智能的某种程度的模拟[1]56。塞尔关注的焦点是强AI是否可能。通过著名的“中文屋”思想实验,塞尔试图表明,强AI是不可能实现的,因为任何形式的计算都只能是语法形式的操作,而无法深入到内部语义理解的层面。塞尔断言:“程序本身不能够构成心灵,程序的形式句法本身不能确保心智内容的出现”[2]167,若果真如塞尔所言,那么无论人工智能发展到何种程度,都不会有所谓的奇点到来,因为AI永远无法具有真正的语义理解能力,因而也就无法具有人类意识或心智。在塞尔看来,即使电脑程序能够漂亮地“创作”诗歌、小说、学术论文甚至交响乐,它也不能真正理解并欣赏它自己创作出来的东西。因此,按照塞尔的标准,当前以及未来可能的人工智能都只是弱人工智能。
人工智能大致适用范围
塞尔对强人工智能的否定固然维护了人类的特殊性以及所谓的“尊严”,但问题在于,包括人在内的生物系统与人工的、非生物的系统相比,其特殊性究竟在哪里,二者同样作为自然的产物,何以前者能够产生意识而后者却不可能。无疑,这已经是意识的根本问题,而且这一问题在笛卡尔那里就已经有考虑了。笛卡尔认为,人和动物的身体其实就是“神造的机器”, “人所能发明的任何机器都不能与它相比”[3]44,它们是如此的复杂与巧妙,以至于能够自己运动,因而被笛卡尔称为“自动机”(automata)。自动机的运动服从机械力学的原理,因此如果存在外表及行为看起来与动物一模一样的机器,我们将无法区分二者,但如果是看上去与人一模一样的机器,笛卡尔认为我们还是可以进行区分的,因为人的身体里还有“居住”着它的操控者——心灵,正是心灵使得人和“自动机”存在两个方面的重要区别:首先,自动机不会创造性地运用语言,不可能像正常人那样进行语言的交流;其次,由于“一种特殊结构只能做一种特殊动作”[3]45,因此自动机只能在某一个方面尽量模仿人,能做到的事情非常有限,而心灵所具有的理性却是万能工具,使人能够应付各种复杂的情形。
关于笛卡尔所说的第一个方面的区别,我们后来有了图灵测试,也就是图灵在《计算机器与智能》中谈到的“模仿游戏”。这原本是当时英国流行的一种游戏,游戏中提问者向藏在幕后的一男一女提问,藏在幕后的人把回答写在纸上,提问者以此判断藏在幕后的两个人的性别。图灵在这篇文章中提出,是否可能存在某种智能机器,能够很好地回答提问者的问题,以至于提问者无法区分它是机器还是作为生物体的人[4]44-45。可见,在笛卡尔和图灵那里,语言使用能力都被看成是区分人和机器的重要标志。笛卡尔自然无法预见到数百年后计算机科学的迅猛发展。尽管图灵的乐观估计并未完全实现①,但或许不用再过另一个五十年,图灵测试对于计算机会变得毫无挑战。当然,通过图灵测试并不是人工智能的终极目标,人工智能的实现当然不仅限于语言使用能力。
图灵测试示意图
至于第二个方面的区别,大致相当于我们现在对人工智能专家系统的批评。专家系统出现于20世纪80年代,美国著名科学家费根鲍姆(Edward Albert Feigenbaum)最早提出知识工程的概念,试图在计算机上建立“专家系统”,因而被称为专家系统之父,他认为智能系统之所以强大,是因为它所掌握的知识而不是具体规则[5]27-28。与笛卡尔对自动机的批评如出一辙,一个专家系统或许在某个特定方面可以超越人类智能,但在其他方面可能一无是处。
可见,笛卡尔所谈的这两点区别实际上都可以用于对人工智能的质疑,但类似这样的批评都只相当于查尔默斯所说的外部反对,目的在于表明计算机系统不可能具有认知系统那样的行为方式[6]377。查尔默斯认为这类反对意见不难反驳,因为“我们有足够的理由相信物 理定律是可计算的,因此,至少我们应当能够计算地模仿人类的行为”[6]378。查尔默斯认为更严重的反对意见是以塞尔中文屋论证为代表的内部反对,这类反对意见试图表明计算机至多只能提供智能的模拟,而不是复制,也就是说,计算机不可能具有内部生活,不可能具有意识经验。但查尔默斯仍然认为强人工智能是可能的,并且会蕴涵一种泛心论的强版本。
① 图灵预测,大约到2000年,计算机在图灵测试中能够达到这样的水平,也就是让每个提问者在多轮测试后做 出超过30%的误判。但直到2014年才有被称为尤金·古斯特曼(Eugen Goostman)的人工智能软件达到了这个水平。
二、计算产生意识:
从强人工智能到泛心论
在《有意识的心灵》一书中,查尔默斯明确表达了对强人工智能的支持:“存在着一个非空的计算类,以使得在那个类中所执行的任何计算,对于心智都是充分的,特别是对意识经验的存在是充分的。”[6]379查尔默斯承认,逻辑上来看,计算完全有可能在缺乏意识经验的情况下发生,因此,计算对于心智的充分性只具有自然的必然性,而不具有逻辑的必然性,但这种自然必然性对于强人工智能的辩护已经足够[6]379。
此外,更重要的是,查尔默斯指出,如果像塞尔指出的那样,计算的执行不是一个完全客观的过程,而是相对于观察者的,并且,只要给予适当的解释,任何系统都可以被看作是执行了任何计算,那么,计算的概念将变得琐碎,“至于强AI,或者它是内容空洞的,或者它蕴含了以一种强泛心论的形式”[6]381。查尔默斯试图论证计算概念并不是琐碎的,强AI能够在此基础上获得辩护。因此,尽管查尔默斯强调,计算对于心智的充分性并不是建立在其自然主义二元论的那些观点之上,但强AI最终仍会走向某种形式的泛心论。查尔默斯以及任何主张计算例示了意识的哲学家都清楚地知道,系统的现象状态必须以某种方式通过程序执行时生成的计算状态转换序列来实现。图灵通过“离散状态机”(discrete state machines,以下简称DSM)阐述了实现这种状态转换的基本原理。他把DSM定义为“通过突然跳动或是通过棘轮,从一个完全确定的状态,转变到另一个完全确定的状态”[4]51。为了阐明DSM的工作原理,图灵设计了一个简化的轮机,其棘轮每秒转动一次,每次转动120度,可以通过操作外部杠杆使其停止转动,此外,还有一盏指示灯,当轮子转到某个位置,指示灯会亮起。这样一来,当机器开动之后会在离散的时刻点循环通过三个计算状态,记为(Q1, Q2, Q3),并且,这些计算状态可以用轮子的位置(WA, WB, WC)来标示,这样一来,就可以将DSM的计算状态(Q1, Q2, Q3)映射到车轮的物理位置(WA, WB, WC),比如:(WA→Q1, WB→Q2, WC→Q3)。对于这样的DSM,其行为完全可以通过内部状态的转换序列来描述,如果离散状态机的可能状态数是有限的,就可以通过映射表或映射函数来描述它们,因此,“一旦确定机器的初始状态和输入信号,就总是可以预见所有未来的状态。”[4]52
AI进行头脑计算
然而,正如塞尔指出的那样,这种映射是相对于观察者的,因为轮子的位置WA不一定非得映射到Q1,同样也可以映射到计算状态Q2或Q3,只要相应地分配好其他映射,机器的状态转换序列及其功能将保持不变。对此,查尔默斯承认,存在有限程度的观察相对性是没有问题的,但这并不会威胁到AI,因为“情况依旧是,对任何给定的计算,仍然存在关于给定系统是否执行它的事实,并且只有有限的一类系统有资格来执行”[7]320。
为了说明什么是执行一个计算,并证明计算的执行并不是琐碎的,查尔默斯在有限状态机(finite state automaton,以下简称 FSA)的基础上引入组合状态自动机(combinatorial state automata,以下简称 CSA)。CSA与FSA基本类似,也不比传统的FSA更强大,唯一的区别在于,FSA的内部状态是没有任何内部结构的简单元素,比如(s);而CSA的内部状态是结构化的,比如,可以将 s 构造成一个集合(s1, s2, …, sn )。引入CSA主要基于三个方面的考虑,“首 先,CSA的执行条件比相应的FSA的执行条件要严格得多。CSA的执行需要包含多个独立部分之间复杂的因果交互作用;因此,CSA的描述可以更细腻地反映系统的因果组织。其次,CSA为有限和无限机器的执行条件提供了统一说明。第三,CSA可以直接反映计算对 象(例如图灵机和细胞自动机)的复杂形式组织,而在相应的 FSA中,这种结构大部分将丢失。”[7]318-319
引入 CSA 后,查尔默斯说明了什么是执行一个计算:“如果有一种方法可以将系统状态映射到计算状态,从而使因果相关的物理状态映射到形式上相关的相应形式状态,则系统执行计算。”[7]317-318并给出了执行CSA时的形式标准:
如果一个物理系统P的内部状态分解为[s1,…, sn],并且存在从子状态sj到组合状态机M的相应子状态Sj的映射f,加上类似的分解以及从输入到输出的类似映射,从而,对于M的每一状态转换规则([I1, …, Ik], [S1, …, Sn]) → ([S’1, …, S’n], [O1, …, Ol]):如果 P 处于内部状态 [s1, …, sn] 并接收输入 [i1, …, ik],映射到形式状态并分别输入 [S1, …, Sn]和[I1, …, Ik],从而可靠地使系统进入内部状态并产生一个分别映射到[S’1, …, S’n]和[O1, …, Ol]的输出, 则物理系统P执行了组合状态自动机M。[7]318
这样就得到了一个执行计算的客观标准,而不会陷入塞尔所说的那种琐碎的境况,一些计算的确在系统中被执行了,而且,“至关重要的是,没有理由相信每一CSA会被每一状态执行。”[7]319