查看原文
其他

机器意识:人工智能的终极挑战

周昌乐 集智俱乐部 2023-04-28


导语


机器意识,未来人工智能领域的璀璨明珠,将成为人类信息技术革命的终极挑战。机器意识研究不但对深化人工智能的研究有着重要的推动作用,而且对科学地解释神秘的意识现象同样具有重要的推动作用。


今天的文章介绍厦门大学教授、心智科学家周昌乐的《机器意识——人工智能的终极挑战》一书。书中总结了作者在二十多年研究中探索的各个领域,包括自我意识的心脑机制、自我意识的计算建模,还探讨建立了自我意识的异步自省理论,并尝试性研究了通过量子计算如何使得机器也能够拥有“体验意识”。同时,这还是一部开展机器意识研究的工具书,包括意识哲学思辨、意识科学理论、意识计算建模、机器意识评估评测、机器意识哲学反思,以及包括脑机混合智能在内的机器意识发展前景等。


研究领域:机器意识,意识科学,意识计算建模,脑机混合智能

周昌乐 | 作者



前言


自20世纪90年代以来,人们再次高度关注意识问题,众多哲学家、心理学家与神经科学家在此领域开展了深入的研究工作(Zelazo,2007)。与此同时,人们也开始尝试用计算方法让机器装置拥有意识能力。这类研究逐渐被称为“机器意识”(Machine Consciousness)研究,有时也用“人工意识”(Artificial Consciousness)或偶尔用“数字觉知”(Digital Awareness)来称呼这一领域。

早期有关机器意识的研究比较粗浅,研究工作较少得到学术界的认同,甚至早些年提到“机器意识”时还有不合时宜的顾虑。比如,2003年Drew McDermott采用电子邮件方式对AAAI(美国人工智能协会)在世的207位会士进行了非正式调查。调查结果显示,这些会士对于机器意识解决问题的可能性有不同的观点,观点分布如下:“不感兴趣”的占3%,认为是“病态问题”的占11%,认为是“浅薄问题”的占8%,认为“不是解决的时候”的占7%,认为“需要超越目前所有的全新观念才能解决”的占32%,认为“目前的方法就可以解决”的占3%,认为“基本上可以大致解决”的占11%,其他无关观点占25%(Zelazo,2007)。

但是随着研究工作的不断深入,尽管哲学观点不同,一些有远见的专家学者也已充分认识到开展机器意识研究的重要意义,并专门撰文进行了系统论述。比如英国伦敦帝国学院电子工程系的亚历山大教授通过追踪从20世纪90年代的怀疑到21世纪的态度转变,以及目前不断巩固的阵地,指出机器意识的影响与日俱增,并预计了机器意识对科学与技术发展的潜在影响,特别是在改变人们对意识的理解、对改进计算装置与机器人方面的概念贡献,以及机器作为人类伴侣等方面,意义更为重大(Aleksander,2009a,2017)。

无独有偶,美国伊利诺伊大学哲学系海柯南教授则专门撰文强调机器意识是新一代信息技术产业发展的新机遇,认为新产品与系统的发展机会起因于信息技术发展的下一步,而现有的人工智能是基于预先编程算法的,机器与程序并不能理解其所执行的内容。显而易见,不考虑意识就没有对自身行为的理解,而机器意识技术的涌现可以弥补这一短板,因此机器意识技术可以为信息技术产业的发展提供新的契机(Haikonen,2009a)。意大利巴勒莫大学机器人实验室的车勒教授则指出,开展机器意识研究不仅是一项技术挑战,也是科学和理论上开展人工智能和机器人方面尚未得到满意解答的主题研究的新途径(Chella,2009)。

还有,斯图尔特认为机器意识是对人类的一种基础挑战(Stuart,2011)。土耳其中东技术大学的宫科和沙颜两位学者进一步认为,开展机器意识的计算建模研究有助于推进对人类意识现象的理解,推动构建更加合理的意识理论 (Gök,2012)。这无疑说明,机器意识研究不但对深化人工智能的研究有着重要的推动作用,而且对科学地解释神秘的意识现象同样具有重要的推动作用


正因为有如此重要的科学意义和推动未来信息技术革新的潜在价值,随着最近十年的研究发展,机器意识现在已经成为被广泛关注的热点研究领域,并取得了数量相当可观的研究成果,有些成果甚至已经被运用到实际的认知系统的开发之中。

在后续的研究中,我们不但探索了自我意识的心脑机制、自我意识的计算建模,还探讨建立了自我意识的异步自省理论,并尝试性研究了通过量子计算如何使得机器也能够拥有“体验意识”。

机器意识是一个任重道远的研究领域,也是容易招来非议的研究课题,在国际学术界也同样如此。这就是开展机器意识研究的专家学者凤毛麟角的根本原因。但笔者在此还是要呼吁,希望更多的国内同行能够加入机器意识研究的队伍,为加快人工智能前沿性基础研究的步伐做出贡献。
 


目录

前言

第1章  绪论 

1.1  意识哲学难题

1.1.1  意识学说概要

1.1.2  功能觉知意识

1.1.3  现象感受意识 

1.2  意识科学理论 

1.2.1  意识科学研究
1.2.2  意识神经基础
1.2.3  意识认知理论

1.3  机器意识建模

1.3.1  神经网络方法
1.3.2  符号规则方法

1.3.3  量子计算方法

第2章  视觉注意

2.1  视觉注意机制 

2.1.1  注意作为意识基础 
2.1.2  视觉注意神经机制 
2.1.3  视觉注意计算途径

2.2  工作记忆模型

2.2.1  视觉信息神经表示
2.2.2  量子联想记忆模型
2.2.3  视觉联想工作记忆

2.3  视觉特征获取

2.3.1  图像显著特征获取
2.3.2  运动显著特征获取
2.3.3  显著特征整合模型

2.4  视觉注意系统

2.4.1  视觉注意控制计算
2.4.2  视觉注意计算模型

2.4.3  系统实验结果分析

第3章  自我认知

3.1  自我意识分析

3.1.1  自我意识能力问题
3.1.2  意识时间因素分析
3.1.3  机器人监控员模型

3.2  异步自省理论 

3.2.1  异步自省过程描述
3.2.2  异步自省神经网络 
3.2.3  异步自省理论评述

3.3  自我意识模拟 

3.3.1  内省机制功能分析
3.3.2  内省反思计算模型 
3.3.3  自我意识博弈模拟

3.4  自我认知系统

3.4.1  自我意识认知系统
3.4.2  机器涉身行为表现

3.4.3  机器镜像认知测验

第4章  情感体验

4.1  情感体验问题

4.1.1  情感体验现象分析
4.1.2  情感神经运作机制 
4.1.3  情感感受计算策略

4.2  情感感受理论

4.2.1  经典情感理论概览
4.2.2  情感感受界定分析
4.2.3  情感感受量子理论 

4.3  量子神经模型

4.3.1  量子神经单元模型
4.3.2  量子神经集群模型 
4.3.3  量子神经模型运行

4.4  乐舞情感感受

4.4.1  乐句情感分析识别
4.4.2  情感舞句匹配计算

4.4.3  乐舞情感感受表演

第5章  余论

5.1  机器意识评估

5.1.1  虚拟机器途径
5.1.2  实现目标分类
5.1.3  机器意识评测

5.2  哲学反思批判

5.2.1  哲学反思观点
5.2.2  机器面临困境 
5.2.3  意识计算限度 

5.3  展望未来前景

5.3.1  机器意识出路
5.3.2  脑机混合意识 

5.3.3  未来社会影响 

后记





 异步自省理论


在机器人监控员模型的基础上,我们从异步自省设定出发,以纯客观的方式,对自省过程进行讨论,对一阶表征和二阶表征状态的特征进行了深入分析,并给出对关于“我”、“自我”、“主观体验”概念生成过程的解释。然后在此基础上,进一步提出异步自省理论,明确给出认知和元认知的时间和状态差异(Chen,2017)





1. 异步自省过程描述 



 

按照机器人监控员模型和异步自省设定,考虑如下场景:R在时刻T1观察M1,M1中显示出一朵红色的花,R从M1中获得了“红色”的信息。将这个状态命名为S1,即:

S1:{红色|R,M1,T1}

则S1是一个一阶表征状态,其意向内容为“红色”。

如果在之后的T2时刻,R从M1切换到了M0,由于M0从C0获得的信息有延时,因此R会从M0中看到T1时刻自身状态的影像,即“R′正在观察M1′”,将这个状态命名为S2,即:

S2:{R′,M1′;红色|R,M0,T2}

则S2是一个二阶表征状态,其意向内容为“R′,M1′”,而“红色”则是保存在R短时记忆中的信息。

如果接下来,在T3时刻,R继续保持在M0,但由于时间的流逝,M0上的内容刷新了,显示T2时刻的状态,即“R′正在观察M0′”,那么,将此时系统的状态命名为S3,即:

S3:{R′,M0′;R′,M1′,红色|R,M0,T3}

则S3是一个三阶表征状态,其意向内容为“R′,M0′”,而R的短时记忆中保持了S2状态的信息,为了将从M0中直接获得的信息与短时记忆中的信息加以区别,将后者从“R′,M1′”(S2信息)改为标记“R″,M1″”。

有了以上状态定义,按照高阶理论的一般定义,高阶表征是指以自身精神状态为对象的表征状态。在此,我们将分析在机器人监控模型的异步自省过程中,R可能从中获取的概念。由于涉及超过二阶的情况,因此我们在此定义n阶表征状态:当n=1时,是关于外部感知信息的表征状态;当n>1时,是关于自身n-1阶表征状态的表征状态;同时,n阶表征意味着进行了n-1阶层次自省,如一阶表征代表0次自省即不自省,二阶表征表达了1阶层次自省,以此类推。

在上述表述中,“R看Mx”这样表述中的“看”是以旁观者的视角来进行描述,而并不表示R形成的视觉通道概念。R真正的视觉通道概念应对应于R观察M1的状态。然而,按上述假定,R并不具备天然的自省能力,除了通过M0外没有任何途径可以获得关于自身的信息;同时,M0∼Mn的输入在最初对R来说是一视同仁的。因此,尽管初始状态下R可以自由选择观察M1或M2,但它并不具备“看”、“听”之类的概念。

假设,某一次,R在观察M1之后切换至了M0,于是就会形成一个二阶表征状态S2,其意向内容为“R′,M1′”,同时在短时记忆中保有“红色”的信息。如果这个过程重复多次,R可能将“R′观察M1”和“红色的花”联系起来,形成类似“只有R′观察了M1,红色的花才会被呈现”这样的认知。这个认知可以在两个方面被R加以解读:

(1)“红色的花”这个信息必然只能从代表视觉通道的M1中出现,虽然按照设定,R可以在M0∼Mn之间自由切换,但由于没有天生的自我意识,亦即R并不了解自己“切换”的动作,因此R对于这种切换是无意识的(这种切换的动作可能由情感或其他无意识机制控制)。而通过重复上述过程,R可能将“(R′)观察M1′”当作一个固定模式,由于每次R从M1中获取视觉信息之后,只要切换至M0,“(R′)观察M1′”这个模式必然被呈现,因此“观察M′”可被当做一个概念,而如果通过外部的语言学习,R可能给这个概念命名为“看(见)”或者“see”:“观察M1′”→“看”。

(2)R′在任何一次R对M0的观察中必然出现,无论同时出现的是“看”的模式(即“观察M1′”)还是“听”的模式(即“观察M2′”)。如果R通过对学习,习得了诸如“A看见B”这种形式的描述,那么R可能会对所看见的“红色的花”产生疑问:“谁看见了红色?”同(1)中一样,由于R′多次出现,也可能会将其作为一个固定模式用来当作一个概念,而如果R从外部学习到了“我”或“me”这样的符号,就有可能用之替代“R′”这个内部无名符号:“R′”→“我”。

这样通过二阶表征的S2状态,R就能习得“看”、“听”等对应感知通道的概念,以及“我”这个符号,因此R可以形成如下描述:

“R′(我),观察M′(看见),红色的花”

在这个表述中,“我”和“看见”全都是有接地(grounded)的符号,只是赋予了相应的名字以形成外部语言,但这个外部语言的命名与符号本身无关,两种符号都代表了R的某种认知模式。“我”这个概念代表以第一人称的角度去观察外部世界,而“看”这个概念代表了视觉通道。这种认知模式中所包含的信息是纯认识论的、客观的,不具有任何先验的主观性存在。

在此,由于解释了R如何形成“我”的概念,亦即看起来R观察到了“自己”(实际上并不是自己,因为R′并不等同于R,而只是R的一个影像或映射),因此我们将S2状态定义为“一阶自省”状态。可以看出,二阶表征状态等同于一阶自省状态;一阶自省状态是R获得自我认知的基础,没有这个状态R是无法形成“我”的概念、也无法区分视觉和听觉等感知通道的。因此,结论就是,通过二阶表征,可以得到不同感知信息通道的区分以及“我”的概念的形成。

现在考虑一个二阶表征状态S2:“R′(我),观察M1′(看见),红色的花”,如果接下来R保持在M0上,等待一段时间后M0的内容刷新了,即等待时间超过了C0到M0的延时,则R会在M0上看到“R′正在观察M0”,假设R的短时记忆此时仍然保持了S2状态中的全部信息:“R′、M1′、红色的花”,按前文定义,这个状态为三阶表征状态S3:

S3:{R′,M0′;R″,M1″,红色|R,M0,T3}

与利贝特实验中描述的情况类似,(R′,M0′) 这个模式只会在S2状态之后R继续观察M0时(亦即在三阶表征状态S3中)才会出现。

按照利贝特实验中的讨论,R在S2状态下将(R′,M1′)这个模式命名为“我看见”,而在S3状态下的R″是源自R从S2状态下保存在工作记忆中的概念信息,即“我”。类似的,如果R多次进入S3状态,那么可能会总结出这样的因果关系:只有 (R′,M0′) 出现了,(R″,M1″,红色) 才会出现。这个规律同样有两个方面需要解读:

(1)M0′的存在是 (R″,M1″) 出现的必要条件,如同“观察M1′”被命名为“看”、“观察M2′”被命名为“听”一样,R也可以把“观察M0′”命名为“知道”(这个“知道”的语义仅仅包括自我觉知产生的知识),即“观察M0′”→“知道”。

(2)按照利贝特实验中S2状态所获得的经验,则R有可能同样把R′命名为“我”,即:“R′”→“我”。

因此,S3这个状态就会被R做如下解读:

“我(R′),知道(M0′),我(R″),看见(M1″),红色”

在S3状态下,M0中仍然有一个R′的信息,这个R′与R″是不同的符号,因为它们诞生自不同的状态下。但由于R″这个信息是R保留在工作记忆中的符号性信息,即“我”,那么R很有可能无法区分R′和R″,即R的“我知道我看见红色”这个命题中两个“我”的语义是不同的(因为具有不同的符号接地),但R无法区分之。当“我知道我XXX”这个模式重复出现时,R可能会通过学习,用一个特定的符号,即“自己”或“self”,来代替该模式下作为宾语的后一个“我”,即变成:

“我(R′),知道(M0′),自己(R″),看见(M1″),红色”

在此,“自己”、“self”这个概念,不仅包含第一人称的主体的语义,更包含了一个该主体即作为主格又作为宾格的模式、以及在宾语上的位置,而这正是我们日常生活中对“自己”这个概念的使用方式。因此,通过三阶表征可以得到自我(“自己”、“self”)概念的形成。

在这个论述中,我们使用了另一个假设,即R无法区分R′和R″,这两个符号的差别,正是在于时间上,基于我们的假设N2,在异步自省的过程中,它们处于不同的时间,也拥有不同的状态属性(观察M1′或观察M0′),但在R形成自我概念的过程中,无法区分R′和R″是前提假设,因此,有必要对此前提假设提出检验:

N3:主体在自省过程中无法区分一阶表征和二阶表征在时间上的差异,有某种认识论上的原因造成了这一点。

我们知道,心灵哲学理论者们普遍认为获得一阶表征的同时主体也获得了二阶表征,即“当我看到红色的花,在同一时间我也知道我看到了它”。如果假设N3成立,那么这必然是一个普遍存在的错觉,这个错觉必然有认知、神经上的某种原因,我们将在3.2.3小节进一步提出相关的证据来验证这一点。

现在来进一步分析四阶及以上表征状态的情况。按照之前的讨论,四阶表征状态是可以想象的,其内容将是如下形式:

S4:{R′,M0′,R″,M0″;R‴,M1‴,红色|R,M0,T4}

而如果R按照之前的方式对其进行解读,那么将会被解读为:“我知道自己知道自己看见了红色”。

理论上,这个自省可以无限进行下去,然而,首先根据目前的心理学理论,工作记忆的容量是有限的;其次,按照利贝特实验分析论述,在二阶表征(一次自省)状态下,R可以获得“我”的符号和感知通道的信息,在三阶表征(二次自省)状态下,R可以获得“自己”的信息和“我知道”的模式。但从四阶开始,其使用的概念与三阶表征下使用的概念并无差别,R不会因此获得新的信息或习得新的概念。因此,四阶及以上表征状态,虽然是可能存在的、可想象的,但不具备实际意义。这一结论与我们生活经验相符,生活中我们极少会使用超过“我知道自己XXX”之上的更复杂的类似“我知道我知道我XXX”的表述。

为了深入分析异步自省模型,让我们回到先前所述,M0所显示的画面,不能与C0拍摄到的画面同步,必须要有一个延迟,否则R将无法通过M0形成自省状态。若R在T1时刻进入一阶表征状态S1,那么一定要在另一个时刻T2才能进入二阶表征状态S2,这一点称为异步自省模型的“延迟”特性。

按照本小节开头描述的场景,T1时刻,R的状态为S1:{红色|R,M1,T1},其中“红色”为表征对象(意向内容);T2时刻,R的状态为S2:{R′,M1′;红色|R,M0,T2},其中,“R′(我)”、“M1′(看见)”、“红色”为表征内容。可以看出二阶表征状态的表征对象信息,正好与一阶表征状态下系统的信息相符合,而这也符合高阶表征的一般性定义“以自身精神状态为表征对象的状态”。也就是,二阶表征的内容是一阶表征的状态,三阶表征的内容是二阶表征的状态。而如果把一阶表征状态的表征对象(红色)定义为“零阶表征状态”(即尚未成为表征的外部信息),那么也可以认为一阶表征的内容是零阶表征状态,因此可以得出:异步自省过程中,在任何时刻,意向对象永远是比本身当前表征状态低一阶的表征状态。这一点叫做异步自省模型的“降阶”特性。

换言之,R永远不可能觉知到自己“当下”在做什么,R所觉知到的,永远是它在过去某一个时间点的状态;而R在任何时刻通过自省获得的自身状态,永远比自身当下的状态低一阶。

延迟特性与降阶特性是“异步自省”本质上的两种表现。这种延迟/降阶特性对于论述“我”与“自我”概念的形成是至关重要的,正是由于R在时间上混淆了R与R′、R′与R″,才能将R′当作一阶表征的主体、将R″当作二阶表征的主体,才能形成“我”与“自我”的概念。在此,由于实际上不同阶表征处于不同时间,因此不存在循环指涉和无限退行的问题,在计算上是可能的,我们需要验证的只是人是否真的存在这种时间上的混淆。

那么,在这样的异步自省过程中,现象意识的主观性体验又是如何形成的呢?当R处在一阶表征状态S1时,可以直接地从M0中获取关于“红色”的信息;而当R处于二阶表征状态S2时,它获得了关于“我看见红色”的认知。然而,由于在T2时刻R观察的是M0,实际上已经失去了从M1中获取直接的视觉信息状态,此时R所保有的“红色”的信息,是它的短时记忆中所保留的符号性信息。

然而,按照之前的描述,R应该是无法区分T1和T2两个时间点的,即R会认为S1和S2是同时产生的,亦即R会认为“我看见了红色的同时知道了我看见了红色”。这一现象也符合我们的常识以及高阶理论者们的判断。

因此,R如果对S2状态进行思考(当然这需要二次自省,亦即三阶表征状态,此中详细过程暂且不论),就会认为:“我看见了红色”、也会认为自己拥有从M1中所获取的所有细节信息的读取能力。但由于R实际上此时已经失去了从M1中直接获取视觉信息的状态,因此可能会觉得“我无法用语言表达我所看见的东西”。R能够报告“我看见了红色”所依赖的状态是S2,而报告“红色”的内容依赖的状态是S1。

如果R不对一阶和二阶表征状态进行混淆,那么可能会这样报告:“我刚才看见了红色,但我现在已经忘记了它的细节”,而当R混淆了S1和S2之后,这个报告就会变成“我现在看见了红色,但我无法描述它的细节”。因此,R会认为自己获得一个“无法言喻的”(ineffable)的信息,而这正是我们所熟知的现象意识的特性之一。尽管这个信息是源自“红色”这一客观信息,但R会认为这跟自己在S2状态下所觉知的关于“红色”的信息并不一样,因此就会认为这是一种本质的、主观的体验,以区别于客观的信息本身。

因此,R可以在二阶自省状态下产生一种一阶表征信息“可理解不可描述”的认知,由于二阶表征状态的描述中包含“我”这样的概念,本身就包含了主观性;而显然按照设定M1显示器是只有R可以看见的——那么最终R会对一阶表征“红色”产生一个“主观的、可理解的、不可描述的、私密的”认知,这就解释了现象意识概念产生的原因。




2. 异步自省神经网络



 

意识研究的终极目标之一,就是要实现机器意识。对于以自然主义为基本立场、以认知理论为基础的意识理论,用机器实现之,既是终极目标,也是检验方法。从哲学思辨到科学理论,再到工程实现,其中存在着巨大的思维方式差异。一个抽象的理论,无论看上去多么完美,在工程实践中都可能遇到各种意料之外的困难与障碍,甚至其理论阶段无法发现的错误,在工程应用阶段都可能被很容易地发现。因此,对于机器意识,计算性地实验验证是必不可少的。

比如,在心理学上,“人可以理解自身”是一个常识,而这一点在心灵哲学上,就理解成了“人可以觉知自身当前的状态”。于是人工智能研究者们曾经尝试着设计“可以理解自身的机器”,然而在工程实践中被一个简单的“停机问题”给难倒了,停机问题的表述和证明过程都极其简单,却打破了人工智能研究者们设计“自我认知的机器”的梦想。这一方面说明当时的意识理论不够完善,另一方面也说明工程实践对于理论验证的重要作用。

在前面一个小节中,我们提出了一个完整的意识异步自省理论。在这一小节中,我们将进一步提出一个自省神经网络的实验,让一个机器运行的程序报告自身的状态,以此来验证异步自省理论的可行性。

我们提出的异步自省理论,其基本框架借鉴了高阶表征理论的概念。诸如“意向性”、“表征”、“自省”等等。而这些概念是哲学概念,为进行实验验证,必须将这些相关的哲学概念与实验中的计算概念联系起来。

首先,“表征”指的是“意向性”的概念,即心灵哲学中的“关涉性”,但同时这个术语本身又包含了有“意识”的语义,其指的是“心灵对外部世界的关涉性”。而从自然主义立场出发的理论、以及以计算为基础的实验设计角度来说,不可能预设一个先验“心灵”的存在。因此,在此定义:任何具有关涉性的信息表示,即称之为“信息性表征”。比如照相机拍摄了一朵花,那么关于那朵花的图片,即成为花的信息性表征;另一方面,照相机拍摄的过程由快门控制,那么快门本身即成为了拍摄过程的表征。

在计算机器中,信息表示可以有很多种不同的方式,比如在符号式推理系统中使用的谓词、在文档中使用的字符、在图片中使用的像素、在声音文件中使用的波形,等等。而在人工智能领域,人工神经网络是一种常用的信息表示方式,其运算能力与图灵机等价。神经网络中神经信号的信息表示具有泛用性,同时神经网络还具备模糊计算、非线性拟合等功能。因此,为不失一般性,我们使用神经网络来做为基本的计算模型。此处只对理论进行可行性验证,使用神经元来表征经过预处理的二值化符号,因此不涉及训练算法。

常见的神经网络机制是:利用单个神经元的非线性激发函数,经过多层或反馈式网络组合,以达到非线性拟合能力。常用的神经元模型为感知器模型,其输出Y=f(∑Xi),其中Xi为单个神经元的第i项输入,f()为激励函数,常见的激励函数有阶跃函数、线性函数、Sigmoid函数等。

为了模拟人类意识中的控制与切换功能,我们提出一种新的模拟神经元:三元神经元。三元神经元基本定义为:有三个端口,一个输入端口,一个输出端口,一个控制端口,如图3-7所示。

图3-7  三元模拟神经元结构

三元神经元的输出计算公式为:

其中Y为神经元输出,Xi为神经元输入,f为数据激励函数,Ci为控制输入,g为控制函数。激励函数f一般采用Sigmoid函数:

其中H为阈限。g采用阶跃函数:

其中H1为控制端阈限。

这样可由控制端的输入来控制输出端是否有输出,由数据端的输入来决定具体的输出值。当控制端的阈限H1小于0且没有输入时,其表现与普通的模拟神经元无差别;而当控制端阈限H1大于0时,控制端无输入的情况下输出端输出将为0。

使用三元模拟神经元组成三元模拟神经网络(Ternary Neural Network)时,神经联结分为两种类型,一种是连接到下游神经元的数据端,另一种则是连接到下游神经元的控制端,如图3-8所示,图中A1、A2、A3为B1的数据输入神经元,而C1为B1的控制神经元。

图3-8  三元神经网络示意

为了测试异步自省架构,需要以下几个基本条件:(1)某种感知输入及处理功能,在此选用视觉功能作为感知输入;(2)语言输出功能,使用一个固定符号集L来输出,符号集中的每一个符号都对应于感知输入的某一个概念或自身状态的某一个概念;(3)自省处理功能,为该系统的核心功能,应能够达成一阶层次自省及二阶层次自省。因此,构建设计异步自省神经(Asynchronous Introspection Neural Network)网络的测试程序基本框架:视觉处理→自我认知→语言输出。

为简化处理过程,将视觉处理所得符号作为符号集L的一部分。整个程序功能将分为神经网络与非神经网络两部分,神经网络部分负责主要的认知功能,而非神经网络部分负责感知信息的处理、语言信号的交换、以及注意力控制的唤起。

在神经网络部分,需要一个工作记忆模块来存储对应的符号;为了控制一阶表征状态与二阶表征状态的切换,需要一个注意力控制模块;为了监控自身状态,需要一个监控模块;为了达成异步自省而非同步自省,需要一个监控模块的记忆模块。在非神经网络部分,除了视觉处理和语言输出模块之外,还需要一个注意力唤起模块,用于从外部发布控制信息,以模拟人的情感控制。由于实验需要验证的是自省与自我报告功能,因此我们采用非涉身性的模式,注意力控制从神经网络外部完成。但除此之外,理论上不应该有其他对神经网络运行过程的干涉,其整个运行过程应自动完成。详细的测试软件系统框架,如图3-9所示。


图3-9  测试软件详细框架及流程图

在图3-9中,其下半部为神经网络运算部分,上半部为神经网络与非神经网络计算的数据接口部分。实线为数据流动,其末端连接到对应三元模拟神经元的数据输入端;虚线为控制信号流动,其末端连接到对应的三元模拟神经元的控制端。“视觉处理”模块对应于机器人监控员模型中的显示器M1,“状态监控”模块对应于机器人监控模型中的顶部摄像头C0,“状态记忆”模块对应于机器人监控模型中的显示器C1。“注意控制”与“工作记忆”一起构成了机器人R。

在图3-9所示的框架中,感知(视觉处理)、状态记忆、工作记忆三个模块带有记忆功能,可保持各自模块的信息直到刷新。兴趣唤起模块直接处理外部命令,当外部输入“look”命令时,兴趣唤起模块发出对应于视觉模块的控制信息。注意控制激活视觉模块,视觉信息被传输到工作记忆中加以保存,同时注意控制模块的状态(即对应于“看”的动作的神经状态)被状态监控模块传输给状态记忆模块保存。当外部输入“what”命令时,注意控制模块在兴趣唤起模块的控制下激活状态记忆模块,使其中保存的内容被传输到工作记忆中;与此同时,将这一运算周期内的注意状态(即对应于“自省”动作的神经状态)传输给状态记忆模块保存,而同时语言生成模块将当前工作记忆中保持的信息转换为语言符号并生成语音。

在图3-9的框架中,语言生成只是简单的符号对应,每一个词或短语对应一个符号,而每一个符号对应于一个神经状态。语言生成模块只是简单地对系统状态进行监控和报告,而本身不处于注意模块的控制之下,只是以无意识的、自动方式运行。作为演示,目前框架中的感知模块只有一个视觉通道,但作为一个完善的认知系统,不仅应该包含多种可由注意选择的感知通道,同时语言功能也应该处于注意的控制之下。甚至在每种感知、思维功能中更为细分的子功能也应是注意可控制的范围。但是为了简化问题,我们这里只对注意控制的模块切换、及注意控制的自省报告功能进行可行性研究,以验证异步自省理论的可行性。

在机器人监控模型中,显示器之间是互斥的,机器人R在任何时刻只能观察一部显示器;与之对应,在图3-9的自省神经网络框架中,“视觉处理”和“状态记忆”模块由“注意控制”模块所控制,只能激活一个,其中的神经元控制阈限设置为正值(0.5);非激活状态的模块因其输出神经元的控制端输入为0,其输出固定为0;只有在注意控制模块发出对应的激活信号之后,才进入激活状态。在激活状态,各模块的运行状态与普通的模拟神经网络一样,只是会经过一个周期运行之后,再次回到非激活状态。

“工作记忆”模块中每个神经元代表可生成语言的符号集L中的一个符号,其来源有两个部分,一是视觉信号,二是状态记忆,进入工作记忆即代表着形成表征。由于注意控制是信号进入工作记忆的“开关”,因此“注意控制”模块的状态即构成了相关性,“注意控制”与“工作记忆”的状态共同构成一个表征状态。

“注意控制”模块输出会在沿虚线进入“视觉处理”模块或“状态记忆”模块的同时,沿实线进入“状态监控”模块。在机器人监控员模型中,机器人R不能看到顶部摄像头C0;类似的,对应于顶部摄像头的“状态监控”模块状态不会直接进入工作记忆,而是进入“状态记忆”模块进行短时间存储。状态记忆模块的内容在自省时进入“工作记忆”模块,即形成表征,而“状态监控”模块的内容并不能被实时传输至“工作记忆”模块。由于“状态监控”模块对应于“注意控制”模块的实时内容,而“状态记忆”模块记录了“注意控制”模块的历史内容,因此得以形成异步自省机制。

在实际运行中,神经网络按照周而复始做周期运作。“视觉控制”、“状态记忆”、“工作记忆”模块会保留当前记忆状态,直到有新的控制数据流刷新其状态。受“兴趣唤起”模块的控制,激活在注意控制中对应视觉或自省的神经元,输出一个时钟周期的信号,在激活对应模块的同时,该信号被状态记忆保存下来。整个系统实际运行周期则由“兴趣唤起”模块控制,在系统接受外部直接命令时,发出对应的控制信号给“注意控制”模块,同时刷新相应模块的记忆。

实验中代码采用C++与Python3.4编写,用C++代码生成神经网络的基础运行代码,用Python脚本调用C++神经网络代码并组合成设计中的模块,并联结形成网络。视觉处理部分使用OPENCV库编写,语言生成直接使用定义符号替换,语音生成使用微软的SAPI(应用程序接口)中的Text To Speech模块编写。整个程序在微软Windows7操作系统下进行调试,其中运行平台为Windows7.1;编译平台为GCC编译器工具集4.9.2、Python3.4;以及依赖库,包括OpenCV 3.0、SAPI 7.1、Numeric Python 1.10.2。测试软件的具体实验结果及其分析如下。

首先指定一张图片作为视觉输入,图片中心有一个三角形或长方形,并涂成以下颜色之一:红色、蓝色、绿色、黄色、紫色、青色。以红色三角形为例作为输入,经过外界交互,系统状态变化如下:
(1)任意时刻从命令行输入命令“look”,程序会做出语音回答“红色三角形”;
(2)在状态(1)之后,若继续输入“look”,程序会继续回答当前识别出的图形颜色及形状(即重复(1)的状态);
(3)在状态(1)之后,若输入命令“what”,则程序回答“我看见了红色三角形”;
(4)在状态(3)之后,若输入命令“look”,则程序再次进入状态(1);
(5)在状态(3)之后,若输入命令“what”,则程序回答“我知道我看见了红色三角形”;

(6)在状态(5)之后,若继续输入命令“what”,则程序重复回答“我知道我看见了红色三角形”。

在上述系统运行过程中,状态(1)对应于一阶表征状态,只是处理外部信息,而没有进入自省过程;状态(3)为一阶层次自省后的二阶表征状态,其报告内容即为(1)中的一阶表征状态;状态(5)为二阶层次自省、三阶表征状态,其内容为(3)中的二阶表征状态;状态(6)为四阶及以上的表征状态,依据利贝特理论所述启示,属于无实际意义,亦不影响异步自省的状态。

实验结果表明,异步自省理论具备计算上的可操作性、且异步自省神经网络的运行结果与异步自省理论的描述基本符合,从而验证了异步自省理论在理论上的推导。可以认为,上述实验同时也验证了我们所提出异步自省机制的基本特性。




3. 异步自省理论评述 



 

综上所论,我们给出了一种意识异步自省理论的完整论述。通过脑科学与心理学已知结论的比较可以看出,异步自省理论的描述,与现有科学理论是相吻合的。具体来说,利贝特的意识状态延时研究以及主观体验时间回溯理论分别验证了异步自省假设N2、以及一二阶表征混淆假设N3。而施佩林的视觉记忆实验,对现象意识“不可言喻性”的讨论,以及“本体错觉”认知实验,验证了关于自身获得了某种感知体验可能是种错觉的推论。

特别是对于利贝特的意识状态延时研究,与我们提出的异步自省理论进行比较,不难发现:异步自省理论的延迟特性与利贝特的意识状态延时结论相吻合,即二阶觉知状态相比一阶觉知状态,存在时间上的延迟;“人无法分辨一阶觉知状态与二阶觉知状态”与利贝特的人无法自己察觉推论相吻合。

如果我们把利贝特实验中最初感知事件的时间(0ms)称为t1,把进入意识状态的时间(500ms)称为t2,把被试自己报告主观体验的时间称为t1′(t1之后10-20ms,此处用小写字母以区别于异步自省理论模型中的时间T1和T2)。那么我们可以得到如下分析比较的结果。

(a)在利贝特实验中当处于t2时刻,被试进入意识状态,这里的意识状态是指被试可以通过口头报告的状态,因此我们认为其对应于我们模型中的S2状态。按照利贝特的实验,被试从无意识状态进入意识状态需要经过一个时间间隔,视具体的感知通道可能为350-500ms不等。但经过主观回溯以后,觉知到的时间都与感官刺激发生的时间接近,这解释了为什么我们体验中的时间仍然是连续而无跳跃的(Libet,1985)。这验证了我们模型中的异步特性,即S1和S2处于不同状态,两者之间存在一个时间差。

(b)在利贝特实验中被试在t2时刻进入意识状态,然而口头报告的神经事件所引起的感受时间却在t1′时刻,这验证了我们上面的推论,即T2时刻R获得了一个关于“T1时刻主观感受”的觉知推论。在此,不能简单将T1与t1′或t1等同起来,因为我们对人脑的运作机制仍然了解不多,因此很难说清图3-2中哪个时刻的被试状态对应于S1。然而可以确定的是,二阶表征状态一定对应于t2时刻的状态,因为按照利贝特的实验,500ms之后被试进入意识状态、并获得了对特定感官刺激的“可报告”的觉知。

(c)按照高阶表征理论的一般性定义,主体必须进入二阶表征状态以后才获得了对外界感知信息的可报告能力。而按照高阶表征的基本目标,即“解释意识状态与无意识状态的区别”,一般将一阶表征状态认为是无意识感知状态。在此,就算t1或t1′并非对应于一阶表征状态,那么对应于一阶表征状态的被试状态,也一定是在t2之前,因为只有在t2之前才是无意识的,到达t2之后已经获得了对感觉刺激的意识觉知。而只要一阶表征状态在t2之前,无论在t1至t2中间哪个具体的时刻(或时间段),都不影响我们的结论,即“一阶表征状态与二阶表征状态存在时间差”。

值得注意的是,在第二节中所提到的利贝特“亮灯意识报告实验”中(Libet,1967,1973),被试对于主观感受时间的报告精度并不是突然从50%提升到99%的,而是随着刺激信号数量的提升而逐渐提升的,同时也与具体的被试有关。所有实验数据按被试报告的意识程度被分为三个等级,第三等级指被试报告“完全没有感受到任何东西”,第二等级被试报告“可能感受到了什么东西但不确定”,第一等级报告“确定感受到了什么东西”。而即使是第三等级的报告,当信号刺激密度提高到一定程度以后,被试虽然主观上并没有报告自己获得任何感受,但单组实验最高正确率达到了85%,而第三等级所有数据的平均正确率达到了66%;第二等级的单组最高正确率达到了99%,平均正确率达到了85%。

这样的实验结果可能说明在其中某些情况下被试经历了一个一阶表征状态,因此可以客观上明确地报告出感官所接收到的信息;然而并没有进入二阶表征状态,因此无法做出(第三等级)或无法明确做出(第二等级)对自身状态的报告。因为被试被要求做出的报告内容包含两种信息:第一,一阶的感知信息(即“刺激时哪盏灯亮了”);第二,二阶的自省信息(即“你是否感受到了刺激”)。后者用于判断意识状态。换言之,在获得一阶感知信息并获得处理该信息的相关能力时,并不一定进入自省状态,这从另一个方面佐证了“一阶表征状态与二阶表征状态并不同时存在”的论点。

在计算实验检验方面,我们通过“异步自省神经网络”实验,检验了异步自省理论的可行性,并检验了异步自省机制的基本特性,验证了可以在实验中制造出“延迟自我报告”以及高阶表征的特性。这样不但从计算实验的角度验证了异步自省理论的可操作性和计算可行性,也验证了意识异步自省理论的可还原性。

因此,我们认为,异步自省理论具备一定的可信度;而由于其可操作性,任何人都可以重复计算性实验、或从神经科学和心理学中寻找证据对其进行证伪,作为一个以回避了主观性而以纯客观描述为基本表述方式的理论,其具备基本的科学可证伪性,可以进一步对其批判与检验。另外,对比其他高阶表征理论可以看出,异步自省理论是自恰的。由于其从根本上回避了“同时性的自我认知”,也就回避了人工智能上无法解决的“自指”问题

同时,我们根据基本假设得出一系列推论,并从现有的神经科学和心理实验中寻找证据。意识状态延迟和主观时间回溯现象说明,一阶表征状态与二阶表征状态的时间差异、以及主体对时间差异的错觉,是客观存在的;而视觉记忆实验表明主观体验对自身外界信息觉知状态的觉知有可能形成错觉,验证了异步自省理论中由于信息丢失而导致的主观体验错觉的存在。

一个理论是否能作为一个自然主义的解释、是否可还原,采用计算方法加以检验是终极判断手段。而对机器意识的研究来说,建立计算模型、在机器上再现人类意识,则是其终极目标。因此无论从哪个角度,计算建模和实验都是重要的。异步自省网络继承机器人监控员模型,提出了一种全新的、在计算上实现自省的方式。

在理论上,我们的异步自省假设打破了人们传统上的惯常认知,即“观察到外界的同时觉知到自身”。我们从主观现象的客观方面对这一惯常认知进行认知解释的尝试,引出了自省时间错觉假设。按照我们所提出的异步自省理论,完全自我觉知是一种错觉,人类可以一定程度上认识自身,但从机制上来说是“过去的、不完全自己的记忆”,而非“当下的、完整的自己”。这个理论不仅对“意识难问题”现象提出了一个客观的解释,也打破了“实现完整的自省才能让机器拥有意识”的误区。

按照我们异步自省理论的分析,所谓“主观性”,即第一人称“我”的属性,原本就诞生自一个异步自省的过程中,是一个某时刻的主体对过去一个时刻的主体进行内部观察过程中诞生的概念。因此主观性原本就代表了自省属性。因此我们在解决了自省计算可能性问题的同时,也解决了主观性概念澄清的问题。

另外,我们所提出的异步自省神经网络,作为一个实验设计,对于自省认知功能的理解和实现有着突破性的意义。只要抛弃“理解当下自己”的思路,让机器一定程度上认识“过去的自己”、并通过时间错觉模仿人类的认知过程,是完全可能的。

综上所述,我们所提出有关意识的异步自省理论,同时具备认知和计算上的理论意义,是对于突破目前意识理论的困境,具有重要的建设性意义。或许读者会就我们异步自省理论的假设验证提出异议,因此我们下面以答问的形式,对有关疑问进行解释,并通过与现有理论进行对比来评估我们的异步自省理论。

首先,我们就异步自省理论的假设问题及对假设条件的评估。在我们的异步自省理论中共有三条基本假设

N1,主体认为自己拥有主观感受、并知道其内容,这是一种错觉,有某种认识论上的原因造成了这个认知。

N2:人的自省过程应该是一个异步自省的过程。

N3:主体在自省过程中无法区分一阶表征和二阶表征在时间上的差异,有某种认识论上的原因造成了这一点。

现在来回答可能会引出的一些质疑。首先,由假设N1推导出一个问题是

Q1:为何主体会“认为”自己具有主观感受?

回答:主体于一阶表征状态下,获得了关于感知信息的可达性(accessibility),以及关于感知信息概念化的抽象符号,这些信息临时保存在工作记忆中;在二阶表征状态下,主体获得了关于一阶表征状态下自身精神状态的抽象信息,以及其可达性。两个相关的一阶和二阶表征状态以一定的时间间隔相继出现,而且这二者并不相同。但,由于从一阶表征状态(无意识状态)转换至二阶表征状态(意识状态)的硬件性神经延迟,为了避免主观世界中的事件顺序出现错乱、为了维持自身对于外部世界感知的连续性,人类演化出了主观时间反馈能力。神经科学研究表明,在主观世界中,关于觉知到某一外部感知发生的时间,会被回溯至该感知发生的时刻附近。由于可报告性诞生于二阶表征状态,因此可以认为主体主观上对二阶表征状态的存在时间进行了回溯。而这导致了意识主体无法区分一阶表征状态和二阶表征状态发生的时间,并认为它们是“同时”发生的。因此一阶表征状态的内容被认为是二阶表征状态的一部分;然而进入二阶表征状态时,已经失去了对一阶表征内容的可达性,只保留了一个符号性的一阶表征可达属性的记忆。因此意识主体会认为自己拥有一阶表征内容即感知信息的可达性,但却无法真的获取到一阶表征内容的详细信息。正是这两种相互矛盾的认知最终造成了一种“不可描述但可获得的主观体验”的思维结果,因此意识主体会认为自己拥有一个“可知但不可说、可觉知而非知觉”的主观体验。

由假设N1推导出的另一个问题是

Q2:为何主体会“认为”自己能达到(access)主观感受的内容,但却无法描述它?

回答:在一阶状态下,意识主体获得了所有关于一阶表征内容(即感知内容)的可达性,可以获得并利用其中任何细节信息。这种可达性作为一个概念性的知识保存在工作记忆中,并在进入二阶表征状态时仍然保留,即在主体获得了“我看见红色”的思维时,也仍然保留了“红色能被看见”的思维,因为主体会认为自己能达到主观体验的内容。然而由于注意的独占性,进入二阶表征状态时,主体即失去了对一阶表征内容的关注,因而失去了对一阶表征内容细节的可达性;视觉思维实验也表明,从无意识状态进入意识状态,感知信息会有所缺失。二阶表征状态下主体所持有的信息只有关于一阶表征内容的符号性记忆、以及关于一阶表征内容的可达属性记忆,因此主体搜索记忆,会发现记忆中保存的一阶表征对象属性是不完全的,类似于视觉思维实验中被试在做全局报告时认为自己看见了全部字母,但无法完全回忆的状态。因此主体会认为自己对感知对象所能做出的描述并不完全,也因此认为感知对象“无法用语言描述”。

根据上述问题的回答可知假设N1是可信的。而假设N2与神经科学中利贝特时间因素研究实验结果相吻合,且利贝特的实验研究不仅验证了由无意识状态进入意识状态需要一定时间间隔,还提出事件发生时间在主观上被回溯了,这一点与假设N3相吻合。而视觉记忆实验验证了认为自己获得某种感知的认知可能是一种错觉,加强了异步自省理论的可信度。因此,异步自省理论与现有科学结论是相吻合的。

进一步,将异步自省理论与现有的各种高阶表征理论相对比,很容易发现其相互引证的部分,对现有高阶表征理论所遇到的困难,用异步自省理论很容易进行解释,而无须面临新的困难。当然,我们的解释仅仅是在认识论层面上的,并未涉及本体论层面。

对于为什么内部感知没有像外部感知一样产生主观现象属性的问题(Dretske,1995;Güzeldere,1995),哈曼的解释是知觉体验的“透明性”(Harman,1990),这一解释与异步自省理论是符合的:按照异步自省理论,意识主体产生“自己拥有了主观体验”的思维,是在二阶表征状态下获得的,而一阶表征理论下并没有具有这样的思维,也不会表现出现象意识状态。

对于高阶表征可能存在故障的问题(Sturgeon,2000):按照异步自省理论,关于一阶表征对象的信息,在二阶表征状态下仅以概念性(符号性)的方式保留于工作记忆中,而并未获得新的信息或状态,二阶表征状态所获得的新信息是关于自身而非外界感知的信息。由于工作记忆中保留关于一阶表征对象的信息(如“红色”)在一阶和二阶状态下并无不同,且都为符号性记忆,所以出错的可能性极小(人的工作记忆在一般情况下很难出错)。我们可能把红色错看成橙色,但我们极少能把“红色”这两个字记成“橙色”。

同样,二阶表征状态下所保留一阶信息的符号性特征也能对计算复杂性问题(Carruthers,2000)予以解释:人在自省时并不需要保留对一阶感知对象所有信息细节的记忆,只需要保留一个关于信息的抽象性符号记忆及相关的读取通道即可,视觉记忆实验已经说明了这一点。

对于针对实在主义高阶思维理论的“差别体验”问题(Seager,1994;Byrne,1997;Rosenthal,2005),同样由于二阶表征的符号性特征、及“通道性”特征,主观体验并不包含感知对象的所有细节,而只包含“我感受到了”以及若干抽象的信息,因此仅凭主观体验原本就不能区分两份感知信息的差异。

对于戈德曼(Goldman)所提出的针对实在主义高阶思维理论的“高阶思维本身无意识”问题(Goldman,2000),其描述正好符合异步自省理论的“降阶/延迟”特性:二阶状态的觉知对象是一阶状态,而只有进入三阶表征状态,即经过了二阶层次自省,才能觉知到二阶表征状态本身,因此“高阶思维无意识”是一个合理的现象。

对于实在主义高阶思维理论中,为何仅仅通过思维就能获得“它-像-什么”的问题,异步自省理论给出的解释是,通过思维主体能获得“我觉知到了‘它-像-什么’”的思维,而只有思维本身具备可报告性、可观察性,具备科学实证上的研究意义。而“它-像-什么”的“现象属性”这一本体论问题,异步自省理论不能做出解答。不过这并不影响异步自省理论的科学和工程价值。

对比异步自省理论和倾向主义高阶思维理论,会发现一些相似之处,即同样认为一阶表征状态下,其状态本身并未成为高阶思维的对象;而差异之处则在于:倾向主义高阶思维理论仍然认为一阶表征状态和主观体验是同时获得的,而为了解释为何并未成为高阶表征对象的一阶表征状态仍然能获得主观体验,倾向主义高阶表征理论使用了一个第三方的“消费系统”来解释一阶表征状态如何获得主观体验;而异步自省理论并不需要借助另一个系统进行复杂的解释,而是解释了“为何主体会认为自己拥有主观体验”这一客观问题。

自表征高阶理论与异步自省理论在基本设定上是互相矛盾的:异步自省理论从基础上否定了同时刻自表征的可能,也就不会导致自表征理论可能面临的自指和无限退行等问题。能够回避自指悖论,这对于机器意识的计算实现,显得至关重要。

当然,我们提出的异步自省理论也存在一定的局限性:由于从方法上完全避开了主观属性,一切对于主观属性的讨论,都是建立在“人对于该主观属性的认知思维”这样的客观形式上的。因此我们的理论不具备本体论意义上的说服力。但我们的基本目标是提出自然主义的理论,即理论需要保证物理世界在因果上的闭合性,因此回避本体论并不影响该理论作为认知理论的研究和应用价值。

尽管我们对异步自省理论进行了理论上的分析、科学上的引证和计算实验上的验证。比如基于利贝特实验中的讨论,我们可以分析异步自省过程中的一些独特的现象和属性,并将其与现存意识理论和常识进行比较印证。但必须清楚,一个理论所能解释的科学印证范围越广,则该理论的可信度越高。

因为作为一个科学理论,其本身仍具备可证伪性,可以被进一步实证检验。这种检验可包含两个方面。一是对人类意识进行的研究。从神经科学、行为学、心理学方面所发现的任何事实,都可以与该理论进行比对,以讨论该理论是否符合实验事实。若符合,则可以支持完善该理论;反之,则可能证伪该理论或存在修改的必要。二是计算性实验,我们所提出的异步自省神经网络只是初步完成了理论的逻辑验证和可操作性、可实现性验证,虽然由于实验内容较为简单,重复该实验所使用的代码必然得出同样的结论,但仍然存在将该理论整合到更大的机器意识系统中进行验证的可能。

如果异步自省理论能够进一步得到验证其正确性,则其可能在认知科学与人工智能上获得更多应用。在其框架之上,可以深入地研究自省过程的细节特征,亦可以在人工智能研究上以其为基础设计更复杂的机器自省系统,以期能表现出更复杂、更接近人类的认知行为。我们期待,我们所给出的有关意识的异步自省理论,能够为机器意识,特别是自我意识的机器再现,提供一种全新的途径(陈硕,2016)

- END -


《机器意识:人工智能的终极挑战》

横跨五大学科博导,20年机器意识研究的集大成之作。了解人机混生时代必备之书。挑战智能极限,构建意识机器,革新信息产业。为有志于机器意识理论研究和技术开发人员提供进阶手杖。

作者简介

周昌乐,京大学博士,厦门大学教授,心智科学家。长期从事人工智能、认知科学以及多学科交叉领域的研究工作,研究成果涉及手写汉字识别、视觉计算理论、汉语隐喻理解、认知逻辑推理、中医辨证推演、数字古琴艺术、机器歌舞创作、哲学实验方法等多个方面。目前主要从事心智仿造、脑机融合、心法实证等方面的研究工作。先后被聘为计算机科学与技术、基础数学(人工智能基础)、语言学与应用语言学、中医诊断学、哲学五个不同学科门类的博士生导师,也是国家汉办“孔子新汉学计划”博士生导师。


“后ChatGPT”读书会启动


2022年11月30日,一个现象级应用程序诞生于互联网,这就是OpenAI开发的ChatGPT。从问答到写程序,从提取摘要到论文写作,ChatGPT展现出了多样化的通用智能。于是,微软、谷歌、百度、阿里、讯飞,互联网大佬们纷纷摩拳擦掌准备入场……但是,请先冷静一下…… 现在 all in 大语言模型是否真的合适?要知道,ChatGPT的背后其实就是深度学习+大数据+大模型,而这些要素早在5年前的AlphaGo时期就已经开始火热了。5年前没有抓住机遇,现在又凭什么可以搭上大语言模型这趟列车呢?

集智俱乐部特别组织“后 ChatGPT”读书会,由北师大教授、集智俱乐部创始人张江老师联合肖达、李嫣然、崔鹏、侯月源、钟翰廷、卢燚等多位老师共同发起,旨在系统性地梳理ChatGPT技术,并发现其弱点与短板。本系列读书会线上进行,2023年3月3日开始,每周五晚,欢迎报名交流。


详情请见:
“后 ChatGPT”读书会启动:从通用人工智能到意识机器

推荐阅读

1. “意识机器”初探:如何让大语言模型具备自我意识?
2. 让 ChatGPT 拥有意识,冯·诺依曼会怎么做?——自指机器的奥秘
3. ChatGPT 向通用意识机器进化的关键——自指的启示
4. 《张江·复杂科学前沿27讲》完整上线!
5. 成为集智VIP,解锁全站课程/读书会
6. 加入集智,一起复杂!



点击“阅读原文”,报名读书会

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存