序言:
首先,这篇文章启发于一场非常片面非常局限的讨论启发,因此我想借此机会回顾性地整理我当前所能掌握到的知识,一开始我将着重于重建议题和整理思路,然后我将着重于整理一些相关的谬误。
【资料图】
但这并非一篇非常严肃的文章,其中也可能有非常多的错漏之处,也可能所仰赖的资料来源在近期有了更新的研究成果。
首先我们回顾关于AI的一些话题,例如,我们过去听说大语言模型(LLM)可以模仿人类的情感,甚至它自己迭代次数过多就会陷入某种‘虚无主义’,或者说,LLM可能可以拟合出语言中人类的情感规律,并加以识别和使用,以造成LLM可能拥有人类情感的假象。
在过去的几天,著名AI主播neuro-sama的创造者谈论了关于AI自主意识的问题,我在一个娱乐性的网站及其评论区的其中被指责使用了所谓‘感性’和‘模糊’的词汇来描述有关:“符号与语言”,“认知科学”,“生物神经科学”的内容,并指责我不懂“信息论”,我恰好能够空出一段时间来比较系统的论述有关内容,并修正因为临时评论中的用语不统一和歧义的问题。
正文:
首先第一个议题是:交流。
我们的交流是如何完成的?我们的交流是像两台电脑和一根网线一样,我发送一条报文给他,他回报一个报文给我这么简单吗?并不是,交流的成立必须借助于回溯性的建构,符号系统,以及对他人的映射,我将一一讲解。
先来看一道题:因为下雨,所以() A,下雨 B,收衣服 C,打伞 D,地下室渗水
这个问题中仅有的信息是‘下雨’,以及所填具有因果关系,那么我们来考察‘下雨’,这个词并不是简单符号,而是与‘我’所实践所得的经验相关联,正是因为我经历过下雨,才能抽象出‘下雨’,继而将自身所经历的这一系列场景抽象总结为‘下雨’,到此这些场景的综合对于每个人而言才是真正的‘下雨’,在别人问:“天气预报如何?”时,我们才能回答:“下雨”。而当我们回答:“下雨”时,则是通过回忆那些非陈述性记忆中的下雨场景来进行回溯性建构‘下雨’的概念,我们必须先有一个关于下雨的非陈述性记忆,然后再将‘下雨’和下雨关联起来形成陈述性记忆,于是能够以符号的形式来表述它。
这就是我所谓:‘语言的高墙’,我们的社会复杂度决定了下雨场景的丰富程度,远不是个人在表达‘下雨’这一概念时脑中所想场景所能穷尽的,同时这也意味着每个人所重新建构的下雨场景也是不同的,这一概念本身被不同的人附加了不同的场景。对于诉说的人来说,‘下雨’的场景和概念是同时在场的,有些时候下雨这一场景才是诉说者尝试去表达的,但对于聆听者而言,所能接收到的只有‘下雨’二字,于是诉说者想要表达的那个场景被消解了,聆听者不得不重新为‘下雨’附加场景,而复杂度决定了即便仅仅是另一个人也很难让两方为下雨附加的场景是完全统一的,只有里面相同的部分才是具有现实性可以被语言所传达,不相同的部分则是无法交流的。
我们可以观察到,古人其实很早就观察到这一情况的存在,所以我们在诗歌中,并不会去详尽的描述如何的下雨,而是简单的采用单个词或者四字词语简单的描述,剩下的让读者自己去猜去感悟,并谓之“意境”。而我们现代语文在做题的时候经常遇到问你作者在想什么的题目,比如著名的某年高考题:“鱼的眼中闪着诡异的光”,虽然数千万考生给出了自己的答案,但作者表示自己确实什么都没想,只是随便写了一句以做结尾,这就是语言无法逾越的高墙。
回到题目,因为下雨,所以下雨,这是因为题目中“下雨”是作为一个整体在场的,所以凡是不能同时出现在社会实践的下雨场景中的存在都不可取,因为那些场景有时在场有时不在场,所以社会在构成“下雨”这一整体的时候,其内部交流的过程中有时在场有时不在场的存在被扬弃了,于是在这道题目中,所有下雨时不是必然在场的存在都是应该被否定的,衣服在烘干机里的人不必收衣服,屋子内的人不必打伞,地下室不一定渗水,只有下雨是所有下雨的场景中必然存在的,答案是A,因为下雨所以下雨。
这种就是先验分析判断或者说形式逻辑判断,和说会飞的马会飞,无所不能的上帝是无所不能的一样,无论何时在逻辑上都是绝对正确的。
在图中“想象的他人”是大脑对于无法直接脑对脑交流的一种妥协,即无意识神经直接预设的一个想象的他人,用于接收来自真实的他人的信息,同时是记忆处理,高级语言功能等复杂场景的集合,我们的“自我意识”所体验到的来自他人的“交流”来自于此。
第二个议题是:共情
我们先考察比较老的理论,也就是镜像神经元。
为什么说镜像神经元与“自我意识”和“主观认知”无关呢?这个结论就来自对高功能自闭症患者的研究,部分高功能自闭症患者的“自我意识”以及“主观认知”都是健全的,在数学,绘画等需要“主观认知”参与的任务甚至比一般人完成得更好,但他们却无法共情,也就是无法体会他人的情绪,因此自闭症也被认为是无意识神经功能区失调的症状。
关于镜像神经元就说这么多,因为对它的研究实在是多如牛毛。
Williams, JH, Whiten, A, Suddendorf, T. Imitation, mirror neurons and autism[J].Neurosci Biobehav Rev,2001,25(4):287-295.
Nouchine H,Robert MJ,Josh S. Anatomical differences in the mirror neuron system and social cognition network in autism[J].Cerebral Cortex September,2006,16(9):1276-1282.
Rizzolatti G,Fogassi L,Gallese v (2011).Neurophysiological mechanisms underlying the understanding and imitation of action,in -670
。。。。。。
我们简单的说结论,镜像神经元在“语言的高墙”中扮演的角色是,如同我们在传递符号的时候一样,我们无法传递陈述性记忆,也无法传递我们的情绪,例如,当某个健康人闻到非常难闻气味的时候,他的反应一定会表现在脸上,但他传递的只能是这个表情,而不能传递真实的情绪和感受,在他的对面,另一人能接收到的信息只能是这个表情,他的感受和情绪是无法传递的,另一人只能依靠他的镜像神经元的激活来“感同身受”。
现在更进一步发展的理论是:预测性编码理论
我画的图,受这个理论的简化版本影响比较大,但不妨碍读者并不能完全的理解我打的字,“所有的体验都是受控的幻觉,你体验到的,从某种程度上说,是你期望体验的世界。”——安迪·克拉克 |爱丁堡大学()/profile/andy-clark
从我们接收到他人的恶心表情,到我们得到主观体验,有80ms左右的延迟,大脑时刻预测下一刻会发生什么。它生成了一个描述世界的模型,在此基础上做出决定,然后根据感觉反馈更新模型。用概率论的话说,大脑是一个贝叶斯推断机,将先验预期与当前情景结合,来估计未来事件的概率。
也就是说,比起镜像神经元,在更进一步发展的理论中,人第一时间的体验甚至并不来自他人的信息,而是无意识神经元对他人的预测,这个预测和更新不需要——通常也没有——意识的参与,大脑在多个潜意识层次建立模型。当大脑感知到偏差时,它要么更新模型,要么将偏差视为偶然的偏离。
在这个场景中最重要的就是根据所得信息对预测进行不断地修正,但问题还是在于“高墙”的存在,我们能够接收的信息依然只有一张狰狞的表情,而我们的体验则必须基于此不断修正。因此我们必须反思这样一个问题:我们双方究竟在和谁交流,我们是否只是在和想象的对方一厢情愿地沟通,对方的存在仅仅相当于一种物质性的在场,能够确保我们从对方身上收到有意义的回复?
第三个议题是:如何判断AI有情感/自主意识?
在这里我借用著名的“哲学僵尸”理论,并将其在概念上进行一定范围的扩大......好吧,这在一定程度上偏向了唯我论和人类中心主义,但我只是想借此对AI的“自主意识”“情感”发表一定的见解。
从以上交流和共情的论述中,我都在其中表明了一个“想象的他者”,这是来自无意识神经提供给“自我意识”的体验,也就是,我们首先感受到的,并不是物质上的他人带来的体验,而是我们每个人无意识提供的体验,并且由于客观规律的限制,我们的体验被局限在我们的经验之中,于是我们在面对他人时,我们确实无法确认他人“真正的”感受,在社会生活中,我们往往是“假设”对方和“我”一样,拥有真实的感受和“自我意识”(当然,大部分人都是默认这样的,只有少部分人无聊到研究这个),这种假设形成了一种类似于上文中“下雨”的社会意识,我们将必定(高概率)发生的事情定义为:“有自我意识”“有情感”。于是我们在无法真实证明“自我意识”存在的情况下,默认了“自我意识”的存在。这对AI来说也是同样的,当前AI之所以被和人类智能区分开来,是因为AI和我们的社会意识依然构成了相当大的偏差,我们的大脑用预测人类的方法来预测AI是不可行的,我们从中感到了违和感,于是AI并不拥有“自我意识”和“情感”,反过来说,如果我们预测AI行为时,放到人类身上,并不会感到违和感,那么我们就可以说AI拥有了“自我意识”和“情感”。
但是对于AI的感知来说,AI必定是能够一定程度上感知外部世界的(例如权重,输入输出,语义识别等),不然AI也不能运行啊,只是感知以及处理的方式和人类大相径庭,至于AI的“类似于人的感知”,我是一无所知,还请推荐相关的研究。
这是我自己的看法,还是推荐看看《On intelligence》和《人工智能的未来》作者杰夫•霍金斯,2005的书,到今天观点也不算老。
接下来我要展示以及整理一些谬误
原始视频和原始评论在:
【【Neuro 】开发者直播回答AI/自我意识/感知....严肃向】 /video/BV1Ts4y167Xt/?share_source=copy_web&vd_source=6d54aa0c24917450605ec870f1cf6797
1,
我真的不知道你是怎么得出这个典型谬误的,第一句就不说了,这个结论一直都反推不出来,后面的内容,人什么时候变成石块了,我不好说,好吧认真点。
一人与另一人交流->该人预测另一人的行动->该人的“自我意识”从预测中获得体验->真实存在的他人提供在场证明和有意义的回复,使得整个交流能够进行下去
我去踢石头->我预测石头的行动(行动?你把石头当成啥了)->我和想象中的石头交互->我和真实的石头没有交互(这下客观唯心了)->我是讲不通的
2,
望文生义,但问题在,正是因为它的功能就是这样的,所以给它取了个“Mirror Neuron”的名字,至于后面的“大胆假设”我推荐您阅读这篇文章来深入理解:
Ramachandran V S. 2000. Mirror neurons and imitation learning as the driving force behind “the great leap forward in human evolution. Retrieved January 15”
以及:/subject/26925069/
3,
关于“主观认知”是否参与的问题,我已经回答过就不重复了,在文末的参考文献中你也可以找到。
然后第一次祭出了“信息论”!现在我们来深入的讨论一下关于这个的问题:首先就是计算机当中常有的格式(format)问题,A机器传给B机器的信息必须是可理解的,这就是对齐(alignment),A与B必须使用同样的方式编码字母,不然就会变成“锟斤拷”和“烫烫烫”,传输协议也必须匹配,正是因为有这些格式(编码和协议),机器才能够彼此通信,这些编码和协议,是计算和设计出来的,而且要求人们普遍接受!
但是有什么理由认为,两个人的想法,大脑,感受,也是以这样的方式保持对齐的呢?我们的大脑之间并没有直接连接,所以我们真实的感受是无法传递的,必须使用自然语言进行交流,自然语言正是一种通用的协议,但正是因为编解码的设备是无法对齐的(具体论证请往上翻到议题一),概念的对齐很容易丧失,因此我的主张是严重的失真,而非无法实现。
4,
第一段,纯粹人身攻击
第二段,多看参考文献
第三段,我认为这就是纯粹在强行圆自己的措辞,这下轮到我人身攻击你了
第四段,又来了
5,
这就是没对齐的结果,我只讲无意识和意识,这又是讲啥?
参考文献:
【1】/essays/how-might-telepathy-actually-work-outside-the-realm-of-sci-fi
【2】/doi/abs//09515080600689872
【3】/articles/.02039/full
【4】/to-make-sense-of-the-present-brains-may-predict-the-future-20180710/
【5】/features/deep-dive/autism-may-stem-problems-prediction/
可能有忘了的,看的挺杂。
关键词: