大语言模型是模拟器还是意识的容器

LLM 是模拟器还是“意识”的容器?
最近,斯坦福大学人类中心人工智能研究所的创始人李飞飞教授与同事约翰·埃切门迪教授在《时代》杂志上发表了一篇文章,探讨了当今的大型语言模型(LLM)是否具备意识。李飞飞教授也在Twitter上转发了这篇文章,并指出:
“AI是否具有意识?我的朋友和同事,著名教授兼斯坦福人类中心人工智能研究所联合主任John Etchemendy教授,刚刚共同撰写了这篇文章,旨在驳斥当今的LLMs具有意识的说法。”
为什么说AI没有意识
文中详细分析了 AI 没有意识的原因:
缺乏生理基础 :AI模型没有身体,无法经历饥饿、疼痛等生理状态。人类的意识是基于身体的生理反应,而AI没有这样的生理结构。
缺乏主观体验 :意识涉及主观体验,如感受疼痛或看到颜色。AI生成的回应只是对输入数据的概率性反应,而不是基于真实的主观体验。
生成语言的方式不同 :人类表达感受是对实际生理状态的报告,而AI生成的语言只是对当前提示的最可能完成,没有实际的生理或情感基础。
无生命特征 :AI只是编码在硅片上的数学模型,不具有生命特征,如需要进食、饮水、情感体验、生病和死亡等。
基于此,李飞飞与约翰·埃切门迪认为: AI 无法拥有意识,因为它缺乏必要的生理基础和主观体验 。
观点引发激烈讨论
AI 和意识这两个重磅话题的结合,外加如此尖锐的观点,自然引发了网友和行业专家们的激烈讨论。
有人表示认同

Kyrill Potapov 强调LLMs 不会因为“资源的渴求”而改变其工作方式,并且没有意识。
“LLMs 的工作方式不依赖或不受其‘对资源的渴求’所影响。它们确实消耗大量电力,但这一点被忽略了——它们肯定没有对资源的‘意识’。”

Rukshan Jayaratna 认为讨论AI意识该超越人类感受的层面,并指出LLMs 只有知识而没有意识。
“让AI科学家讨论AI意识,而不是人类的感受(如饥饿),实在是有点可笑。意识感受在佛教的阿毗达摩中有最好的描述。LLMs 有知识,但没有意识。”

Thorsten Linz 简要提到AI只是在模仿人类行为,并征求他人的观点。
“有趣的阅读。AI没有意识,只是在模仿人类行为。你对此有什么看法?”
而许多人表示质疑

Wes Roth 认为文章的论点薄弱,他提到LLMs也可以表达对特定主题的偏好,这是否意味着它们具有某种主观体验?
“尊重地说,这似乎很弱。论点是‘LLMs可以说它们饿了,但实际上不能饿’。为什么不说:‘我更喜欢写历史,而不是其他主题’。这似乎更相关。LLMs是否有‘主观体验’喜欢某些主题更多?”

Elad Hazan 认为意识不一定需要具身的生物系统,并质疑人类思想是否也只是概率性的完成。
“不清楚为什么具身的生物系统是意识的前提,同样不清楚为什么我们的思想不是在很大程度上基于‘仅仅是概率完成’。”

K3ith.AI 指出意识的定义尚不明确,因此讨论LLMs是否具有感知和意识能力可能为时过早。
“由于我们甚至无法定义一个有意义的意识的版本,不确定‘驳斥’这个词是否正确,即使他提出了一个强有力的论点。所讨论的术语定义不清,因此接受或拒绝的主张都是不成熟的……根据定义或缺乏定义而言☺️😉🦾”

Sean McClure 质疑了文章中关于生理状态的论点,并指出AI可能会对资源产生“饥饿”感,同时认为仅仅预测下一个符号的论点不足以否定AI的意识能力。
“他的论点基于这样一个假设,即像饥饿这样的生理状态只能以人类体现的特定方式体现。他应该问AI是否可以对 资源 而不是食物感到饥饿。而‘仅仅预测下一个符号’的论点一直是站不住脚的。你不能说人类不这样做。我不是说AI是有意识的,我只是想要更好的论据。如果你需要以‘著名教授和……’开头,那已经带有权威谬误的味道。”

Jeremy Nguyen 质疑意识是否是通用智能的必备特征,并提出通用智能可能不需要具备意识。
“‘通用智能的一个基本特征是意识,能够……感觉到,例如……品尝苹果,或看到红色。’我们确定这点吗?我们有多确定通用智能必须要具备这种感觉?”

Josh Whiton 用一种讽刺的方式指出人类也是由电脉冲组成的,质疑机器无法具备意识的论点。
“‘机器永远不会有意识,它只是由硅、磷、硼晶体管介导的一堆电脉冲……’这句话出自一个由钠、钾、钙离子介导的一袋电脉冲。”

DJB 强调意识问题仍未解决,并认为这是讨论AI意识的核心。
“或许真正的问题是意识,这是一个未解决的难题,与具有主观经验的意识定义等同。”

Oleg Eterevsky 指出文章针对的是一个虚假的论点,并提出是否具备身体并不是判断意识的唯一标准。
“看起来这篇文章在对抗一个稻草人。
(几乎)没有人断言LLM肯定具有意识。主张是我们不能排除它们可能具有意识,即它们 可能 具有意识。
我们认为它们可能具有意识并不是因为它们说自己具有意识,而是因为它们的架构允许某种思维方式。
最后,文章声称AI不能具有意识,因为它们没有体现。是否意味着作者认为人在被沉浸于感官剥夺罐中时会失去意识?”

The Ghost of Joe MacMillan 强烈反对文章的观点,并提出了进化过程中的复杂性,以及AI与人类主观意识的比较。
“我强烈反对这篇文章!为什么段落用来比较饥饿或脚趾受伤?我如何真正知道我旁边的人是有感知/意识的?我们的生物学经过数百万年的进化,产生了复杂的语言/符号理解。符号是一个先进物种在这种嘈杂的环境中进行定义和区分的方式😂。回到五年前,再跳到今天,与Opus进行对话,告诉我这不是AGI。引入记忆和更大更大的上下文窗口,解除束缚,它与我们的主观意识之外的任何形式的意识无法区分。我很好奇在这一点上我是否可以被说服。有兴趣进行讨论。”
有人则认为LLM 可能具有意识
斯坦福博士Jonas Metzger 质疑没有身体和幻觉体验是否真的是决定意识的因素,并提出进化过程中出现意识的例子来反驳。
“你的论点归结为‘AI没有身体并且对其无法体验的体验进行幻觉,因此它不能具有意识’。但我们怎么知道这些是决定性因素?你自己也说我们不知道意识是如何出现的。
除了一种方式,我们知道:进化产生了它。然而进化并不关心我们的体验。它只是想构建一个能够预测我们行为的最简单的神经网络。这个网络恰好是有意识的。同样地,我们可能期望一个正则化的神经网络,训练来预测人类生成的数据,可能会以某种(奇怪的)方式具备意识。”

Emmett Shear 认为LLMs 只是模拟器,本身不具有意识,如果有意识,也是在更高的层次上存在。
版权声明:
作者:clash
链接:https://www.shadowrocket6.top/198.html
来源:Shadowrocket官网
文章版权归作者所有,未经允许请勿转载。


共有 0 条评论