YannLeCun怒怼超级对齐猫都还没造出来就谈控制超智能AI
ChatGPT 4o的发布后很快迎来了公司更大的新闻,公司的联合创始人兼首席科学家Ilya Sutskever,及他的联合团队领导Jan Leike的辞职。
见前文 《 带领OpenAI称王后,Ilya Sutskever宣布离开!出于对 AGI 安全的担忧? 》
尤其 Jan Leike 辞职时的声明,为OpenAI 更是带来了极大的公关危机:
员工需 签署一份NDA 条款, 条款 禁止他们在有生之年批评他们的前雇主, 甚至承认该条款的存在也是对它的违反 。 如果离职员工拒绝签署该文件,或者违反它,他们将失去在公司期间获得的所有已归属股权,这可能价值数百万美元。
该事件引起了公众的广泛讨论,并纷纷质疑OpenAI,包括其非open 而lose,不顾安全闭门打造影响可能将整个人类的AGI,对员工苛刻的NDA 威胁。
见前文《 ChatGPT现在可以说话了,但OpenAI的员工却无法发声 》
LeCun 发声:
针对近期热议的OpenAI 超级对齐团队人员离职事件, Meta 首席 AI 科学家, 人工智能之父 Yann LeCun 坐不住了,爆脾气上线,发文怒怼 AI 安全担忧:
别慌,AI 离猫的智力还远着呢!😹
Leike 认为,我们需要“紧急弄清楚如何控制比我们聪明得多的 AI 系统”。对此于“超级对齐团队”,LeCun 表示,这种担忧“反映了对现实的极度扭曲”。🤯
LeCun 认为,在谈论控制“超级智能”AI 之前,我们首先需要一个比家猫更聪明的 AI 系统的设计方案。🐱 他将目前的 AI 安全担忧比作 1925 年就担心“如何控制跨越海洋运送数百名乘客的超音速飞机”。
✈️ 当时,涡轮喷气发动机尚未发明,飞机也无法跨越北大西洋。类似地,目前的 AI 系统还远远没有达到猫的智力水平,更不用说超越人类了。🧠
同时LeCun 也指出,AI 系统的智能水平将逐步提升,就像飞机的发展一样,需要经过多年的工程设计和迭代改进。🏗️ 他强调,不要将当前大型语言模型(LLM)的超强知识积累和检索能力与真正的智能混淆。📚
LeCun 还反驳了“超级智能 AI 突然出现并失控”的假设,认为这种场景是“无聊的陈词滥调”,现实世界不会发生。🎬
下为 LeCun 原文:
在“迫切地努力想出如何控制比我们聪明得多的AI系统”之前,我们需要有一丝关于比家猫更聪明的系统的设计开端。
这种紧迫感显示出对现实的极度扭曲。
难怪组织中更加理性的成员试图边缘化超级对齐组。

这就好像有人在1925年说“我们迫切需要想出如何控制可以以接近音速的速度在海洋上运输数百名乘客的飞机。”
注:见前文《 迷雾:AI 停滞还是变革前夜? 》
在涡轮喷气发动机发明之前,以及在任何飞机连续横跨大西洋之前,很难使远程客机安全起飞。
然而,现在我们可以在双发喷气式飞机上完全安全地环游世界的一半。
这并不需要某种神奇的安全配方。
这需要几十年的细致工程和迭代改进。
对智能系统的过程也将类似。
它们需要数年时间才能变得像猫一样聪明,更多的年份才能变得像人类一样聪明,更不用说更聪明了(不要将当前LLMs的超人知识积累和检索能力与实际智能混淆)。
随着它们变得越来越聪明,需要将它们部署和微调以提高效率和安全性的年份也将过去。

John Shahawy 认同 LeCun 的观点回复道:
版权声明:
作者:clash
链接:https://www.shadowrocket6.top/209.html
来源:Shadowrocket官网
文章版权归作者所有,未经允许请勿转载。


共有 0 条评论