OpenAI惊动前美军将领大搞安全网友别装了赶紧放大招吧
OpenAI这个"带头大哥"又搞事情了!

他们这次放出的大招,居然连 退役美军网络司令部司令保罗·纳卡索内将军 都惊动了!
没错,就是那位在网络战领域叱咤风云的大佬,现在要来OpenAI当" 保安 "了!

啥情况?OpenAI这是要搞个"AI军事基地"吗?
别急,听我慢慢道来。
首先,这次发布的,依旧不是你想要的那些东西,这次发布的是" 安全 "的东西。
今天凌晨,OpenAI官方推特突然放出一条长文,大意是:
我们要确保AI能造福所有人,首先就得建立一个有益且安全的AI。以下是我们在安全方面的一些最新进展...
然后就是一堆"安全"相关的更新,什么"准备框架"啊、"风险评估"啊、"安全委员会"啊...
我滴个乖乖,这是要把"安全"二字刻在DNA里啊!
但是!但是!但是!
重要的事情说三遍,网友们可不买账!
Kay (e/acc)(@eacckay) 直接开怼: 嘴上说安全,手上却不放新功能:
呃.. llama 405b 很快就要开源了... 你们的新语音模式还没发布呢 😕。
这是看不下去了:你OpenAI还在这唱"安全"大戏?就连 新的语音模式 都还没放出来呢!
Jesus(@gsusMad) 更是火力全开, 直接把OpenAI的长篇大论总结成了几句话:
TL:DR:
巴拉巴拉
我们只会把更智能的模型交给建制派,以维持现状(五角大楼、微软等)。
巴拉巴拉
我们的新安全政策很棒;它们已经得到了新的非独立董事会的批准。
委员会由前国安局局长Paul Nakawone(又名"鼹鼠")领导。
巴拉巴拉
看看,这翻译得,堪称人间清醒!
简单来说就是:
废话一堆
高智能模型只给权贵用(五角大楼、微软等)
又是一堆废话
新的安全政策超棒,已经被"独立"董事会批准了(笑)
委员会由前NSA(美国国家安全局)局长Paul Nakasone领导,别名"鼹鼠"
最后再来点废话
Victor(@Victor11878) 调侃OpenAI已经变味:
Closed AI。
还有,奇怪的AI交付。🤖
还有网友The Builder(@frankflynn20016) 更是直接开喷:
我们不在乎
别再通过夸大存在风险来炒作技术了
我们现在已经在本地设备上运行和GPT4一样强大的模型了
快发布点新东西吧
好家伙,这位网友可真是对OpenAI失望透了。不过话说回来,真有和GPT-4一样强大的本地模型吗? 别骗我啊你 ! 如果你说的是最新发布的Llama 3.1 的话!那一定是看了我的文章:《 缩小不缩水!Meta Llama3.1 的70B匹敌405B,模型蒸馏正在将GPT-4装进你的手机 》
当然,也有网友对OpenAI的做法表示理解。KNOWN STUDIO NEWS 就说:
希望能有更多关于视力障碍等方面的想法。离为许多残疾人打开世界的大门已经很近了。
想法靠不靠谱先不说,但OpenAI现在的重点似乎并不在这上面啊。
还有网友Mordekhai(@Think75806037) 提出了一个有趣的建议:
你们能不能创建一个没有宣传和议程的AI模型(一个危险的模型),给那些认为自己有能力、理智和负责任的人使用?
哈哈哈,你可是真敢想啊。OpenAI肯定不会同意的,毕竟他们现在可是把"安全"挂在嘴边呢!
有网友W(@stockware) 提出了更深层次的质疑:
If you want to build "AI that is helpful and safe", first of all you would need to stop working for an exploitative US empire that kills millions of people per decade in its endless state of war to expand the reach of US corporations over foreign people and their resources.
他认为,如果OpenAI真想建立"有益且安全的AI",首先就得停止为剥削性的美帝服务。因为美帝每十年就在无休止的战争中杀死数百万人,就为了扩大美国公司对外国人民及其资源的控制。
这话说的,不禁让人 陷入深思 啊...

不过话说回来,OpenAI这次的安全更新到底说了些啥呢?
搞了个" 准备框架 ",用来评估和防范越来越强大的模型带来的风险。如果新模型风险超过"中等",就不发布,除非有足够的安全措施。
正在开发一套 等级系统 ,用来分类和追踪AI进展。(这个还在进行中,说是很快会有更多消息)
5月份,董事会成立了新的 安全和安保委员会 ,来评估和制定OpenAI项目的安全建议。委员会还包括了退役美国陆军将军Paul Nakasone这样的顶级网络安全专家。
搞了个 举报政策 ,保护员工披露问题的权利。还修改了离职流程,删除了不得诽谤的条款。(这是不是意味着离职员工可以随便爆料了?)
最后强调,安全一直是他们工作的核心,从调整模型行为到监控滥用。随着更强大模型的开发,他们还会在安全上投入更多。
嗯...总结下来就是: 安全安全还是安全!

不过说真的,在这个AI狂飙突进的时代,安全确实很重要。但是,过度强调安全,是不是也会影响创新呢?
网友 Mordekhai ⩜⃝(@Think75806037) 就提出了一个有趣而大胆的建议:
Could you create an AI model without propaganda and agenda (a dangerous model) for people who consider themselves capable, sane, and responsible?
能不能为那些自认为有能力、理智和责任感的人,创造一个没有宣传和议程的AI模型 (一个危险的模型)?
但这个提议啊。。我看OpenAI 是不会考虑的,毕竟他们现在可是"安全"第一啊!
你觉得OpenAI这波操作如何?是真的为了AI安全呢,还是又在打太极?还是……?
最后,还是得期待一下,下次OpenAI再放出点新东西的时候,会不会是真正的"大招"呢?GPT-5?还是超级语音模型?
拭目以待了!
版权声明:
作者:clash
链接:https://www.shadowrocket6.top/111.html
来源:Shadowrocket官网
文章版权归作者所有,未经允许请勿转载。


共有 0 条评论