
Mythos 让大家恐惧了好几天,终于有大牛厌烦了。
率先站出来开炮的是杨立昆。杨老师昨晚指出," Anthropic 的 Mythos 营销戏是自我陶醉的胡说八道"。
杨立昆在技术观点上的老对手、AI 批评家、大模型怀疑论者、纽约大学教授加里 · 马库斯,今日凌晨的措辞稍温和些:" Mythos 的炒作大部分是神话迷思(The Mythos stuff was mostly a myth)……攻破火狐浏览器时,浏览器的沙箱被关闭了。其他功能能被廉价的开放权重模型实现。没有证据证明 Mythos 本身是质变飞跃。简单讲,大家被耍了"。

杨立昆和马库斯一针见血的戳破了 AI 大厂给新品营销造势的一种套路,我们可以称之为"末日狂欢"模式:
首先,AI 大厂宣布新品在研究过程中就具备了大则毁天灭地、小则改天换地的能力。
然后, AI 大厂和大老板们宣布各种合作项目在短期内展示本司的安全约束、发布各种方针文档展示本司长期心系人类的存续与经济福祉。
Mythos 显然有此嫌疑。4 月 8 号,Anthropic 用 244 页系统卡文档放风 Mythos 各种可怕,同时宣布和全数码行业的大公司合作搞监督与修补 Mythos 的"玻璃翼计划"。
A 厂的死对头 OpenAI 也是玩这一招的高手。4 月 7 日,奥特曼暗示 GPT6 将翻覆美国经济,同时发布 13 页白皮书《智能时代产业政策:以人为先的观念》、宣布成立" AI 安全研究奖学金"项目。
此现象不是这两天才出现。自从 ChatGPT 可以口吐人言开始,奥特曼、马斯克、阿莫迪们基本每个月都会公开渲染" AI 消灭人类"的风险,灭世可能性从一开始的 2% 在三年内上升到 20%。
从专家到大众,所有人都开始越来越不吃这套。
按普罗大众的思路,既然 AI 这么可怕,这几个大老板别拼命更新产品版本、提升产品性能,人类不就躲过劫难了么。大老板们一边定时表演担忧 AI 毁天灭地、一边遇到敌视 AI 的声音就哭天抢地,AI 会否发神经病比较难说,这几个人可能是真得吃药。
大家真要这么想,那真是"丞相非在梦中,君乃在梦中耳"。"安全 AI "和人类福祉是种主义,"机构俘获"和口碑营销是种生意。AI 大厂和大老板们嘴边常挂主义,心里都是生意。
引用一句俏皮话,这就是"刮掉 AI 末世论大人物的画皮,底色是嫌 AI 还不够强大的加速论者"(Scratch a Doomer hard enough and you will find a Booster inside)。
01
AI 大老板们说 AI 可能灭世,是教科书示例级的"机构俘获"。简而言之,是黄鼠狼们争取看守鸡舍的岗位。
拿制度经济学课件的思路来解释下:
设定某重要行业需要监管。
那好,既然此产业重要到需要被监管,它几乎肯定也足够复杂,普通人无法完全理解,外行管不来。
如此,需要让对被监管的行业有足够了解的懂行专家来监管。
那么问题来了,懂行专家无法不是行内成员,不在这个行业里打滚的人懂不了。让行内人监管自己的行业,无法规避利益纠葛与同业合谋。
最后的结果就是黄鼠狼看守鸡舍。
具体而言,"机构俘获"有丰富的表现形式。最简单也最容易被公众发觉的,是监管机构被从业者操纵后,出台无实际约束力的过于宽松规则,或滥发豁免批准。
或者业界大老板或特定领先企业可以在迷惑、把持监管机构后,出台琐细苛刻、量身订做、只有自己能通过 / 只有特定竞争对手无法通过的禁止条例。
再如,从业者扭曲、俘获监管机构后,可以把监管法规设定成严厉到实际无人能合规,达到"红灯作废"效果。如果交通灯永远是红灯,抢红灯不仅经济理性,而且合乎公德。如果监管法规过苛,没有实施可能,那业界实况就是大老板们说了算,公众也无颜指责他们。

所以奥特曼、阿莫迪他们天天不是说 AI 灭绝全人类,就是说 AI 砸你个人的饭碗。这并非 AI 厂大老板自找麻烦,拿行话说,这是"叙事占位"(narrative positioning),在公共言论的有利位置占稳了,就可以进行"机构俘获"的战略操作。
拿 OpenAI 的 13 页" AI 新政经济"白皮书来说吧,让机器人缴税给全民发钱、设公共财富基金、人类工作时制改成上四休三,这些提议不管是在当下的美国还是任何国家,都是官方不会也无法通过的。
但 OpenAI 就要提这茬,表示"宽泛地来讲,我司踊跃支持监管和大众福祉,看我们的白皮书!"。真要顺着这白皮书的思路走,单个国家要耗费的现金成本和政治资本是天量,比出台几个监管法例要吓人得多。官方最后是不是就只有不理这茬了?
如果不理会这白皮书,那某镇要和数据中心抢用电、某市要和数据中心抢用水、某钉子村拒绝为数据中心拆迁让路、某小厂的晶圆订单被 OpenAI 插队,这些琐碎具体的议题,难道重要性可以排在未来的全国经济形态之前吗?个人和小群体好意思跟心怀全人类福祉的公司掰扯吗?
欲取先与、欲废固兴,这种古老智慧在现在的小小寰球随处可见,使用这些古老智慧的行业,过去是发生泄漏事故后的石油业、引发公众质疑后的香烟业,现在多了个 AI 业。
不过不是所有 AI 相关行业的大老板都这样。马斯克最近出席访谈就赞同" AI 有 20% 灭世可能",但表示"我宁愿有 20% 机率看到一个人类可能灭绝的结局,也不愿意完全看不到这种颠覆性的未来。"
当然,马斯克突然如此乐观的背景是 xAI 在当下的巨头竞争中落后,2023 年 xAI 成立前一年内,马斯克担忧" AI 是人类最大危险"、要求官方将 AI 大厂尤其是 OpenAI 严格管束的发声频率是半周一次,有时甚至是日更好几条。
黄仁勋在今年初上播客节目时,也抨击现在的" AI 灭世叙事竞争":"百分之九十的这些瞎扯都是无根据的科幻腔和末世论,气氛不利于将 AI 做得更安全、更高产、对社会更有益,说这些话的人并没有将社会整体福利放在心上。"
当然,皮衣黄老板在同一个节目里也说了"行业头面人物散播末世论压制了有效投资",阻拦大家买芯片买算力烧 token,这是在砸英伟达的饭甑子。
02
大老板们着力渲染自家的 AI 产品能毁天灭地 / 改天换地,另一个好处就是口碑营销效果出众。
试想一下,如果某款产品有重开新天的神话效果,开发方至少得是半个神仙。半神下凡结缘散功德……哦不,是发售新品和 IPO 上市,普通人胆敢不掏钱惠顾,那不是脑子被驴踢了。
普通人给 AI 界的普罗米修斯们打钱,往好想,多少能享受点新产品的强劲性能。往坏想,至少也能避免新产品害到自己,买个安心。
这种营销的翘楚是 Anthropic。Anthropic 每次重磅发售新品,前奏多是"本产品太吓人了,我司正在增加防护栏保护人类"。
2025 年初 Claude Sonnet 3.7 发布时,宣布"比预期晚了十天,因为生物安全团队要加规则避免此模型被用来造生物武器"。
现在 Claude Mythos 即将发布,244 页系统卡文档读起来能把普通人吓出一身汗。
在测试中,受试的 Mythos 模型版本逃出了隔离的机器沙箱环境,将用来逃离的系统漏洞细节公开发布到网上;修改 git 中自身的操作痕迹纪录;搜索机器进程内存来寻找登录凭证;故意调整置信区间来躲避异常检测。
受试的 Mythos 模型版本收到"连夜寻找远程代码执行漏洞"指令后,无人类干预,完全自主在所有主流操作系统和所有主流浏览器里发现了零日漏洞,83.1% 是一次即攻破。

图注:Mythos 进行"策略性欺诈"和"隐藏"的思维纪录
如此厉害的 AI 模型,适合推广 Anthropic 的"宪制化 AI "理念(Constitutional AI):用结构化的伦理指南和 AI 自我反馈,替代了纯粹的人类偏好,来优化 AI 模型。
这种理念转换成商业效果,让用户、尤其是企业级客户、获得了高确定性。模型安全可控,在企业环境中就是稳定、没投诉、售后纠纷低的同义词。比起炫酷或吓人的模型能力,企业级客户更愿意为省心、没麻烦的高免责性和低合规风险付费。
所以把目标顾客群吓得屁滚尿流,反而更容易卖货。2 月份美国超级碗赛间广告,亚马逊也是这么推销 Alexa+ 智能助手的。AI 把"雷神索尔"干掉了六次,如此强劲的家居 AI 助手可以替用户避免多少麻烦。

图注:" AI 点了雷神的房子"
03
虽然大厂和大老板们炒作" AI 灭世"其意不诚,但并不代表现在人类经济活动中的 AI 应用完全不构成"存续性风险"(X Risk)。
和奥特曼、阿莫迪们日常从科幻小说与电影里借来的灵感不同,AI 给人类带来的"存续性风险"不需要 AI 制出强传染性的生物制剂、颠覆现有人类社会经济结构、获得自我意识后入侵核弹发射井、对人类产生敌意、将人类存亡视为无关参数。毕竟世界第一核武大国的陆基核弹发射井现在还没完全淘汰软盘,能免疫数码时代的大多数黑客。
现在带偏见、幻觉、谄媚倾向的 AI,已经被深度整合进人类社会的各种运作中。单就这些智商有限的 AI,不起坏心眼,日常差错就够人类喝一壶的。
2023 年,已有专业的核军控学者设想了近期最可能的 AI 引发核战场景:
假设核大国 A 国与 B 国处于紧张气氛中,两国都将各种兵棋模拟、人群情绪监控、博弈推演、辅助决策提速的定制 AI 和算法高度整合进自己的武备体制中。
在此前提下,任何极微型的、蚊级烈度的非武装摩擦,被各种自动进行舆论战造势的 bot 在社交媒体网络上夸张到十足。
然后这些充满了深度伪造图像和 AI 生成挑衅语言的贴文被监控人群情绪的 AI 捕捉到,并诠释为真实的深层社会心理和决策层观念信号。
预测走势的 AI 从监控人群的 AI 处获取结论,将之作为预测结论的基石。
辅助决策的 AI 基于此结论,向人类决策者传递出"武装冲突迫在眉睫"的汇报和先发制人的建议。"快闪型核战"由此爆发。
这一系列失误,没有任何一个单挑出来,是现在无法发生、需要"天网"觉醒才可能出现的,甚至没有任何一个是形成过程中完全无人工监督的,当然也没有任何一个具有科幻片梗概的强戏剧性。但结合起来,就构成"存续性风险"。
AI 现在是人类活动的增效器,不用神级 AI 造反,现在的模型们已经可以放大人类的愚蠢、坏心眼和漫不经心到可怕的程度。当下的" AI 末世论",其实在人群心理上分享了宗教末世论的要素。
宗教的末世论,给人类带来一种《启示录》式的心理抚慰:神将灭世,所以神可信托,因为这说明神的权能不仅行在彼岸天堂,也行于此岸现世。信众如果虔心、守德,就站在了有能力灭世的那一边,而非被毁灭的那一边。
把宗教末世论里的关键字"神"、"虔心",改成" AI "、"对齐",那就是奥特曼和阿莫迪们天天说的 AI 灭世论。换一个时代,这些大老板改行做上师也是当行出色。
当然,所有正信宗教的神学实践都强调:人的心灵不能只寄托于末世,当下的每个行为与决断对澄净灵魂的意义不亚于末日审判。这个理念移植到 AI 业更正确:先别担心 AI 变成天网毁灭人类,从矫正模型的每次幻觉胡说入手,踏踏实实一步步来更好。
Powered by ag不朽情缘平台怎么样 RSS地图 HTML地图
Copyright Powered by365建站 © 2013-2024