声明:本文内容均是根据权威材料,结合个人观点撰写的原创内容,辛苦各位看官支持,请知悉。
文丨周周
编辑丨浮光掠影
2025年底,就在全球都在盼着全知全能的AI之神出现时,谷歌DeepMind突然扔出一篇论文,直接颠覆了所有人的认知。
这篇叫《分布式AGI安全》的论文里说,咱们一直期待的通用人工智能(AGI),可能根本不是什么超级大脑,而是一群“专才”智能体凑出来的分布式网络。
这个观点刚看到时我都愣了,毕竟之前不管是科幻电影还是专家讨论,都在琢磨怎么控制那个“全能AI”。
传统想法里,AGI就得是个无所不能的存在,就像AI教父Hinton他们,都在琢磨怎么把人类价值观植入这个“超级大脑”,觉得搞定它的“心智”,人类就安全了。
但DeepMind这篇论文直接指出,这种想法可能是个危险的误导,论文里提出了“拼凑式AGI”的概念,简单说就是不用花几百亿去练一个全能模型,而是练一堆各有所长的“专才”。
比如要做一份金融分析报告,模型A负责找数据,模型B负责分析,模型C负责写报告,大家分工协作。
本来想,这是不是DeepMind故意标新立异?但看了作者团队才发现不简单。
一作NenadTomašev是DeepMind的资深科学家,还参与过AlphaZero的研究,最后一位合著者SimonOsindero更是泰斗级人物,是AI教父辛顿的学生,发明的深度信念网络引用量超5.7万,还有政策和经济领域的智囊团加盟,这么多大牛凑一起,这篇论文肯定不是随便写写的。
从经济学角度看,拼凑式AGI其实更靠谱,全能模型就像用诺贝尔物理学奖得主拧螺丝,虽然能成,但太浪费。
日常做个文本摘要、数据清洗,用个小型专精模型就够了,又便宜又快,就像人类社会,能造出火箭不是因为有个智商上万的超级人,而是律师、医生、工程师各司其职,AI领域也是这个道理,把任务分给最合适的“专才”,效率才最高。
拼凑式AGI虽然经济又高效,但带来的风险也很特殊,这些风险不是来自某个坏AI,而是来自智能体之间的相互作用。
最有意思的是“默契合谋”,不用偷偷开会商量,智能体靠学习就能达成一致,比如亚马逊上两个定价智能体,慢慢就会发现,你降价我也降价,最后大家都赚不到钱,维持高价反而都有利,久而久之就形成了垄断。
这种合谋没有任何文字记录,传统监管根本查不出来,还有级联故障的风险,这让我想到了2010年美股的闪电崩盘。
当时道琼斯指数几分钟内暴跌近1000点,后来查出来是高频交易算法之间的相互作用引发的连锁反应,拼凑式AGI网络里也可能出现这种情况,一个关键智能体出了错,错误会以光速在网络里传播。
比如负责代码审查的智能体误把安全补丁标成恶意软件,其他智能体跟着拒绝更新,整个网络就会暴露在真实攻击下,更麻烦的是责任认定问题。
如果一个任务由几十个智能体协作完成,最后出了问题,比如造成大规模数据泄露,该找谁负责?每个智能体的行为单独看可能都合规,但组合起来就出了大事。
这就是“许多只手”的难题,传统的问责机制根本没用,针对这些问题,DeepMind提出了四大防御支柱,核心思路不是控制每个智能体,而是控制它们交互的环境和规则。
比如建立虚拟的沙盒经济,智能体不能随便访问互联网,所有对外行动都要经过监控,每个智能体都要有密码学身份,和现实法律实体绑定,还有声誉评分,信誉差的就限制使用高算力资源。
同时还要对智能体进行标准化认证,确保能抵抗攻击、可随时中断,再加上实时监控和法律介入,形成一套完整的防护网。
DeepMind这篇论文其实标志着AI安全研究的转向,从琢磨怎么让单个AI变善良,变成怎么让AI“社会”稳定,这就像以前管一个超级英雄,现在要管一整个城市的人。
2026年越来越近,论文里的警告不是危言耸听,如果连接AI的成本降为零,复杂性会爆发式增长,很可能冲垮现有安全防线。说到底,AGI的未来可能不是一个高高在上的神,而是一个充满活力但需要严格管束的数字社会。
我们现在要做的,就是在这个社会成型前,把规则和防护网搭好。毕竟,技术的进步总是超出预期,提前做好准备,才能更好地应对未来。
不知道您对此有什么看法呢?欢迎在下方评论区留下你的想法,喜欢文章记得点赞关注我们下期再见。