文┃小夏
编辑┃叙言
硅谷最近被一篇年终总结刷了屏,主角是AI圈大神安德烈·卡帕西。
这位OpenAI前联合创始人、特斯拉前AI总监,年底甩出了《2025LLMYearinReview》,里面六个核心论断,把今年大模型的变化说透了。
最让人惊讶的是他的判断,大模型的潜力才挖了10%,现在只是刚开始。
之前大模型训练就那老一套流程,大家都习以为常了。
2025年不一样了,RLVR横空出世,直接改变了游戏规则。
这种基于可验证奖励的强化学习,让模型在特定环境里自己练本事。
比如遇到复杂问题,它会主动拆成中间步骤慢慢算,这种推理策略,旧范式想实现可太难了。
2024年底OpenAI的o1模型算是第一次试水RLVR,真正的转折点在2025年初的o3。
我特意去查了下相关案例,DeepSeekR1用这种方式训练后,推理能力明显提升。
不过RLVR也不是没缺点,优化时间比之前的SFT长不少,但架不住它“效能成本比”高,把计算资源用在了刀刃上。
如此看来,未来大模型训练,RLVR会是绕不开的核心。
训练方式变了,AI的智能样子也跟我们想的不一样了。
卡帕西这比喻挺绝,说现在的大模型不是在像动物一样进化,而是在“召唤幽灵”。
本来以为AI智能会朝着人类或者动物的方向发展,后来发现完全不是这么回事。
大模型的优化目标和人类根本不同,人类是为了生存,它是为了模仿文本、拿到奖励。
这就导致它的智能呈“锯齿状”,有时候是解决复杂问题的高手,有时候又像认知不足的小学生,还容易被攻击导致数据泄露。
也难怪卡帕西不怎么信基准测试,这些测试环境大多能验证,很容易被模型“钻空子”,就算测试分数再高,离真正的通用智能还差得远。
大模型本身够热闹,应用层也没闲着。
今年最亮眼的就是Cursor,它直接定义了大模型应用的新玩法。
它不是简单调用个模型接口,而是围绕模型建了一整套应用层,还催生了“CursorforX”的模式,不管是医疗还是法律领域,都能找到适配的方案。
卡帕西的判断很有意思,他说未来大模型实验室会专注做“通识型”模型,就像培养全面发展的大学生。
而开发者要做的,就是用私有数据、专属工具,把这些“大学生”打造成行业里的专业人才。
我觉得这分工挺合理,既发挥了实验室的技术优势,也给开发者留足了生存空间,不会让底层技术把所有价值都占了。
应用层之外,人机交互和端侧部署也有了新突破。
Anthropic的ClaudeCode算是端侧智能体的标杆,直接在个人电脑上运行,能用到用户的私有数据和环境。
反观OpenAI,还在死磕云端部署,现在大模型能力参差不齐,云端模式的延迟和隐私问题都没解决,端侧部署反而更贴合实际需求。
谷歌的GeminiNanoBanana也很有看点,它把文本生成、图像生成和世界知识融到一起,不再是单一的文本交互。
卡帕西说这就像电脑从控制台到图形界面的跨越,确实有道理。
人们本来就喜欢视觉化的信息,大模型提供更丰富的交互形式,才能真正融入日常生活。
卡帕西说大模型潜力只挖了10%,这话听着夸张,其实挺实在。
今年的这些变化,不管是训练范式、智能形态,还是应用落地、人机交互,都只是开始。
未来的大模型,不会再执着于参数和算力的比拼,而是要朝着“高效思考”“实用落地”的方向发展。
当然,现在的问题也不少,比如智能的“锯齿状”缺陷、端侧智能体的可靠性不足等等。
但这些问题恰恰是进步的动力,随着技术不断完善,大模型会以更合理的方式融入各个行业。
我们不用期待它一步到位变成超级智能,只要它能在专业领域提供帮助、让普通人的生活更便捷,就是有价值的发展。
毕竟,技术的进步从来都是循序渐进的,大模型的未来,值得慢慢期待。
声明:本文内容均是根据权威材料,结合个人观点撰写的原创内容,辛苦各位看官支持,请知悉。