新闻资讯-歌剧话剧

别自嗨了!美国企业创造ai“超级模型”,中国真的技不如人?

发布时间:2025-09-16 23:30:00  浏览量:33

你有没有想过,那些需要科学家皓首穷经才能突破的研究难题,有一天会被ai用“大海捞针”的方式轻松解决?

最近谷歌一篇论文在X平台上冲上热搜,里面讲的事儿正在让这个想法变成现实,只要科学任务能打分,AI就能找到超越人类专家的方法,干出最顶尖的成果。

难道说现在的AI已经在智商上击败人类了?为何谷歌会有这样的结论呢?

现在不管是生物学家分析细胞数据,还是地理学家做空间建模,都离不开一种叫“实证软件”的工具。

这类软件的好坏能用明确指标衡量,比如对数据的拟合度,我们叫它“可评分任务”。

但开发这种软件简直是个苦差事:生物信息学的专家可能要花好几年优化一套分析代码,地理学家调试模型时经常陷入“改一个参数,整个系统崩溃”的循环。

斯坦福大学的调查显示,光是"需求不完整"就导致了13.1%的科研软件项目失败。

谷歌的研究团队就想:能不能让AI来干这个苦活儿?

他们搞出的新系统堪称科研界的“超级打工人”,先用大语言模型(LLM)疯狂生成各种候选代码方案,像撒网一样撒出无数可能性。

再用树搜索算法当“质检员”,从海量方案里挑出最有潜力的继续优化。

更厉害的是,研究人员还给AI喂了“学术大餐”:高被引论文、专业教科书甚至搜索引擎结果里的研究思想,让AI站在人类已有知识的肩膀上干活。

这套系统一出手就惊呆了学界,在生物信息学领域,它一口气找出40种单细胞数据分析的新方法,直接把人类专家开发的顶尖方法甩在了身后。

地理空间分析方面,三个新方法在DLRSD基准测试中,mIoU指标全都突破了0.80大关,比最近学术论文里的结果还好。

就连神经科学里的斑马鱼活动预测,它虽然没超过最好的视频模型,但训练速度快了好几个数量级。

从流行病学到时序预测,AI在这些可评分任务里要么追平人类顶尖水平,要么直接超越。​

网友翻论文时还发现个有趣细节:研究人员给AI的提示词特别接地气,“请创建一个算法,利用两种策略的优点,创建一个真正出色的混合策略,并且得分要高于任何一种单独的策略!!”

全是大写字母加感叹号,活像答辩前一周的学生在疯狂催自己。

这反而让大家觉得挺亲切:原来顶尖研究员用AI,和我们普通人也没啥两样,清晰表达需求比复杂指令更管用。​

但欢呼声中也有质疑:把科学研究的权限交给AI真的合适吗?

《自然》杂志调查显示,68%的研究者担心AI会让剽窃更容易且更难发现。

想想看,AI优化出的代码像个黑箱子,万一里面藏着抄袭来的算法片段,或者得出的结论看似数据漂亮却缺乏理论支撑,那将带来绝大的误区。

更麻烦的是,科学研究不只是算分那么简单。就像数字健康领域学者担心的,护理学强调对患者的同情和关怀,这些没法量化的伦理价值,AI根本捕捉不到。​

还有人担心科学家会变懒。毕竟AI能不知疲倦地试错,人类可能慢慢失去亲手探索的动力。

斯坦福大学早就发现,17%的学生用AI写作业,这种依赖会不会蔓延到科研领域?

传统上,科学家对自己的研究成果负有唯一责任,但现在AI掺和进来,出了问题该找谁追责?这些都是悬而未决的难题。​

不过换个角度看,AI更像个“超级工具”而非替代者。

就像谷歌另一项让AI解数学奥赛题的研究显示,即便是最厉害的模型,也需要人类提示“用归纳法试试”才能突破难题。

这个新系统也是如此,它擅长在已知框架内找最优解,却没法提出“为什么要研究这个问题”的根本性思考。

那些需要跨学科联想、需要灵光一闪的创造力,仍然是人类的专属领地。

就像我们,虽然在ai领域突飞猛进,但都是一步一个脚印,做好最根本的基础,才能有更多的发展。

而且我们和美国走的路子也不一样,我们有更大的人口基数作为训练,ai模型更加完善。

虽然在AI芯片技术还稍有欠缺,但我们也有必胜的信念追上美国。

这场AI引发的科研变革更像一场“双人舞”,AI是不知疲倦的探路者,能在人类难以想象的规模中筛选方案。

人类则是把握方向的领舞者,负责提出问题、注入思想、判断价值。

传统软件开发中,因为需求频繁变更导致8.7%的项目失控,但AI系统能快速迭代适应。

而人类科学家从繁琐的代码调试中解放出来,才有更多精力思考那些没法打分的根本性问题。​

标签: 模型 谷歌 美国 生物信息学 斑马鱼
sitemap