最近HuggingFace出了个研究,看完真有点吃惊,生成式AI里的视频生成工具,耗电量居然是指数级增长。
简单说,视频长度翻一倍,能耗得翻四倍,这可不是按常理来的线性增长,难怪有人说这是AI给地球挖的“能耗坑”。
先拿具体数据说事儿。
生成3秒的AI视频,能耗要是个基础数,那生成6秒的就不是翻一倍,而是直接乘以四。
之前我还以为时长和能耗会成正比,后来才发现完全不是这么回事。
更直观的对比是,生成一张1024x1024像素的AI图片,能耗也就相当于微波炉转5秒,可生成5秒的AI视频,能耗能让微波炉连续转一个多小时。
说实话,这差距大到有点离谱。
为啥会这样?查了下才知道,视频每帧都得单独用扩散模型计算,不像图片就一次计算完事儿。
现在大家还总想要4K分辨率、60帧的视频,需求一升级,计算量跟着暴涨,能耗自然就压不住了。
就像你煮一碗面和煮十碗面,后者不是简单加十倍水,火候、时间都得翻倍往上加,道理差不多。
视频生成这么费电,最直接的压力就落到了全球数据中心头上。
现在AI相关的能耗,已经占了数据中心总电力需求的五分之一,而且还在涨。
谷歌去年的碳排放就比前年多了13%,官方自己也说,主要是因为铺生成式AI的缘故,连2030年净零碳排放的目标都有点悬了。
更具体的例子是谷歌那叫Veo3的AI视频工具,才七周时间,用户就用它生成了4000多万个视频。
虽然谷歌没说这些视频到底耗了多少电,但按HuggingFace的研究算,这碳足迹肯定小不了。
本来想觉得科技公司能平衡好AI发展和环保,后来发现不少企业为了建AI数据中心,都把之前的气候承诺往后推了,这种取舍确实有点无奈。
光靠技术优化能解决问题吗?现在有三种思路,智能缓存、内容复用和数据集修剪。
Meta在自家视频工具里用了智能缓存,相似场景的生成能耗降了四成,但遇到要做独特动作的视频,还是没辙。
斯坦福大学搞的数据集修剪,把训练数据砍了三成多,能耗也降了不少,可砍多了又怕视频内容变单调,这平衡不好找。
很显然,单靠技术不够,得从多方面下手。
欧盟已经要求高能耗AI工具备案,还得披露单位能耗,美国加州搞了“AI碳足迹标签”,让用户一眼能看到能耗。
微软更直接,计划2026年起,AI数据中心全用可再生能源,现在已经在爱尔兰建了太阳能电站。
抖音还在用户生成视频时弹提示,问要不要把4K调成1080P,据说这么一改,高能耗视频少了四分之一。
说到底,生成式AI的能耗危机不是没法解,但不能只靠某一环发力。
技术得优化,监管得跟上,用户也得有节能意识。
毕竟AI是为了让生活更好,要是因为它让地球负担太重,那就有点本末倒置了。
未来怎么平衡AI创新和环保,还得全行业一起琢磨。