|
说到数字大脑,我们很容易想到AI,AI在我们生活中有着诸多便利与服务,但在这份便捷背后,传统AI却是个“吞数据、耗电力”的“大块头”:要超千万次训练,其运行耗电堪比一座小型城市。而中国造的类脑计算机“悟空”,走了条不同于传统AI训练系统的路:复刻人脑工作机制,功耗和数据样本量约仅为传统AI 的千万分之一,实现了用“中国智慧”给AI“瘦身”。
据数据综合技术分析机构SemiAnalysis披露的 GPT-4 训练算力参数与数据规模和多模态训练语料的公开统计:2024年,GPT-4(人工智能)足足啃下了 4.9 万亿个数据点,相当于把海量的书籍、网页、对话全都嚼碎了学一遍;还得靠 25000 个专业的 AI 计算芯片(GPU)组成的“超级计算机群”,没日没夜地算上95天才能完工。更夸张的是,这堆设备每天耗的电够4万个普通家庭用一整天。
而中国“悟空”类脑计算机给出了颠覆性答案:在工业质检、图像识别等任务中,传统AI有些“笨”,需数千次样本反复学习才能掌握,“悟空”仅用5次输入就能精准习得,这个功耗差不多和一台家用空调的功率相当,功耗和效率碾压传统AI。
据全球数据中心耗电量相关表述参考国际能源署(IEA)数据中心能源供应报告:如今,全球数据中心的耗电量已从十年前的100亿瓦(GW)增加到1000亿瓦水平,相当于一个中等国家的年用电量—— 而这暴涨的能耗中,人工智能训练与运行贡献了关键增量,尤其是大模型的训练过程,堪称数据中心的 “耗电主力军”。从当前规模来看,AI 已占据数据中心用电量的 5%-15%;据国际能源署相关测算,这一比例到 2030 年可能大幅攀升至 35%-50%。高盛也有预测显示,2027 年 AI 在数据中心的用电占比会达到 27%,其耗电主导地位将进一步巩固。
同时据DOIT数据产业媒体、中国经济信息网等权威平台的披露信息,GPT-4(人工智能)一次训练所需的电能,据数据推算,若将其全部转化为热能,可将大约1000个奥运会标准游泳池的水量加热到沸腾。凸显了AI 发展背后巨大的能源消耗。
而且传统AI 干的都是些 “费劲儿” 的活儿,不管是算东西还是处理数据,都得靠高性能电脑和专门的GPU芯片撑着 —— 只要数据量一大,基本上AI的算力零件就得全部动员,耗掉超多电。
现在AI 模型越做越复杂,需要的计算能力和内存也跟着水涨船高,耗电自然也就越来越多,虽然功能提升了,但始终困在“数据越多越好、算力越大越强”的能耗黑洞中。
在用AI 语音助手识别方言版的指令时,要是你的方言比较小众、训练数据里几乎没有,助手要么听得一头雾水,要么把 “帮我开阳台灯” 识别成 “帮我开油烟机”。
同时AI在写小众领域的文案时,虽然它能高效堆砌专业术语或结构化内容,很难写出藏在文字里的“人情味”,但也会因为数据储备不足,使内容显得机械化。
而一些顶尖AI虽能力卓越,例如科大讯飞的讯飞星火认知大模型,专门针对中文文案生成优化,其不仅涵盖了新闻、小说、社交媒体等多种风格的中文文本,也保障了中文文案生成的流畅度与适配性,但其实训练学习时调用了近亿万级的数据,训练文本量超1000 亿字,样本数量十分庞大,就比如哪怕一个人不吃不睡、全天 24 小时不间断阅读,也需要22831年才能读完——这个时间跨度,远超人类文明史,而人类文字历史不过约 6000 年。
说到底还是跳不出一个死圈子:总想用更多数据、更强算力来撑场面,效率其实并没跟上。显而易见,传统AI需要大量样本训练,究其原因,还在于AI系统架构的先天局限,每次学习都需反复调取数据,且必须依赖完整的数据样本,这种暴力学习的方式虽然简单,但每次学习都“死记硬背”,很容易换个题型就蒙圈。
类脑机算机“悟空”给出了另一种答案:它搭载的芯片构建起庞大的类似人脑的神经突触网络,其核心秘诀,是用上了和人脑记东西类似的机制—— 咱们大脑里,先活跃的神经细胞会和后活跃的细胞拉近距离、记牢关联(比如看到 “火锅” 就想起 “麻辣”),“悟空” 也学着这套逻辑:靠脉冲信号的先后顺序抓关键联系,不用海量样本慢慢磨,就能快速摸透核心特征。
简单说,“悟空”能像人脑凭一样零散关联举一反三,也能像你记“先刷牙再洗脸”的流程一样,靠事情要按“先发生什么、后发生什么”的顺序来,少走弯路直接抓住重点,大大提高了效率,减少了样本数据。
“悟空”模范生物大脑工作方式,空闲时几乎不消耗能量,只有在接收到信息时才激活处理;就像家里的智能感应灯,没人经过时,它一直处于 “休眠” 状态,几乎不耗电;只有有人走到感应范围内,它才瞬间亮起、开始工作。“悟空” 也是如此,没接收到数据任务时,就像感应灯休眠一样低耗待机;一旦有信息输入,才激活算力处理,不做 “无用功”。
其采取先进的封装技术缩短了信号传输距离,好比快递公司优化仓库布局:原来仓库里分拣区和配送区隔得老远,快递员要跑很久才能把包裹从分拣区送到配送区;现在把两个区域挨在一起,快递员几步路就能完成转运,效率直接翻倍。“悟空” 用先进封装技术缩短信号传输距离,就和这种仓库布局优化一样,让芯片里的信号不用 “长途跋涉”,传输速度更快、能耗也更少。
还有高效优化的操作系统,就像整理得井井有条的厨房:普通厨房的厨具、食材东堆西放,做饭时要翻半天才能找到锅铲、调料;而优化后的厨房,把常用的锅具调料放在灶台旁,做饭时伸手就能拿到,流程丝滑不浪费时间。“悟空” 的高效操作系统就像这个规整的厨房,把算力资源、数据处理流程梳理得明明白白,避免资源浪费,让每一步运算都精准高效。
依靠这样架构与效率,“悟空” 在多个关键领域展现出独特价值,成为推动科技突破的 “高效能手”:在人工智能领域,它能轻松运行DeepSeek类脑大模型,高效完成逻辑推理、内容生成、数学求解等复杂智能任务,为这些场景提供强劲的算力支撑,破解了传统大模型高能耗、高计算量的难题;在脑科学研究领域,更是发挥了 “虚拟实验室” 的重要作用,能够精准模拟从秀丽线虫、斑马鱼到小鼠乃至猕猴等不同神经元规模的动物大脑,让科学家可以在虚拟环境中清晰观测神经信号传递、学习记忆机制等,比如原本需要数月的小鼠决策行为模拟,借助它几小时就能完成,大幅减少了活体生物实验的需求,为探索大脑工作机理开辟了新路径。
同时据新华网报道的相关数据,在“悟空”与传统AI相比完成同等复杂智能任务时,能耗仅为传统GPU集群的1/5~1/10,相当于降低了80%~90%的能耗;而思考速度上,凭借超20亿神经元与千亿级突触的高度并行计算能力,较传统AI处理脑科学模拟、复杂推理等任务时,速度提升超10倍。
最后,“悟空”能以“一台空调”的功耗实现对传统AI的碾压,核心在于它跳出了传统计算“大量数据冗余、高算力损耗”的框架,这套“类脑+集成”的组合拳,让它在处理复杂任务时既能释放千亿级突触的强大算力,又能将能耗降到极致,这正是其超越传统AI的关键所在。相信未来“悟空”将进一步发展,成为打开人工智能金钥匙,用最低能耗实现最灵活的认知与创造。
在洪崖洞逛到人山人海时,谁在帮我们“看住人流“? ——重庆景区里的智慧安防
2026全球全景&运动相机市场趋势分析:行业洗牌、AI进化与消费选择指南
乙肝功能性治愈是当前公认的治疗目标,实现它的关键一步,到底应该怎么走?
more
非遗贺新春 博物馆里过大年丨直播预告:视频直播家乡年——华岩寺腊八节全文
|