用电量 8 年预估飙升 100 倍:英伟达 AI 服务器成“电老虎”_凤凰网
用电量 8 年预估飙升 100 倍:英伟达 AI 服务器成“电老虎” IT之家 10 月 16 日消息,行业分析师 Ray Wang 昨日(10 月 15 日)在 X 平台发布推文,报道称英伟达 AI 服务器功耗正以惊人速度增长,从 Ampere 架构到未来的 Kyber 架构,其机架级解决方案的功耗在短短八年内将飙升 100 倍。 IT之
真相了!AI算力暴增100倍,SiC不火都难?
先给大家算笔账:你家空调1.5匹,开一天约10度电;普通服务器机柜功率5-10千瓦,一天耗电120-240度,相当于20户家庭的日用电量。但AI服务器呢?黄仁勋去年放话:“未来AI服务器电力需求将从千瓦跃升至兆瓦级”——1兆瓦=1000千瓦,一个机柜一天要烧2.4万度电!相当于一个500户小区的日用电总量。这哪是...
电费要炸锅?AI每天多吃6吉瓦电!马斯克冷笑:看我用储能让电力翻倍!
当ChatGPT每天消耗的电量相当于30万户家庭,当英伟达DGX服务器集群每小时电费够买一辆特斯拉,当美国AI数据中心的用电需求正以每年400%的速度狂奔——马斯克突然在X平台扔下一颗炸弹:“美国电网躺着浪费一半电力,用电池把晚上的电存起来白天用,就能让发电量直接翻倍。”这句话像一把手术刀,精准剖开了全球能源危机...
AI成新电老虎!万亿用电慌不慌?中国把能源当武器用
当能源优势摆在桌面上,它就不再只是能源了。人工智能的竞争,说白了,就是一场能源的竞赛。高盛的报告预测,到2030年,中国的电力优势能给AI产业带来30%的成本领先。这也就解释了为什么英伟达的老总黄仁勋,总爱往中国的能源项目跑。过去十年,德国的工业电价涨了130%,而我们只涨了12%。凭借着全球28%的用电量...
AI变“电老虎”?中国特高压+东数西算 给算力套上绿色缰绳
当英伟达的GPU服务器在弗吉尼亚州的数据中心24小时轰鸣,57岁的凯文·斯坦利看着三年内暴涨80%的电费单终于明白:这场AI革命的代价,正从硅谷的服务器机房转嫁到每个普通家庭的电表上。彭博新能源财经的预警更让人脊背发凉:到2035年,全球数据中心的耗电量将占全球电力的4%以上——若将其视为""国家"",用电量将...
AI服务器耗电猛,液冷技术成主角,冷却液市场竞赛升级
你随便摸一台英伟达NVL72这样的AI服务器,单柜功率直接超120kW,相当于一个普通家庭一年的用电量被一台机器在一天就撸光。液冷技术很快就不是行业选项,而是生存底线。企业彼此暗战,抢产能、拼技术、卷环保标准,本质就是谁能让冷却液及时、环保、便宜、安全地供应给市场。但也不是所有企业都能一直high下去。一旦...
电费涨267%!数据中心变“电老虎”,算力饥渴症正在拖垮AI
这不是线性增长,是指数级狂奔——ChatGPT-4的算力需求是GPT-3的446倍,而华为预测2035年全球算力需求将是现在的10万倍。但供给端的“紧箍咒”越收越紧。上游看,英伟达垄断全球80%的AI芯片市场,B200芯片在亚洲长期缺货;下游数据中心是“电老虎”,美国部分区域居民区电费5年涨267%,2035年美国数据中心电力需求...
AI电费账单惊人,英伟达掀桌子革命!SiC与GaN联手破局?
可AI这头猛兽一出笼,好家伙,直接把那安静的铁皮屋子,变成了24小时不停火的巨型炼丹炉,烧的不是柴,是哗哗流淌的电。英飞凌那帮德国人,没事儿就爱算账,他们扒拉了一下算盘,说现在一张顶配的英伟达GPU跑起来,功耗就奔着1000瓦去了,比你家冬天用的“小太阳”电暖气还猛。这还只是前菜,他们说等到2030年...
当ChatGPT每训练一次耗掉3.6亿度电,是国家电力消耗,还是各国能源...
当ChatGPT每训练一次耗掉3.6亿度电,当英伟达H100服务器单台日耗电1000度,AI正在以“吃电怪兽”的姿态撕裂美国电网——但马斯克突然扔出“电网充电宝”:夜间把过剩的电存起来,白天喂饱AI,美国发电量直接翻倍。这不是科幻,而是正在逼近的能源革命:华泰证券数据显示,2026年美国AI数据中心将新增13吉瓦用电需求...
AI的基石是电力:全球算力竞争正驱动电网新一轮变革
AI这头“电老虎”,正悄悄改写我们的能源版图。到2030年,全球数据中心电力需求将占全球总用电量的8%,其中AI相关负载占比超过60%。光是维持DeepSeek这类大模型的基础算力集群,年耗电量就抵得上一个中型城市居民用电的总量。这不仅仅是数字游戏。 在美国弗吉尼亚州,承载全球70%互联网流量的“数据中心巷”已经撑...
当"耗电"遇上"节能":AI算力的绿色自救指南 - 知乎
支持AI算力的数据中心何以成为“电老虎”? 上面的例子只是微观状态下,一次简单的信息搜索的耗电量的对比。从宏观来看,AI的迅猛发展必然离不开强大的算力支撑,而AI成为耗电大户的原因主要就在于其庞大的算力需求。以大语言模型为例,其训练过程需要大量GPU支撑,而单块GPU的能耗就比CPU高出10-15倍,一块英伟达A100GPU功耗为40
人人都知道 人工智能 是“电老虎”,却很少有人计算过这头“巨兽”的...
人人都知道 人工智能 是“电老虎”,却很少有人计算过这头“巨兽”的饲料成本有多惊人。传统数据中心供电链路,从电网到芯片,像一条千疮百孔的管道,高达 12% 的能源在中途被白白浪费掉。英伟达新平台那恐怖的功耗,更是将这条旧管道直接推到了爆裂的边缘。 市场的惯性思维,是给“电老虎”添更多的水和电。但真正的...
几秒对话背后电力消耗激增,AI越智能越费电的原因
想训练这么强的模型,可不是在普通电脑上敲敲键盘就能搞定的。比如说,用一台专门用来做AI训练的英伟达DGX A100服务器,它待机时候就得耗掉6.5千瓦的电。要把GPT-4这类大型模型训练出来,可得上百、甚至上千台这样的服务器连跑几周,甚至几个月。估算下来,GPT-4的训练用电量大约是50吉瓦时,也就是差不多...
全球AI算力要炸了!英伟达新芯片要烧光一座城的电,中国企业哭着要买
更离谱的是,这位CFO还补了一刀:“现在你得选,是钱重要还是电重要?” 这话听着像段子,却扎扎实实地揭开了AI产业最荒诞的真相:当算力竞赛卷到要用核电站供电,英伟达拒绝降价、死磕性能的“傲慢”,反而成了最精明的生存法则。一、不跟你玩定制,我要当“算力电老虎”的驯兽师 最近科技圈最热闹的瓜,莫...
烧钱!5年砸330亿建AI服务器,却要排放2亿吨碳:这场狂欢该醒醒了!
一、“电老虎”狂奔:数据中心五年要耗4000亿度电,碳排放超2亿吨 “一台AI服务器的耗电量,相当于3000辆特斯拉跑一年。”行业里流传的这句话,正在变成现实。2024年,中国公有云大模型调用量已达114.2万亿Tokens,下半年日均Tokens消耗量更是暴涨近10倍。数据中心里,GPU像“饿狼”一样吞噬电力:国际能源署预警...
耗电如虎!AI 产业将导致全球用电量激增
2024 年,全球数据中心用电量在全球总用电量中的占比已达 1.5%-2%,这一数字看似不大,实则体量惊人。随着 AI 技术的普及,数据中心规模不断扩张。像训练大型 AI 模型,如 GPT-4,其耗电量可达数百万千瓦时,推理阶段的日常耗电量同样不可小觑。以 OpenAI 为例,为训练 GPT-3,其动用了 1024 块英伟达 ...
AI 正在“吸干”全球电力?更可怕的事还在后面
但是,报告同时显示,目前直接投入 AI 研发的能耗远低于数据中心和加密货币。英伟达在 AI 服务器市场中占据约 95%的份额,2023 年供应了约 10 万块芯片,每年耗电量约为 7.3 TWh。但是在 2022 年,加密货币的能耗为 110 TWh,与整个荷兰的用电量相当。
用电量破万亿,算力成新“电老虎”,中国电力底牌震惊全球
2025年8月,深圳,街头的新能源车像下雨后的蘑菇,充电桩前排队,屏幕上数字跳得快,增长53.5%,去年同期还没这阵势,充电站老板说:“你见过凌晨三点的充电站吗?我见过,都是没电的司机。”特斯拉工厂一年能用掉将近20亿度电,这还只是冰山一角。有人说,电是新石油,AI是新钢铁,这话听着有点浮夸,但...
AI成吞电狂魔!芯片巧玩灯塔术,电老虎时代或将终结
有机构估摸着,用不了两年,全世界数据中心耗的电,可能就要占到总用电量的百分之三到八,这里头,AI绝对是那个最能“吃”的。照这个势头下去,以后训练个新模型,耗的电可能真够一个小区用一阵子了。就在大伙儿琢磨着是不是得给AI的发展踩一脚刹车的时候,佛罗里达大学那帮工程师,搞了个有点意思的东西。他们...