...Maia 200”出鞘! 推理狂潮席卷全球 属于AI ASIC的黄金时代到来
推理狂潮席卷全球 属于AI ASIC的黄金时代到来 美国科技巨头微软公司(MSFT.US)在美东时间周一重磅推出其升级换代后的第二代人工智能芯片(AI芯片),这是该科技巨头推动以更高能效比与性价比算力路径为其云端AI训练/推理算力资源服务提供的至关重要自研AI算力集群硬件,并为售价昂贵的英伟达AI GPU系列人工智能算力集群提供替代型AI
冲高回落!关税,利空突袭!中国市场,流入居首
1、微软在本周“交卷”——传闻已久的Maia 200芯片正式面世。微软披露,这款“为推理而生”的芯片在多项测试中超越亚马逊的第三代Trainium和谷歌第七代TPU。微软将Maia 200公开称为“所有超大规模云服务商中性能最强的自研芯片”。2、Counterpoint Research表示,非GPU服务器AI芯片 ——AI ASIC阵营在近期将经历高速...
AI产业链行业系列报告:26年算力景气度持续上行,关注互联、液冷...
自研ASIC芯片:2026年微软自研芯片Maia200、Maia300有望放量,此处假设自研ASIC服务器资本开支占比为5%,ASIC芯片占服务器价值量为50%,对应自研ASIC资本开支为25亿美金,假设购置Maia200、Maia300资本开支占比分别为25%、75%,假设Maia200、Maia300单价分别为0.5、0.7万美金,对应Maia200、Maia300采购量分别为11.6、27.5万...
3nm赛道,挤满了ASIC芯片 - 知乎
微软在ASIC 方面也在发力。Maia 200是微软为数据中心和 AI 任务定制的高性能加速器,同样采用 3nm 工艺,预计在 2026 年进入量产阶段,至于现在 Maia 100,也是专为在 Azure 中的大规模 AI 工作负载而设计。支持大规模并行计算,特别适合自然语言处理(NLP)和生成式 AI 任务。从现在的信息来看,这款产品微软选择和 Ma...
AI推理狂潮席卷全球 “英伟达挑战者”Cerebras来势汹汹! 估值狂飙...
与被英伟达“拿下”之前的Groq类似,Cerebras Systems 被视为英伟达在AI芯片领域最强劲的竞争对手之一,尤其是在AI推理(inference)这一快速增长的细分蓝海市场。Cerebras 的技术路线与英伟达AI GPU算力体系以及谷歌TPU(AI ASIC技术路线)都截然不同,它采用 “晶圆级引擎”(Wafer‑Scale Engine, WSE) 架构,将整个AI模型...
「AI ASIC」黄金时代:AI算力“去Nv垄断化”与多极产业链的投资机会...
随着大模型平价化(如DeepSeek大幅降低训练和推理成本),高级AI能力正快速向端侧渗透。 从智能手机的影像处理、智能音箱的语音交互,到智能门锁的人脸识别和扫地机器人的自主导航,这些场景都催生了对低成本、高能效AI ASIC芯片的海量需求。 D.北美CSP自研ASIC向端侧迁移 ...
从“跑分”到“落地”:AI推理2026迎来爆发期?
Groq的LPU是面向大模型推理打造的芯片架构,主打低时延与确定性执行,此举对于英伟达而言,目的仍是快速补全其AI推理短板。 另一边,谷歌则持续加大TPU布局,通过架构优化强化推理场景的能效优势;同时,围绕推理工作负载,微软推出Azure Maia加速器、亚马逊也持续迭代Inferentia等自研AI推理芯片。云厂自研路线与 GPU 路线并行推...
ASIC的时代即将到来?
亚马逊AWS以与Marvell联合设计的Trainium v2为主力,同步开发Trainium v3,TrendForce预测其2025年ASIC出货量增速将居美系云服务商首位。Meta在首款自研推理芯片MTIA成功部署后,正与博通开发下一代MTIA v2,聚焦能效与低延迟架构,适配高度定制化的推理负载需求。微软虽仍依赖英伟达GPU,但自研Maia系列芯片已进入迭代阶段,Maia...
ASIC成AI芯片更优选?多公司提前布局!散热、服务器等有望受益!
云厂商中,谷歌多年前就布局TPU,其第六代TPUTrillium在本月正式向客户开放使用;Meta今年推出了专为AI训练和推理设计的定制芯片MTIAv2;亚马逊有Trainium2,并计划明年发布Trainium3;微软则有自研AI芯片AzureMaia。TechInsights数据显示,去年谷歌已成为全球第三大数据中心处理器设计公司,位列CPU霸主英特尔和GPU霸主...
炸穿算力圈!2026年AI服务器狂飙28%+,ASIC占比冲27.8%!谷歌、微软...
谷歌的ASIC布局:自用+外销,双管齐下 谷歌对自研ASIC(TPU)的投资力度,远超其他CSP,技术迭代速度也是最快的。一方面,TPU全面部署在Google Cloud Platform,支撑Gemini的训练和推理;另一方面,谷歌还把TPU对外销售,卖给Anthropic等AI企业,直接把自研芯片变成了“赚钱工具”!Meta的ASIC布局:MTIA芯片,针对性发力...
DeepSeek时代,ASIC芯片加冕为王|TPU|AI|谷歌|集群|gpu_新浪新闻
AI大模型时代,LPU异军突起,作为一种全新的ASIC种类疯狂被“吹捧”。 早在今年1月有消息传出,美国推理芯片公司Groq已经在自己的LPU芯片上实机运行 DeepSeek,效率比最新的H100快上一个量级,达到每秒24000token。 此外,Groq曾于2024年12月在沙特阿拉伯达曼构建了中东地区最大的推理集群,该集群包括了19000个Groq LPU
AI芯片+算力服务器+光模块+数据中心,从GPU到ASIC,重塑全球算力...
亚马逊则通过Trainium和Inferentia两款芯片,为AWS用户提供比通用GPU更具成本优势的选择。 微软在自研芯片上也迈出了关键一步,推出了Maia 100。这些云厂商...公司预计其AI业务的收入规模将持续快速增长,尤其是在推理市场。由于推理任务对单片功耗和成本更加敏感,定制化ASIC的优势将比训练阶段更加明显。迈威尔通过提供...
AI-ASIC芯片行业正在爆发 在ChatGPT掀起全球AI浪潮的2023年,一个曾...
2. 云服务商的降本诉求:AWS Trainium 2芯片将模型训练成本降低50%,微软Maia 100则让Azure的AI算力成本较GPU方案减少28%。当企业每年在AI基础设施上的投入超过百亿美元时,每一分钱的节省都足以改变行业格局。 与GPU相比,AI ASIC在以下领域展现优势: 资料来源:涌津投资 ...
从“跑分”到“落地”:AI推理2026迎来爆发期
Groq的LPU是面向大模型推理打造的芯片架构,主打低时延与确定性执行,此举对于英伟达而言,目的仍是快速补全其AI推理短板。 另一边,谷歌则持续加大TPU布局,通过架构优化强化推理场景的能效优势;同时,围绕推理工作负载,微软推出Azure Maia加速器、亚马逊也持续迭代Inferentia等自研AI推理芯片。云厂自研路线与 GPU 路线并行推...
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇_鲸林...
自研ASIC芯片:2026年微软自研芯片Maia200、Maia300有望放量,此处假设自研ASIC服务器资本开支占比为5%,ASIC芯片占服务器价值量为50%,对应自研ASIC资本开支为25亿美金,假设购置Maia200、Maia300资本开支占比分别为25%、75%,假设Maia200、Maia300单价分别为0.5、0.7万美金,对应Maia200、Maia300采购量分别为11.6、27.5万...
可与H100一战,微软首款5纳米自研芯片震撼发布!Copilot引爆办公全家...
编辑:编辑部 【新智元导读】微软的全球首款自研芯片Maia来了,算力上能和英伟达H100、AMD MI300X一战。微软的全线产品,都加入了Copilot宇宙,连Bing Chat都正式更名Copilot。 微软深夜炸场,万物皆可Copilot! B…
从“跑分”到“落地”:AI推理2026迎来爆发期
Groq的LPU是面向大模型推理打造的芯片架构,主打低时延与确定性执行,此举对于英伟达而言,目的仍是快速补全其AI推理短板。 另一边,谷歌则持续加大TPU布局,通过架构优化强化推理场景的能效优势;同时,围绕推理工作负载,微软推出Azure Maia加速器、亚马逊也持续迭代Inferentia等自研AI推理芯片。云厂自研路线与 GPU 路线并行推...
从“跑分”到“落地”:AI推理2026迎来爆发期
Groq的LPU是面向大模型推理打造的芯片架构,主打低时延与确定性执行,此举对于英伟达而言,目的仍是快速补全其AI推理短板。 另一边,谷歌则持续加大TPU布局,通过架构优化强化推理场景的能效优势;同时,围绕推理工作负载,微软推出Azure Maia加速器、亚马逊也持续迭代Inferentia等自研AI推理芯片。云厂自研路线与 GPU 路线并行推...
从“跑分”到“落地”:AI推理2026迎来爆发期
Groq的LPU是面向大模型推理打造的芯片架构,主打低时延与确定性执行,此举对于英伟达而言,目的仍是快速补全其AI推理短板。 另一边,谷歌则持续加大TPU布局,通过架构优化强化推理场景的能效优势;同时,围绕推理工作负载,微软推出Azure Maia加速器、亚马逊也持续迭代Inferentia等自研AI推理芯片。云厂自研路线与 GPU 路线并行推...
研报| AI芯片自主化进程加速,云端巨头竞相自研ASIC - 与非网
Meta成功部署首款自研AI加速器MTIA后,正与Broadcom共同开发下一代MTIA v2。由于Meta对AI推理负载具高度客制化需求,MTIA v2设计特别聚焦能效最佳化与低延迟架构,以确保兼顾推理效能与运营效率。 Microsoft(微软)目前在AI Server建置仍以搭载NVIDIA GPU的解决方案为主,但也加速ASIC开发,其Maia系列芯片主要针对Azure云端...