初创用3000万造不可编程的AI芯片,推理速度是Nvidia最强GPU 50倍
2026 年 2 月 21 日,一家名为 Taalas 的芯片初创公司正式揭开面纱,发布了它的第一款产品:一颗将 Meta 的 Llama 3.1 8B 大语言模型几乎完整“刻进”硅片的推理芯片 HC1。按照该公司公布的数据,这颗芯片在单用户场景下可以跑到 17,000 tokens/s 的输出速度,大约是目前市面上最快竞品 Cereb
初创用3000万造不可编程的AI芯片,推理速度是Nvidia最强GPU 50倍
2026 年 2 月 21 日,一家名为 Taalas 的芯片初创公司正式揭开面纱,发布了它的第一款产品:一颗将 Meta 的 Llama 3.1 8B 大语言模型几乎完整“刻进”硅片的推理芯片 HC1。按照该公司公布的数据,这颗芯片在单用户场景下可以跑到 17,000 tokens/s 的输出速度,大约是目前市面上最快竞品 Cerebras 的近 9 倍,...
初创用3000万造不可编程的AI芯片,推理速度是Nvidia最强GPU 50倍
2026 年 2 月 21 日,一家名为 Taalas 的芯片初创公司正式揭开面纱,发布了它的第一款产品:一颗将 Meta 的 Llama 3.1 8B 大语言模型几乎完整“刻进”硅片的推理芯片 HC1。按照该公司公布的数据,这颗芯片在单用户场景下可以跑到 17,000 tokens/s 的输出速度,大约是目前市面上最快竞品 Cerebras 的近 9 倍,...
24人团队硬刚英伟达!AMD前高管梦之队出手,新芯片每秒17000个token...
峰值推理速度高达每秒17000个token。 什么概念呢?当前公认最强的Cerebras,速度约为2000 token/s。 速度直接快10倍,同时成本骤减20倍、功耗降低10倍。 这就意味着,LLM真正来到了亚毫秒级的即时响应速度。实机效果be like: 但这块一夜之间刷屏硅谷的芯片,并非出自英伟达、AMD之手,而是一家成立仅两年、团队仅有24人的...
初创用3000万造不可编程的AI芯片,推理速度是Nvidia最强GPU 50倍
当前AI 推理芯片市场大致可以按专用化程度排列成一个光谱:一端是 Nvidia GPU 这样的高度通用方案;中间是 Groq、Cerebras、SambaNova 等,它们设计了针对 LLM 推理优化的定制架构,但仍保留可编程性,能运行多种模型;Etched 更往前走一步,专门针对 Transformer 架构设计芯片,牺牲部分灵活性换效率;而 Taalas 直接站在了...
超3000万颗出货!这家可重构AI芯片公司凭什么能领跑国产算力?
陈逸伦告诉TechSugar,目前清微智能可重构芯片累计出货已超过3000万颗。而在云端AI芯片方面,清微智能AI算力卡销量超2万张。 据IDC最新数据统计,2025年上半年,清微智能在国产非GPU(含可重构新架构及AISC)加速卡销量中位列第六,已成功跻身国产算...
看见风暴的下一秒:AI重写全球天气预测体系 - 知乎
NVIDIA CorrDiff:利用生成式 AI 解决极端天气事件 与在同样条件下使用传统方法相比,使用 CorrDiff 每年成本可降低至其 1/50,能耗降至其 1/25。这意味着,过去在一组 CPU 集群上运行、能源消耗需花费近 300 万美元才能完成的工作,现在使用包含 NVIDIA Hopper GPU 的单个系统仅需大约 6 万美元即可完成。
Cerebras拟以22...@脑渊AI科技观察的动态
AI芯片初创公司Cerebras正在洽谈以220亿美元估值融资10亿美元,为2026年第二季度IPO做准备。该公司以其"晶圆级引擎"(Wafer-Scale Engine)著称,最新WSE-3芯片包含4万亿晶体管和近90万AI核心,提供125 petaflops算力。Cerebras采用"单芯片替代千颗GPU"策略,专注于AI推理市场。 Cerebras的技术路线与Nvidia截然不同:不做小...
OpenAI被曝对英伟达芯片“速度”不满 黄仁勋、奥特曼紧急灭火
近日,一则关于OpenAI对英伟达(NVIDIA)AI芯片性能不满的消息,在科技圈掀起轩然大波。据路透社援引多位知情人士报道称,OpenAI认为英伟达部分最新AI芯片在“推理”环节的响应速度未达预期,已着手寻找替代方案。对此,OpenAI CEO奥特曼与英伟达CEO黄仁勋迅速隔空回应,极力否认双方关系出现裂痕。核心矛盾:推理速度成“痛点...
北京AI芯片初创融资近10亿,推理性能领先主流GPU
让我惊讶的是,他们不是在纸上谈兵,而是真刀真枪地做出了3D TokenPU。实测下来,这颗芯片在内存带宽、容量和大模型推理性能上,竟然超过了主流GPU。跑Llama、Mixtral这些海外开源模型时,推理吞吐量甚至达到了英伟达H200的1.26到2.19倍。这不是空喊口号,而是数据在说话。这种自信,源自他们对3D架构的笃定——...
黄仁勋(美国工程院院士、NVIDIA创始人兼首席执行官) - 百度百科
在2023年NVIDIA首席科学家Bill Dally的演讲中,则提到过去十年间,他们的团队将单个GPU的AI推理性能提高了1000倍。在NVIDIA,黄氏定律作为一项提高计算机性能的重要指标,为研究团队提供方向。标志性皮衣 自2013年起,黄仁勋开始以皮衣、黑衬衫的穿着打扮出现在公共场合。由于常年皮衣不离身,且鲜明的穿着使其有别于
推理和机器人,哪一个才是英伟达「AI工厂」的增长故事?__财经头条...
而具备自主推理能力的Agentic AI发展趋势之下,势必带动物理AI的发展。GTC会议上,英伟达带来Blackwell Ultra、推理系统Dynamo、Blackwell NVLink 72、下一代AI芯片Rubin等全新发布,用性能回应需求。 AI芯片将「年更」,Rubin性能达Hopper「900倍」 AI的发展让数据中心的资本支出不断攀升,数据显示,2028年数据中心资本支出将...
...日18时_今日实时AMD热点速递|芯片|Llama|显卡|gpu|谷歌_新浪新闻
这款由初创公司Taalas研发的芯片,凭借每秒17000个token的峰值推理速度,成为当前AI芯片领域的现象级产品。与传统方案相比,HC1不仅将推理速度提升10倍,更将成本...4、不可错过的2025年顶级显卡性能对比:NVIDIA与AMD的较量 近年来,随着游戏和图形处理需求的不断提升,显卡市场的竞争愈演愈烈。2025年3月,装机之家发布了最...
AI芯片之争 | 没有高算力GPU,人工智能就是人工智障 - 未来半导体
A100芯片是英伟达2020年推出的,可以提供更快速度和更高计算能力,专用于AI推理或训练场景。 H100芯片是2022年推出的性能更强的新一代产品,采用台积电为英伟达定制的4nm工艺,拥有800亿个晶体管,是有史以来世界上最先进的通用AI芯片。 图源:英伟达 A100/H100是目前性能最强的数据中心专用GPU,市面上几乎没有可规模替代...
英伟达新品芯片,黄仁勋用四字揭惊天秘密!
经过二十多年发展,600万开发者、将近6000个应用,这种盘子根本不是短期能撼动的。而Rubin CPX配套的NVIDIA Dynamo推理平台,可以把硬件算力转化成实际收益——英伟达的数据是每投1亿美元,就能产生最大50亿美元的Token收益。换句话说,他们不仅给你芯片,还帮你把算力换成钱,这对数据中心运营商的吸引力很难拒绝。
推理专用芯片,火了 在AI技术从实验室走向规模化落地的进程中,推理...
在AI技术从实验室走向规模化落地的进程中,推理(Inference)环节正成为决定体验与成本的核心竞争——专门为推理优化的芯片,已然成为科技行业的新风口。要理解这股热潮,首先要厘清AI工作流中训练与推理的本质差异。 在AI工作流中,训练(Training)与推理(Inference)承担着截然不同的角色。训练阶段通过大量带标签数据迭代优化...
...颗芯片,召唤出最强AI超算!|gpu|nvidia|平均售价|英伟达|黄仁勋_手机网...
NVIDIA Vera Rubin POD采用英伟达6大自研芯片,涵盖CPU、GPU、Scale-up、Scale-out、存储与处理能力,所有部分均为协同设计,可满足先进模型需求并降低计算成本。 其中,Vera CPU采用定制Olympus核心架构,Rubin GPU引入Transformer引擎后NBFP4推理性能高达50PFLOPS,每GPU NVLink带宽快至3.6TB/s,支持第三代通用机密计算(第一...
性能暴增150%的地表最强AI芯片发布,英伟达捍卫算力“霸主”|钛...
英伟达表示,基于GB300的英伟达GB300 NVL72 机架级解决方案的 AI 性能比 GB200 NVL72 高出 1.5 倍,与使用英伟达Hopper构建的工厂相比使Blackwell的AI工厂收入机会增加50倍。同时,与Hopper一代相比,NVIDIA HGX B300 NVL16 在大型语言模型上的推理速度提高11倍,计算能力提高7倍,内存增加4倍,从而为 AI 推理等...
Cerebras:挑战英伟达,全球最快AI推理芯片的“魔法” - 知乎
尽管芯片市场上还有AMD等厂商,但在需要大规模算力集群的大模型预训练阶段,英伟达几乎是唯一一个接收过数万块GPU芯片性能运行验证与反馈的平台,这对其他芯片厂商来说存在非常高的门槛,当然,英伟达GPU软件栈在加速方面也具有优势。 随着大模型推理需求大幅增长,开发者可以使用小规模的算力开发生成式AI应用,由此形成了一个...