...发布Rubin CPX,瞄准超长上下文处理,黄仁勋称一次推理数百万token
美东时间9月9日周二,英伟达发布新一代Rubin CPX芯片系统,专门针对AI视频生成和软件开发等大规模上下文处理任务,强化AI编码和视频处理能力。Rubin CPX定于2026年底上市,采用卡片形式,可集成到现有服务器设计中或作为独立计算设备在数据中心运行。这款芯片系统在技术规格上实现重大突破。Rubin CPX GPU提供30千万亿次
英伟达发布超长上下文推理芯片Rubin CPX 算力效率拉爆当前旗舰
财联社9月10日讯(编辑 史正丞)全球人工智能算力芯片龙头英伟达周二宣布,推出专为长上下文工作负载设计的专用GPU Rubin CPX,用于翻倍提升当前AI推理运算的工作效率,特别是编程、视频生成等需要超长上下文窗口的应用。英伟达CEO黄仁勋表示,CPX是首款专为需要一次性处理大量知识(数百万级别tokens),并进行人工智能推理的...
...CPX,瞄准超长上下文处理,黄仁勋称一次推理数百万token_ZAKER新闻
美东时间 9 月 9 日周二,英伟达发布新一代 Rubin CPX 芯片系统,专门针对 AI 视频生成和软件开发等大规模上下文处理任务,强化 AI 编码和视频处理能力。 Rubin CPX 定于 2026 年底上市,采用卡片形式,可集成到现有服务器设计中或作为独立计算设备在数据中心运行。 这款芯片系统在技术规格上实现重大突破。Rubin CPX G...
#英伟达发布Rubin CPX#,瞄准超长上下文... 来自华尔街见闻APP...
【#英伟达发布Rubin CPX#,瞄准超长上下文处理,黄仁勋称一次推理数百万token】Rubin CPX强化AI视频生成和软件开发能力,提供30 petaflops 算力,相比GB300 NVL72系统,注意力加速3倍,2026年底上市。黄仁勋说,Rubin CPX是首款专为大规模上下文AI而构建的CUDA GPU,模型可以同时进行数百万个知识token的推理。英伟达称,部署1亿...
首款专为大规模上下文 AI 设计的 CUDA GPU,英伟达 Rubin CPX
英伟达 CEO 黄仁勋将 Rubin CPX 与 RTX 进行了比较,他说:“正如 RTX 革新了图形和物理 AI,Rubin CPX 是首款专为大规模上下文 AI 设计的 CUDA GPU,能够在同一时间推理跨越数百万个知识符号的模型。”他还试图量化客户的投资回报,提到部署新硬件的 1 亿美元投资可以产生 50 亿美元的收益。英伟达表示,该硬件...
全球市场:美股三大指数集体收涨 纳指与标普创收盘新高 苹果跌超1%
英伟达发布超长上下文推理芯片Rubin CPX 算力效率拉爆当前旗舰 全球人工智能算力芯片龙头英伟达周二宣布,推出专为长上下文工作负载设计的专用GPU Rubin CPX,用于翻倍提升当前AI推理运算的工作效率,特别是编程、视频生成等需要超长上下文窗口的应用。英伟达CEO黄仁勋表示,CPX是首款专为需要一次性处理大量知识(数百万级别...
美股收盘:三大指数齐创收盘新高 中概金龙指数冲击三年半高位_凤凰网
【英伟达发布超长上下文推理芯片Rubin CPX】 英伟达周二推出专为长上下文工作负载设计的专用GPU Rubin CPX,用于翻倍提升当前AI推理运算的工作效率,特别是编程、视频生成等需要超长上下文窗口的应用。黄仁勋表示,CPX是首款专为需要一次性处理大量知识(数百万级别tokens),并进行人工智能推理的模型而构建的芯片。
美国高院同意快速审理关税案 币圈IPO再现火爆场面 | 环球市场...
【英伟达发布超长上下文推理芯片Rubin CPX】 英伟达周二推出专为长上下文工作负载设计的专用GPU Rubin CPX,用于翻倍提升当前AI推理运算的工作效率,特别是编程、视频生成等需要超长上下文窗口的应用。黄仁勋表示,CPX是首款专为需要一次性处理大量知识(数百万级别tokens),并进行人工智能推理的模型而构建的芯片。
美国高院同意快速审理关税案 币圈IPO再现火爆场面 | 环球市场|美元_新浪...
【英伟达发布超长上下文推理芯片Rubin CPX】 英伟达周二推出专为长上下文工作负载设计的专用GPU Rubin CPX,用于翻倍提升当前AI推理运算的工作效率,特别是编程、视频生成等需要超长上下文窗口的应用。黄仁勋表示,CPX是首款专为需要一次性处理大量知识(数百万级别tokens),并进行人工智能推理的模型而构建的芯片。
黄仁勋最新2万字演讲实录: - 知乎
腾讯科技讯 6月2日,英伟达联合创始人兼首席执行官黄仁勋在Computex 2024(2024台北国际电脑展)上发表主题演讲,分享了人工智能时代如何助推全球新产业革命。 以下为本次演讲的要点: ①黄仁勋展示了最新量产版Blackwell芯片,并称将在2025年推出Blackwell Ultra AI芯片,下一代AI平台命名为Rubin,2027年推Rubin Ultra,更新节奏...
黄仁勋:英伟达8年算力增长1000倍,能耗降低350倍!下一代Rubin GPU...
Blackwell已投产,2026年推出Rubin GPU 在今年3月的GTC2024大会,英伟达正式发布了面向下一代数据中心和人工智能应用的Blackwell GPU,时隔仅不到3个月,在此次的台大演讲当中,黄仁勋就披露了下一代的Blackwell Ultra GPU和再下一代的Rubin GPU。 据介绍,目前Blackwell芯片已经开始投产,它是当今世界
黄仁勋 2 个半小时演讲,英伟达已经进入「Agentic AI」时代
长思考的模型对于 Token 的需求有数倍提升|图片来源:英伟达 老黄表示,除了预训练和后训练(微调),测试时的 Scaling Law 才刚刚开始。(指模型推理阶段,动态分配计算资源以提升性能。例如,根据问题复杂度自动延长「思考时间」,或通过多次推理生成多个候选答案并择优输出) ...
...CPX,瞄准超长上下文处理,黄仁勋称一次推理数百万token|gpu|rubin|...
英伟达CEO黄仁勋表示,Rubin CPX是首款专为百万级token处理而构建的CUDA GPU。他说: "正如RTX革命性地改变了图形和物理AI,Rubin CPX是首款专为大规模上下文AI而构建的CUDA GPU,模型可以同时进行数百万个知识token的推理。" 英伟达宣称,新芯片的投资回报率达到30至50倍,部署价值1亿美元的新芯片硬件将为客户带来高达...
黄仁勋最新AI宏图:芯片年更、百万GPU集群将至,加速机器人和物理AI...
此外,他表示英伟达下一代平台已被命名为Rubin,并将在2026年推出Rubin GPU,2027年推出更强大的Rubin Ultra GPU,以及新一代基于Arm的Vera CPU和NVLink 6 Switch,并确保所有产品都保持100%的架构兼容性。黄仁勋还宣布每年推出新的Spectrum-X产品,其是全球首款专为AI打造的以太网网络平台。Spectrum-X800为数万个...
华尔街见闻早餐|2025年9月10日
美国最高法院将快速审理特朗普关税案。 苹果发布A19芯片搭载iPhone 17,史上最薄iPhone起售999美元,Pro八年来首次涨价,iPhone 17 Air国行版起售价7999元人民币。 英伟达发布Rubin CPX,瞄准超长上下文处理,黄仁勋称一次推理数百万token。 “外卖大战”新战局!阿里周三发布会:或重启口碑网、高德自营团购。* 提醒:...
英伟达Rubin CPX芯片:AI算力分餐制如何改写游戏规则?_财富号_东方...
美东时间2025年9月9日,英伟达正式发布Rubin CPX芯片系统,这款定于2026年底上市的产品被CEO黄仁勋称为"首款专为需要一次性处理大量知识(数百万级别tokens)并进行人工智能推理的模型而构建的芯片"(来源:英伟达CEO黄仁勋底层逻辑分析)。其采用分离式推理架构,将AI推理过程拆分为上下文处理与生成输出两个独立阶段,通...
美国高院同意快速审理关税案 币圈IPO再现火爆场面 | 环球市场...
【英伟达发布超长上下文推理芯片Rubin CPX】 英伟达周二推出专为长上下文工作负载设计的专用GPU Rubin CPX,用于翻倍提升当前AI推理运算的工作效率,特别是编程、视频生成等需要超长上下文窗口的应用。黄仁勋表示,CPX是首款专为需要一次性处理大量知识(数百万级别tokens),并进行人工智能推理的模型而构建的芯片。
美股收盘:三大指数齐创收盘新高 中概金龙指数冲击三年半高位|美元...
英伟达周二推出专为长上下文工作负载设计的专用GPU Rubin CPX,用于翻倍提升当前AI推理运算的工作效率,特别是编程、视频生成等需要超长上下文窗口的应用。黄仁勋表示,CPX是首款专为需要一次性处理大量知识(数百万级别tokens),并进行人工智能推理的模型而构建的芯片。
黄仁勋 GTC 演讲万字拆解:芯片性能狂飙 900 倍,机器人开源革命开启...
所以老黄切入正题,推出了其系列产品。两款 GPU,一款是 Blackwell Ultra GB300,这是去年发布的 Blackwell 的升级产品;二是全新一代的芯片架构Vera Rubin...通过强化学习的正向反馈机制持续优化模型,最终形成这样的训练闭环:整合数百个主题、生成数百万案例、进行数百次迭代训练,每次迭代产出数万 token——这些要素...
黄仁勋自曝英伟达最强Rubin架构! - 知乎
英伟达在1000美元的PC上添加了一张500美元的GPU,性能大幅提升;一个10亿美元的数据中心加上5亿美元的GPU,就能变成一个AI工厂。黄仁勋说,很多公司花费了数亿美元在云端处理数据,通过加速计算,可以节省数亿美元。8年内英伟达AI算力增加了1000倍,能以更低成本去训练大模型。比如训练1.8万亿参数、8万亿token的GPT-4,所...