TrendForce 预测:ASIC 方案在整体 AI 服务器中的占比到 2030 年有望接近四成 机构认为 GB300 已在上一季度成为英伟达出货主力,而新一代 VR200 系统有望从 2026Q3 末开始逐步实现出货。 AI 新资讯行业资讯# AI ASIC# AI芯片# TrendForce 1天前793494
郭明錤:英伟达投资 Groq 推动 LPU AI 芯片出货实现数量级成长 英伟达预计将把单一 LPX 机柜 / 机架中的 LPU 数量从当前的 64 颗提升至 256 颗,新型 LPX 系统预计 2026Q4~2027Q1 量产。 AI 新资讯行业资讯# AI芯片# groq# LPU 5天前896878
Counterpoint 预测:AI ASIC 对 HBM 内存需求四年猛增 35 倍 AI ASIC 阵营 HBM 需求的最重要推动者还是谷歌与其 TPU 芯片。HBM3E 仍将是 AI ASIC 阵营的主力高带宽内存品类。 AI 新资讯行业资讯# AI ASIC# AI芯片# Counterpoint 5天前1,032573
亚马逊 AWS 将部署 Cerebras 晶圆级 AI 芯片 CS-3,与自家 Trainium 配套使用 推理预填充属于并行工作负载,要求大算力和适中的内存带宽;推理解码本质上是串行的,算力需求较小但内存带宽要求高。组合使用能发挥两款 AI 芯片各自的长处。 AI 新资讯行业资讯# AI芯片# AWS# Cerebras 6天前1,139478
博通与伟创力旗下 JetCool 达成 AI XPU 液冷散热合作 JetCool 开发了一种单相芯片级 DLC 解决方案,可支持下代 AI XPU 的 4 W/mm² 发热密度与数千瓦总功耗。 AI 新资讯行业资讯# AI芯片# 伟创力# 博通 1周前1,229624
博通:客户主导型 AI XPU 项目需要高度成熟团队,暂不对 ASIC 业务构成威胁 博通拥有全面的芯片设计服务能力,能迅速以出色良率实现大规模量产,缩短 AI XPU 设计从实验室到数据中心的用时,这是现阶段 COT 模式所无法做到的。 AI 新资讯行业资讯# AI芯片# CPO# 博通 2周前1,494604
博通陈福阳豪言:AI 芯片 2027 年可为公司创造超 1000 亿美元收入 博通已确保 AI XPU 订单在 2027~2028 所需的先进制程、HBM、基板产能;预计 OpenAI 从 2027 年开始部署其首代 XPU,首年计算能力将超过 1GW。 AI 新资讯行业资讯# AI芯片# 博通 2周前1,415547
消息称 OpenAI 将成英伟达 × Groq“联名”AI 推理芯片头部大客户 《华尔街日报》称一些大型客户发现某些智能 AI 工作负载在仅使用 CPU 运行时比搭配 GPU 的混合方案更高效。 AI 新资讯行业资讯# AI芯片# groq# OpenAI 3周前1,511149
OpenAI 宣布采购 2GW 亚马逊 AWS Trainium 系列 AI 芯片云算力 AWS Trainium4 预计于 2027 年开始交付,将拥有显著提升的 FP4 计算性能、更宽的内存带宽、更高的显存容量。 AI 新资讯行业资讯# AI芯片# AWS# OpenAI 3周前1,582143
LLM 芯片初创企业 MatX 完成 5 亿美元 B 轮融资,正打造高吞吐低延迟产品 MatX 的 MatX One 芯片据称可实现业界领先的 LLM 吞吐量和与 SRAM 优先芯片相当的延迟表现 AI 新资讯行业资讯# AI芯片# MatX 3周前1,628261