韩国 FuriosaAI 今年量产 2 万颗 RNGD 芯片,计划云与端侧双轨并行 短期内 RNGD 将从初版的 48GB HBM3 升级到 72GB HBM3E,从内存侧增强推理性能。而迭代产品将于 2028 年面世。 AI 新资讯行业资讯# AI芯片# FuriosaAI# RNGD 1个月前1,544473
韩国 AI 芯片企业 Rebellions 完成 4 亿美元 IPO 前融资,估值约 23.4 亿美元 Rebellions 接下来将专注在美国市场的扩张,实现 Rebel100 NPU 平台的规模化生产,并为未来的 IPO 做准备。 AI 新资讯行业资讯# AI芯片# Rebellions 1个月前1,832706
TrendForce 预测:ASIC 方案在整体 AI 服务器中的占比到 2030 年有望接近四成 机构认为 GB300 已在上一季度成为英伟达出货主力,而新一代 VR200 系统有望从 2026Q3 末开始逐步实现出货。 AI 新资讯行业资讯# AI ASIC# AI芯片# TrendForce 2个月前3,013494
郭明錤:英伟达投资 Groq 推动 LPU AI 芯片出货实现数量级成长 英伟达预计将把单一 LPX 机柜 / 机架中的 LPU 数量从当前的 64 颗提升至 256 颗,新型 LPX 系统预计 2026Q4~2027Q1 量产。 AI 新资讯行业资讯# AI芯片# groq# LPU 2个月前2,671878
Counterpoint 预测:AI ASIC 对 HBM 内存需求四年猛增 35 倍 AI ASIC 阵营 HBM 需求的最重要推动者还是谷歌与其 TPU 芯片。HBM3E 仍将是 AI ASIC 阵营的主力高带宽内存品类。 AI 新资讯行业资讯# AI ASIC# AI芯片# Counterpoint 2个月前2,127573
亚马逊 AWS 将部署 Cerebras 晶圆级 AI 芯片 CS-3,与自家 Trainium 配套使用 推理预填充属于并行工作负载,要求大算力和适中的内存带宽;推理解码本质上是串行的,算力需求较小但内存带宽要求高。组合使用能发挥两款 AI 芯片各自的长处。 AI 新资讯行业资讯# AI芯片# AWS# Cerebras 2个月前2,564478
博通与伟创力旗下 JetCool 达成 AI XPU 液冷散热合作 JetCool 开发了一种单相芯片级 DLC 解决方案,可支持下代 AI XPU 的 4 W/mm² 发热密度与数千瓦总功耗。 AI 新资讯行业资讯# AI芯片# 伟创力# 博通 2个月前3,029624
博通:客户主导型 AI XPU 项目需要高度成熟团队,暂不对 ASIC 业务构成威胁 博通拥有全面的芯片设计服务能力,能迅速以出色良率实现大规模量产,缩短 AI XPU 设计从实验室到数据中心的用时,这是现阶段 COT 模式所无法做到的。 AI 新资讯行业资讯# AI芯片# CPO# 博通 2个月前2,959604
博通陈福阳豪言:AI 芯片 2027 年可为公司创造超 1000 亿美元收入 博通已确保 AI XPU 订单在 2027~2028 所需的先进制程、HBM、基板产能;预计 OpenAI 从 2027 年开始部署其首代 XPU,首年计算能力将超过 1GW。 AI 新资讯行业资讯# AI芯片# 博通 2个月前2,885547
消息称 OpenAI 将成英伟达 × Groq“联名”AI 推理芯片头部大客户 《华尔街日报》称一些大型客户发现某些智能 AI 工作负载在仅使用 CPU 运行时比搭配 GPU 的混合方案更高效。 AI 新资讯行业资讯# AI芯片# groq# OpenAI 2个月前3,486149