AI 智能体
  • 首页
  • 与AI对话
  • AI 工具箱
  • AI 新资讯
  • AI 知识库
  • AI 图书馆
    • AI人物传记
    • AI入门科普
    • AI教程指南
    • AI科幻作品
    • AI科研教学
    • 元宇宙
      • 未登录
        登录后即可体验更多功能
    • 首页
    • 与AI对话
    • AI 工具箱
    • AI 新资讯
    • AI 知识库
    • AI 图书馆
      • AI人物传记
      • AI入门科普
      • AI教程指南
      • AI科幻作品
      • AI科研教学
      • 元宇宙
    未登录
    登录后即可体验更多功能

    AI芯片

    共 42 篇文章
    排序
    发布更新浏览点赞
    TrendForce 预测:ASIC 方案在整体 AI 服务器中的占比到 2030 年有望接近四成

    TrendForce 预测:ASIC 方案在整体 AI 服务器中的占比到 2030 年有望接近四成

    机构认为 GB300 已在上一季度成为英伟达出货主力,而新一代 VR200 系统有望从 2026Q3 末开始逐步实现出货。
    AI 新资讯行业资讯# AI ASIC# AI芯片# TrendForce
    2个月前
    3,013494
    高通首批机架级 AI 软硬件解决方案开启交付,基于 AI 100 芯片

    高通首批机架级 AI 软硬件解决方案开启交付,基于 AI 100 芯片

    HUMAIN 将在第一阶段部署 1024 个 AI100 加速器,首个客户为 Adobe。
    AI 新资讯行业资讯# AI100# AI芯片# HUMAIN
    2个月前
    2,996760
    博通:客户主导型 AI XPU 项目需要高度成熟团队,暂不对 ASIC 业务构成威胁

    博通:客户主导型 AI XPU 项目需要高度成熟团队,暂不对 ASIC 业务构成威胁

    博通拥有全面的芯片设计服务能力,能迅速以出色良率实现大规模量产,缩短 AI XPU 设计从实验室到数据中心的用时,这是现阶段 COT 模式所无法做到的。
    AI 新资讯行业资讯# AI芯片# CPO# 博通
    2个月前
    2,959604
    LLM 芯片初创企业 MatX 完成 5 亿美元 B 轮融资,正打造高吞吐低延迟产品

    LLM 芯片初创企业 MatX 完成 5 亿美元 B 轮融资,正打造高吞吐低延迟产品

    MatX 的 MatX One 芯片据称可实现业界领先的 LLM 吞吐量和与 SRAM 优先芯片相当的延迟表现
    AI 新资讯行业资讯# AI芯片# MatX
    2个月前
    2,943261
    博通陈福阳豪言:AI 芯片 2027 年可为公司创造超 1000 亿美元收入

    博通陈福阳豪言:AI 芯片 2027 年可为公司创造超 1000 亿美元收入

    博通已确保 AI XPU 订单在 2027~2028 所需的先进制程、HBM、基板产能;预计 OpenAI 从 2027 年开始部署其首代 XPU,首年计算能力将超过 1GW。
    AI 新资讯行业资讯# AI芯片# 博通
    2个月前
    2,885547
    SambaNova 发布第五代 RDU AI 芯片,与英特尔达成多年期合作

    SambaNova 发布第五代 RDU AI 芯片,与英特尔达成多年期合作

    软银将率先在其位于日本的下一代 AI 数据中心率先部署 SN50 芯片。包括英特尔资本在内的投资者参与了 SambaNova 的 3.5 亿美元 E 轮融资。
    AI 新资讯行业资讯# AI芯片# SambaNova
    2个月前
    2,717942
    郭明錤:英伟达投资 Groq 推动 LPU AI 芯片出货实现数量级成长

    郭明錤:英伟达投资 Groq 推动 LPU AI 芯片出货实现数量级成长

    英伟达预计将把单一 LPX 机柜 / 机架中的 LPU 数量从当前的 64 颗提升至 256 颗,新型 LPX 系统预计 2026Q4~2027Q1 量产。
    AI 新资讯行业资讯# AI芯片# groq# LPU
    2个月前
    2,671878
    亚马逊 AWS 将部署 Cerebras 晶圆级 AI 芯片 CS-3,与自家 Trainium 配套使用

    亚马逊 AWS 将部署 Cerebras 晶圆级 AI 芯片 CS-3,与自家 Trainium 配套使用

    推理预填充属于并行工作负载,要求大算力和适中的内存带宽;推理解码本质上是串行的,算力需求较小但内存带宽要求高。组合使用能发挥两款 AI 芯片各自的长处。
    AI 新资讯行业资讯# AI芯片# AWS# Cerebras
    2个月前
    2,564478
    OpenAI 宣布采购 2GW 亚马逊 AWS Trainium 系列 AI 芯片云算力

    OpenAI 宣布采购 2GW 亚马逊 AWS Trainium 系列 AI 芯片云算力

    AWS Trainium4 预计于 2027 年开始交付,将拥有显著提升的 FP4 计算性能、更宽的内存带宽、更高的显存容量。
    AI 新资讯行业资讯# AI芯片# AWS# OpenAI
    2个月前
    2,537143
    Counterpoint 预测:AI ASIC 对 HBM 内存需求四年猛增 35 倍

    Counterpoint 预测:AI ASIC 对 HBM 内存需求四年猛增 35 倍

    AI ASIC 阵营 HBM 需求的最重要推动者还是谷歌与其 TPU 芯片。HBM3E 仍将是 AI ASIC 阵营的主力高带宽内存品类。
    AI 新资讯行业资讯# AI ASIC# AI芯片# Counterpoint
    2个月前
    2,127573
    加载更多
    AI 智能体
    本平台内容均来源于投稿和网络,部分内容由 AI 生成,请仔细甄别。本站对其实际跳转后内容不负任何责任。收录时内容正常,但不保证内容长期真实完整。如无意侵犯您的权益,请联系本站,我们将及时处理。
    扫码关注公众号AI 智能体
    扫码关注公众号
    扫码加微信好友AI 智能体
    扫码加微信好友
    Copyright © 2025 南山区数字名师高老师 AI 智能体--助教伴学 粤ICP备2025399194号-1  
    🤖 AI智能助手
    本回答由 AI 生成,内容仅供参考,请仔细甄别。
    点击图标与AI对话
    🤖
    点击图标给AI发送信息
    1
    网址
    网址文章软件书籍