应用

技术

物联网世界 >> 物联网新闻 >> 物联网热点新闻
企业注册个人注册登录

将 GPU 塞进 HBM,英伟达携手 Meta 等探索突破 AI 算力瓶颈

2025-11-27 09:35 IT之家
关键词:英伟达AI算力

导读:报道称英伟达携手 Meta、三星电子、SK 海力士等科技巨头,为提升 AI 性能,正探索将 GPU 核心集成至下一代 HBM(高带宽存储器)的技术方案。

  11 月 26 日消息,韩媒 ETNews 11 月 26 日发布博文,报道称英伟达携手 Meta、三星电子、SK 海力士等科技巨头,为提升 AI 性能,正探索将 GPU 核心集成至下一代 HBM(高带宽存储器)的技术方案。

  据多位业内人士透露,Meta 和英伟达正在积极探讨此方案,并已开始与三星电子、SK 海力士进行合作洽谈。

  援引博文介绍,该技术旨在打破传统计算架构中内存与处理器分离的模式,通过在 HBM 的基底裸片(Base Die)中植入 GPU 核心,实现计算与存储的深度融合。

  HBM 作为一种通过垂直堆叠多个 DRAM 芯片实现的高性能存储器,专为处理人工智能(AI)所需的海量数据而设计,其最底层的基底裸片目前主要负责内存与外部设备间的通信。

  即将于明年量产的 HBM4 已计划在基底裸片上集成控制器,以提升性能和效率。而此次讨论的“GPU 核心内嵌”方案,则是在此基础上更进一步的重大技术跨越,它将原本集中于主 GPU 的运算功能部分转移至 HBM 内部。

  将 GPU 核心植入 HBM 的主要目的在于优化 AI 运算的效率,通过将运算单元与存储单元的物理距离缩至最短,可以显著减少数据传输延迟和随之产生的功耗,从而减轻主 GPU 的负担。

  这种“存内计算”的思路,被视为突破当前 AI 性能瓶颈的关键路径之一,有助于构建更高效、更节能的 AI 硬件系统。

  要实现这一设想仍面临诸多技术挑战。首先,HBM 基底裸片受限于硅通孔(TSV)工艺,可用于容纳 GPU 核心的物理空间非常有限。

  其次,GPU 运算核心是高功耗单元,会产生大量热量,因此如何有效解决供电和散热问题,防止过热成为性能瓶颈,是该技术能否落地的关键。