首页 > 新闻

AI设备内存方案介绍:美光LPDDR5X与HBM3E技术特性详解

2026-02-09 11:09:58        


  几年前,AI应用主要依托云端算力完成复杂运算,端侧设备更多扮演数据采集与显示的角色。如今,随着NPU、TPU等计算单元在终端设备中的普及,端侧AI推理能力快速提升,这一变化为内存和存储技术带来新的应用需求。美光作为DRAM和NAND技术领域的前沿企业,其产品在AI生态系统中的作用日益凸显。

  【端侧AI推理的技术特征】

  端侧AI推理在本地处理数据,区别于传统的云端处理模式。这种方式具有网络延迟更短、隐私保护更强的特点,同时减少了对网络连接的依赖。数据在端侧设备和数据中心之间的传输量减少,能够节省能源消耗。内存瓶颈在模型训练和推理阶段是一个重要问题,高带宽内存HBM可有效缓解云端的瓶颈,而LPDDR5X则为端侧设备提供了高带宽与高能效。这些内存技术可确保AI工作负载能高效快速执行,无论它们位于端侧还是云端。

  美光的产品基于业界前沿制程节点,能效表现卓越,其中采用前沿1γ制程节点的产品在业界同类产品中脱颖而出。从端侧AI到物联网设备,各行各业的客户依靠美光的优势地位与专业积淀,来应对数据处理方面的技术挑战。

  【分布式AI模型的内存需求】

  端侧与云端协同运作的分布式模型,在AI工作负载处理中展现出实用价值。代理式AI系统可驻留在终端设备中,当遇到无法完全解答的问题时,会向云端或数据中心中更复杂的AI模型寻求答案,然后返回响应。这种协同方式对内存和存储配置提出了具体要求。

  AI数据中心需要构建完整的内存与存储层级架构,包括高密度DDR5模块、LPDDR5X、采用CZ122的CXL扩展内存池、采用9650 NVMe SSD的本地SSD数据缓存,以及采用6600 ION的联网数据湖。端侧智能设备同样需要均衡的内存和存储组合配置,以保持AI工作负载的持续响应。LPDDR5X等低功耗DRAM可提供实时处理所需的带宽,而快速、高效的存储可用于处理模型数据和推理结果。

  【不同设备场景的内存配置】

  随着AI持续演进,内存与存储在端侧应用及设备中的重要性不容忽视。无论是手机、PC和汽车领域的企业,还是工业与机器人行业的先行者,都需要考虑这些核心器件,以确保AI工作负载的运行。美光提供快速、高效、可靠的解决方案,其技术不仅能存储数据,更能将数据转化为智能洞察。

  在手机领域,LPDDR5X器件和基于UFS的uMCP多芯片封装方案,可满足移动设备对功耗和性能的双重要求。PC领域可选用DRAM模块和客户端SSD存储的组合配置。汽车和工业场景则适合采用车用和工业用SSD存储,配合LPDDR模块使用。这些产品基于1γ DRAM技术和G9 NAND技术,在能效表现上具有技术优势。

  据Gartner预测,2025年支持生成式AI的端侧设备硬件支出将增长99.5%,达到39亿美元。市场增长为内存和存储制造商带来机遇,美光的节能型内存和存储解决方案组合能够在各类端侧设备上实现AI应用。从DRAM器件、基于CXL的内存到管理型NAND、NAND闪存,产品线覆盖了端侧AI和云端基础设施的不同层级需求。

相关阅读

    无相关信息