2025-06-23 20:53:23 中华网
2025年6月21日,在华为开发者大会(HDC 2025)期间,华为云AI-Native智算存储高峰论坛成功举办。论坛汇聚学术和产业大咖、权威分析师以及行业头部客户,共话AI时代云存储产业趋势,分享创新实践经验,携手以数筑基,共赢智能未来。
人工智能大模型中的数据存储和处理
中国工程院院士郑纬民在以“人工智能大模型中的数据存储和处理”为主题的开场演讲中,围绕人工智能大模型全生命周期,深度剖析数据存储面临的挑战:
1. 在数据读取环节,大模型训练需要处理数亿至数百亿海量多模态小文件,读取时延是性能瓶颈;
2. 在数据预处理环节,预处理时间在模型训练中占比高达65%,需要提升数据预处理效率,缩短预处理时间;
3. 在模型训练和模型微调环节,面对海量的AI训练算力投入,需要减少AI算力等待,节省训练算力成本;
4. 在模型推理环节,日活用户快速增长以及长对话需求,长上下文KVCache存储带来显存容量瓶颈。
郑院士表示:“AI存储贯穿大模型全生命周期,是人工智能大模型的关键基座,先进的AI存储可支撑海量、稳定、高效的AI算力,共建高质量AI基础设施。”
中国工程院院士 郑纬民
华为云AI-Native智算存储,构筑高效普惠的AI数据底座
为适应AI普惠时代的带来,华为云存储服务产品部部长林超在业界首次提出AI云存储产业的技术发展倡导:AI时代,需要以存强算,打破训练“吞吐墙”;以存代算,打破推理“内存墙”;以存补算,打破模型“认知墙”;以存助算,打破数据“成本墙”;推动存储从“比特容器”向“AI加速器”跃迁。
林超提出华为云AI-Native智算存储的“6A”能力特征,即:
1. Any Data(任意数据): 支持NLP / CV / 多模态 / 文本 / 语音 / 视频 / 向量等不同模型、不同数据的存储和管理
2. Any Performance(任意性能):支持DRAM/SSD/HDD/冷介质分层存储,提供GB ~ MB级/s/TB的带宽密度,以及 ns级 ~ ms级的时延能力,适配不同AI场景的性能要求
3. Any Scale(任意规模): 支持TB级带宽、千亿级文件,PB~EB级分级存储池,匹配AI算力从千卡扩展到万卡规模
4. Any Access(任意访问):支持Regionless全域存储,全球存力一张网,公有云/混合云/边缘云多形态任意部署,数据全域可用
5. Any Interface(任意接口): 支持KV / CKPT / 内存 / HDFS / OBS / POSIX等不同协议语义访问,适应各种应用生态
6. Any Protection(任意保护):支持数据/模型防泄漏、防篡改,内容安全智能检测等统一全局安全防护架构,保障全域数据安全
同时,林超深度解读了华为云AI-Native智算存储方案创新及实践,面向AI全生命周期,通过高性能密度存储加速、超节点对等内存池化、高性能向量检索、智能分级等业界领先的创新技术,打造又快又省的一体化存储方案,高效解决大模型训练、自动驾驶、大模型推理、RAG检索增强等场景下面临的业务挑战,加速AI普惠。
华为云存储服务产品部部长 林超
AI云存储解决方案,重塑智能时代云存储价值
AI时代下,云存储不再只是支撑系统运行的成本项,而是释放AI价值的“加速器”。沙利文执行董事李庆在题为“AI云存储解决方案,重塑智能时代云存储价值”的演讲中,从技术演进方向、市场洞察、行业需求潜力、关键发展趋势、市场竞争等多维度进行专业深入的分析解读,重磅发布《2025年中国AI云存储解决方案市场报告》。
报告结果显示,华为云AI-Native智算存储获得“创新指数”和“增长指数”双料第一,位列领导者象限第一名。
华为云AI云存储解决方案技术优势:
1. 场景驱动:针对大模型、自动驾驶、具身智能等场景定制加速策略
2. AI推理:显存与算力解耦架构,显著提升推理吞吐并降低TTFT
3. AI训练:提供 TB 级吞吐、秒级故障恢复,加速模型训练加载效率
4. RAG检索增强:支持百亿级向量 TopK 秒级检索,提升复杂任务处理能力
沙利文执行董事 李庆
科大讯飞:AI云存储,破解AI教育的数据困局
科大讯飞运维总监刘火荣发表“AI云存储,破解AI教育的数据困局”主题演讲,深度阐释“大模型重构教育基因,AI 成为伴学刚需”的行业趋势。他指出,当前AI准确率与效果已达商业化水平,正通过重塑教育底层逻辑实现因材施教,为每位学生配备专属 “智能老师”。数据印证这一质变:AI调用量近年来呈指数级增长,高频使用已成常态。
面对百亿级教育资源、PB 级日增数据量及高并发读写挑战,科大讯飞借助 SFS Turbo三级缓存能力将单节点带宽提升8倍,结合AITurbo SDK实现数据快速加载,算力空闲率减少20%;基于OBS智能分级存储联动降本 20%;通过CBR 实现高速数据备份与防勒索保护。未来还将依托 LMS 构建个人知识库,以 EMS提升推理效率,持续完善适配教育 AI 全流程的存储解决方案。刘火荣强调:“华为云AI-Native智算存储赋能AI教育,助力科大讯飞打破数据困局,在‘数据迷宫’中开辟‘知识高速’,让每位学生的学习之路畅通无阻。”
科大讯飞运维总监 刘火荣
硅基流动:EMS打破“内存墙”,助力大模型推理快速进化
硅基流动致力于打造标准化、超高效能的生成式AI Infra产品,加速AGI普及。随着业务的发展,大模型推理的显存瓶颈不断加剧,推理算力成本不断攀升,推理过程中的多轮对话体验也面临挑战。
硅基流动首席架构师韩冠平指出:“硅基流动深度优化 DeepSeek 模型,基于CloudMatrix 384超节点,弹性内存存储EMS通过分布式内存池化技术,以存代算打破‘内存墙’,KVCache命中率提升20+倍,推理吞吐提升80%,实现历史KVCache存得下、访问快,节省推理资源。”
硅基流动首席架构师 韩冠平
乾崑智驾:AI-Native智算存储,支撑ADS 4的数据存储最优解
乾崑智驾云架构师陈翔指出:当前中国新能源车渗透率突破 50%,L3级智驾即将落地,单车日均产生 50TB 数据,全球路测数据总量超过200EB,数据规模增速远超算力与传统存储能力,需要提升数据处理效率,降低数据存储成本。
乾崑智驾团队凭借深厚的技术积累,携手华为云AI-Native智算存储,构筑智能驾驶数据架构的“存力支柱”,实现百PB 级数据存储协同降本,全流程安全防护;在训练、问答、泊车等场景中,基于LMS知识湖存储将向量规模从十亿级提升至百亿级,Top 10万
查询结果百毫秒级返回,将难例数据获取时间从周级缩短至分钟级。
乾崑智驾云架构师 陈翔
AI-Native智算存储先锋奖颁奖
华为云存储服务产品部部长林超向联合创新,场景化落地的行业客户,郑重颁发了“华为云AI-Native 智算存储先锋奖”。获奖先锋们以卓越的前瞻视野和技术能力,加速赋能千行百业,推动AI 普惠。
AI-Native智算存储先锋奖 颁奖仪式
在AI重塑世界的浪潮中,数据成为驱动创新的核心引擎。华为云AI-Native智算存储将持续携手行业客户和合作伙伴,共筑高效普惠的AI数据底座,释放每一比特数据的无限潜能,驶向智能未来的星辰大海。