首页 > 技术

为AI而生!宏杉科技重磅发布Alpha700 AI专用存储

2026-03-06 18:49:45      中华网   


  当大模型迈入万亿参数时代,算力与存力间的性能鸿沟,正成为智算升级必须突破的核心瓶颈。面对全新挑战,宏杉科技重磅推出AI专用存储——Alpha700,专为大模型训练与推理场景打造,在性能、可靠性与智能化水平上实现全面跃升,以坚实的存力基座,驱动大模型加速奔跑。

  01当算力遇困 存储成为破局关键

  在大模型训练与推理的舞台上,GPU一直是当之无愧的主角。但随着模型参数规模与上下文长度的指数级增长,挑战接踵而至。

  数据显示,当每轮输入8k tokens,运行6轮后,历史token的重复计算占比竟超过80%,这意味着,绝大部分GPU算力都耗费在“重复劳动”上,而非创造新的价值。

  要真正释放AI潜能,必须突破“堆砌算力”的单一思路。存储,已成为影响AI训推效率的关键变量。宏杉Alpha700顺势而生,旨在打通数据堵点,让每一份算力都能精准发力、物尽其用。

  02以存强算 铸就AI存储新标杆

  宏杉Alpha700的诞生,源于对“存算协同”的深刻理解,专为大模型训练与推理场景打造,在性能、可靠性与智能化水平上实现全面突破。

  其中,MSCache键值缓存调度系统是Alpha700实现以存强算的关键创新,可从数据供给层面优化大模型推理效率,破解算力空转与资源浪费难题。

  作为GPU集群与存储系统之间的智能缓存层,MSCache键值缓存调度系统通过搭建可扩展的PB级专属缓存空间,显著增加KV Cache驻留量,从而大幅提升缓存命中率,减少GPU冗余计算,带来双重收益:

  一是显著降低推理时延,让大模型响应更流畅;二是减少GPU工作负载,使同等规模的GPU集群可支持更高的用户并发,或处理更长的上下文,从而降低推理成本。

  同时,MSCache支持多GPU节点共享缓存,能够打破单节点局限,进一步提升缓存利用率与集群整体吞吐效率。

  目前,该系统已深度适配DeepSeek、通义千问等主流大模型,开箱即用,无需复杂二次开发即可快速部署,让AI智慧真正触手可及。

  依托多项关键技术突破,Alpha700集六大核心优势于一身,为AI负载打造坚实底座:

  存算解耦,灵活扩展

  内置MS-Lustre文件系统,将Lustre IO节点直接部署在存储控制器之上,大幅缩减IO节点服务器的硬件成本,更让存储与计算资源可以根据业务需求灵活扩展,告别“牵一发而动全身” 的束缚。

  极致性能,微秒时延

  提供单节点200万IOPS与120GB/s的最大访问带宽,同时全面支持文件协议与块协议,实现端到端RDMA,将数据访问时延压缩至微秒级,能够轻松应对大模型训练、深度学习推理等高并发、高吞吐场景,让GPU彻底告别等待。

  先进介质,智能分层

  兼容高性能NVMe SSD与大容量SAS/NL-SAS盘,最大可支持3200块硬盘,搭配自动分层技术,智能调度冷热数据,在保证极致性能的同时,有效控制成本,让用户的每一分投入都价值最大化。

  稳定可靠,业务永续

  采用控制器双活高可用设计,结合RAID技术与全局热备盘,确保数据万无一失;结合快照、克隆、异步复制等全方位数据保护功能,为AI训推的长久运行提供坚不可摧的保障。

  开放兼容,敏捷交付

  积极拥抱云原生生态,原生提供强大的OpenStack Cinder驱动,并深度对接Kubernetes容器平台,通过CSI接口为微服务与AI应用提供企业级持久化存储,灵活适配公有云、私有云、混合云等不同部署场景,全方位支撑企业AI应用云化转型。

  绿色低碳,面向未来

  2U 25盘位的高密度设计,不仅节省机房空间,更通过高效能架构降低能耗,以实际行动响应“双碳”战略,守护绿色未来。

  强算背后,存力先行。宏杉Alpha700 AI专用存储,以坚实存力释放澎湃算力,让每一次数据调用都成为智能进化的基石。未来,宏杉科技将持续深耕技术创新,推动存力与算力深度融合、协同共生,让前沿大模型真正转化为可落地的商业价值。

相关阅读

    无相关信息