2023-11-08 12:18:10 DOIT
Arm®今日宣布多项全新的战略合作,继续致力于推动人工智能(AI)的创新,并将AI的体验变为现实。除了自身已能实现AI开发的技术平台之外,Arm还与AMD、英特尔、Meta、微软、NVIDIA和高通技术公司等领先的科技企业携手合作,通过多项计划,聚焦于先进AI能力的实现,由此带来更快响应、更加安全的用户体验。这些合作计划将在所有计算进行之处,助力1500多万名Arm开发者,构建其所需的基础框架、技术和规范,带来新一代的AI体验。
Arm执行副总裁兼首席架构师与院士Richard Grisenthwaite表示:“AI的广泛应用依赖于软、硬件创新的持续协同。小到边缘侧运行工作负载的小型传感器,大到处理复杂工作负载以训练大语言模型(LLM)的大型服务器,软硬件的协同发展将在每个技术节点中,助力AI能力的提升。随着整个生态系统不断发掘AI的真正潜力,我们也将面临安全性、可持续性和数据瓶颈等诸多挑战。因此,继续探索行业内的协作至关重要,为此,我们才能实现AI的规模化,包括加大边缘侧的推理能力。”
助力边缘AI发展
当下生成式AI和LLM正成为人们关注的焦点,而鉴于在智能手机领域,70%的第三方AI应用都运行在Arm CPU上,Arm已引领边缘AI长达多年。在探索如何以可持续的方式实现AI并高效传输数据的同时,行业也需要继续发展以实现在边缘侧运行AI和机器学习(ML)模型,然而,开发者在此却面临着计算资源日益受限的难题,使这个任务的实现充满了挑战。
Arm正与NVIDIA展开合作,针对NVIDIA TAO进行适配。这是一套针对ArmEthos™-U NPU使用的低代码开源AI工具包,有助于构建性能优化的视觉AI模型,并将其部署于搭载Ethos-U的处理器上。NVIDIA TAO提供了一个易使用的界面,可在免费且开源的领先AI和ML框架——TensorFlow和PyTorch上进行构建工作,为开发者带来轻松无缝的模型开发和部署环境,同时赋能边缘设备实现更复杂的AI工作负载,提升AI体验。
在所有设备与市场中推动神经网络的应用
在边缘侧推进神经网络的部署是实现AI可持续增长的重要一环。Arm携手Meta,通过ExecuTorch,将PyTorch引入基于Arm架构的边缘侧移动和嵌入式平台。ExecuTorch可助力开发者更轻松地在移动和边缘设备上,部署先进的AI和ML工作负载所需的先进神经网络。Arm与Meta的合作将确保通过PyTorch和ExecuTorch,开发者能在未来更轻松地开发和部署AI与ML模型。
与Meta的合作依托于Arm在Tensor运算符集架构(TOSA)方面的巨大投入,TOSA为AI和ML加速器提供了通用框架,并支持广泛的深度神经网络工作负载。在基于Arm架构的各种处理器和数十亿的设备上,TOSA也将成为AI和ML的坚实基石。
推动产业规模化的AI
若要以相对低的成本实现AI规模化落地,支持广泛的数据格式至关重要。Arm一直在为诸多专注于AI工作负载的新型小数据类型提供支持。
去年,Arm、英特尔和NVIDIA联合发布了新型8位浮点规范,即“FP8”。自此FP8格式发展迅猛,参与合作的企业已扩大至AMD、Arm、谷歌、英特尔、Meta和NVIDIA,并共同制定了正式的OCP 8位浮点规范(OFP8)。在最新的A-profile架构更新中,Arm添加了与该标准一致的OFP8,以助力其在行业内神经网络中的快速普及。OFP8是交换8位数据格式,使软件生态系统能够轻松共享神经网络模型,从而不断提高数十亿设备上的AI计算能力。
开放的标准对于推动AI生态系统的创新、一致性与互操作性至关重要。为继续支持相关标准的行业协作,Arm于近日正式加入了MX联盟,该联盟旗下成员包括了AMD、Arm、英特尔、Meta、微软、NVIDIA和高通技术公司。近期,MX联盟针对名为微扩展的新技术,进行技术规范的合作。这项技术基于芯片设计领域多年的探索与研究,是一种用于AI应用的窄位(8位和8位以下)训练与推理的精细扩展方法。该规范对窄位数据格式进行了标准化,以消除行业的碎片化,实现AI的规模化。
秉承合作精神,MX联盟通过开放计算项目OCP,以开放、免许可的形式发布了MX规范。OCP项目由超大规模数据中心运营商和计算基础设施领域的其他行业参与者组成,旨在促进相关技术在业内的广泛采用。这也体现了各方认识到在生态系统中对可扩展AI解决方案提供公平访问的必要需求。
前所未有的AI创新
Arm已成为全球AI部署的基础。Arm致力于为开发者提供构建先进、复杂的AI工作负载所需的技术,而上述的种种合作只是Arm众多举措中的一部分。从传感器、智能手机和软件定义汽车,到服务器和超级计算机,Arm将成为未来AI发展的基石。