首页 > 技术

《2025大模型服务性能排行榜》发布,蓝耘元生代多项指标领航业界

2025-09-16 11:06:56      西盟科技资讯   


  在2025年9月13日举办的 GOSIM 2025大会现场,清华大学与中国软件评测中心(CSTC)联合发布的《2025大模型服务性能排行榜》由清华大学计算机系高性能所翟季冬教授正式揭晓。据介绍,本次评测涵盖了20余家大模型服务商提供的数百个模型服务,围绕延迟、吞吐、可靠性等关键指标,对主流大模型服务提供商的性能表现展开全面评估。从这份权威评测报告来看,蓝耘元生代MaaS平台在多个维度展现出强劲实力,多个模型在延迟、吞吐等关键指标上位居行业前列,技术实力与服务性能得到充分验证。

  在关乎用户体验的延迟指标上,蓝耘元生代表现亮眼:在DeepSeek-R1-0528、DeepSeek-V3.1、Kimi-K2-Instruct三款模型的延迟测试里,均跻身前三。其中,“DeepSeek-V3.1”模型首字延迟仅0.79秒,位列第一,超越七牛云、阿里云百炼、火山方舟等多家服务提供商,响应效率优势显著;更值得关注的是,其搭载的Qwen3-235B-A22B 模型以0.58秒的首字响应,斩获本次评测最佳延迟表现,领先于移动云、华为云,进一步印证其在大模型推理优化领域的领先水平。

  与此同时,在模型吞吐性能维度,蓝耘元生代MaaS平台同样表现出色。在DeepSeek-R1-0528(44.20 Tokens/s)、DeepSeek-V3.1(63.54 Tokens/s)、Qwen3-235B-A22B(61.29 Tokens/s)模型的吞吐量测试中,均稳居前三,显示出其在高并发场景下优异的处理效能。

  据了解,蓝耘元生代MaaS平台面向企业开发者、创业者及非技术用户提供开箱即用的热门AI模型服务,支持零代码便捷体验、API快速集成、私有化部署等多种使用方式,可满足不同用户在数据安全、特定应用场景方面的个性化需求。

  随着大模型应用迈向深水区,“模型即服务”(MaaS)已成为众多开发者调用AI能力的首选途径,它不仅降低了模型使用门槛,更加速了AI技术的普惠化进程。在此背景下,蓝耘从底层算力支撑到 AI 模型应用,为企业开发者、创业者与科研机构提供高性能、低延迟、高可用的智算基础设施服务,其构建的开放兼容的元生代MaaS服务底座,正为大模型在复杂场景下的高效推理应用源源不断地提供着坚实有力的支撑。

相关阅读

    无相关信息