行业资讯

时间:2025-08-04 浏览量:(61)

开放生态的力量:CANN 生态繁荣背后的开发者群像

当不同背景与层级的开发者并肩协作,当科研理论到产业应用的转化链路彻底打通,当全栈自主创新成为行业共同追求,一个多元、开放、协同的昇腾 CANN 生态正绽放出繁荣之花。
长久以来,开发者们深受 “封闭生态” 之苦。在大模型行业飞速发展的当下,部分厂商仍沉迷于构建 “围墙内的游戏”—— 表面上优化用户体验,实则在技术、数据与生态协同上筑起高墙,不断抬高创新门槛,给开发者套上了无形的枷锁。
与此同时,一场 “开放对抗封闭” 的运动正走向高潮。在鲲鹏昇腾开发者大会 2025 期间,坚持深度开放的昇腾异构计算架构 CANN,公布了一组令人瞩目的数据:深度参与贡献的开发者数量从 1000 多人迅猛增长至 6000 多人,覆盖操作系统、算子算法、整图优化、加速库等多个创新领域;来自互联网、运营商、金融等行业的 30 多个合作伙伴,成功开发出 260 多个高性能算子,大幅提升了大模型在实际业务场景中的性能表现……
为何在宣布深度开放仅两年时间里,昇腾 CANN 就成为中国 AI 创新的核心阵地?从三类开发者的故事中,我们或许能找到答案。

一、以需求牵引生态:企业开发者让业务问题生长为生态能力

检验一个开放生态的价值,场景落地是最直观的标尺。身处创新一线的企业开发者,既是生态养分的汲取者,也是生态价值的反哺者 —— 他们通过深度融入生态、紧密结合业务场景,赋予了昇腾 CANN 生态自我生长、自我造血的能力。科大讯飞便是其中的典型代表。
科大讯飞副总裁、AI 工程院院长潘青华,将与昇腾平台的深度合作总结为四个阶段:
第一阶段是 “敢用”。2023 年,国内尚无超大规模集群的成熟方案,科大讯飞与昇腾联手打造了国内首个自主创新的超大规模集群,迈出了探索的第一步;
第二阶段是 “真用”。2023 至 2024 年,科大讯飞在昇腾超大规模集群上训练星火大模型,性能从初期仅为业界水平的 30% 提升至 90%,印证了自主创新算力完全能支撑大模型研发达到世界领先水平;
第三阶段是 “会用”。2024 年,双方联合攻关团队实现了多种大模型在昇腾平台的长稳训练,断点续训的恢复时间从行业平均的 30 分钟缩短至 5 分钟以内;
第四阶段是 “用好”。2025 年 3 月,科大讯飞基于昇腾算力率先实现 MoE 模型的大规模跨节点并行集群推理,性能提升 3 倍。
作为昇腾 AI 的核心基础软件平台,CANN 搭建起 AI 框架与昇腾硬件之间的桥梁,是释放处理器极致性能的关键。针对 MoE 大模型训练的 “卡脖子” 难题,双方展开了多轮联合攻坚:
在算子层面,联合开发并优化 50 多个算子,其中科大讯飞自主开发的自定义关键算子超 10 个,包括优化 MoE 特有的关键算子(计算效率提升 15% 以上)、加速融合算子(端到端性能提升 5%);
在通信优化上,采用多种通信掩藏技术,将端到端通信占比压缩至 20% 以内,最终使星火 MoE 大模型的训练性能提升 2 倍,进一步释放了昇腾在计算、带宽和通信上的潜力。
值得一提的是,昇腾 CANN 在计算、内存、通信三个维度的创新(如超级算子 MLAPO、多重地址映射技术、NPUDirect 通信算法等),以及双方在真实场景中打磨的核心能力,都将开放给所有开发者。
科大讯飞的实践,正是中国企业合作创新的缩影。智谱、字节跳动、面壁智能、蚂蚁金服、美团等 20 多家头部企业,作为 CANN 生态落地的关键合作者,共同重塑了 AI 产业的创新范式。

二、以技术筑牢生态:工程化创新重构性能边界

大模型应用是一项系统工程,工程创新的价值同样不可替代。从单卡到集群,从算子到调度,从通信范式到内存布局,每一次性能跃迁的背后,都离不开技术层面的极致打磨。这些 “看不见的功夫”,让 AI 模型能跑得起、跑得快、跑得稳,最终走进真实世界的每一个场景。
在昇腾 CANN 生态中,一批擅长软硬件协同、系统调优、通信机制重构的技术团队,正用工程创新撬动生态演进。
清华系 AI 独角兽无问芯穹,基于 CANN 深度优化创新,有效降低了大模型推理的算力消耗。2025 年是 AI 应用大规模落地元年,推理算力需求激增,算力成本控制成为关键。为此,无问芯穹与昇腾针对大模型推理集群部署中的通信开销展开深度协同,通过全新的计算与通信重叠范式,专项优化昇腾硬件的多元通信语义,单算子性能最高提升 20%,显著降低了算力资源消耗。
AI Infra 创业团队清昴智能,基于昇腾 CANN 构建了从单卡效能到多卡集群的全局优化方案。针对企业普遍面临的性能释放不足问题,清昴智能通过 CANN 专项优化(如算子融合、调度策略改进、并行计算模式调整等),显著提升了昇腾 Duo 卡的推理性能,使其能运行 DeepSeek 满血版大模型;同时构建全链路方案,为 AIGC、自动驾驶等场景提供优质的自主创新选择。
清华大学计图(Jittor)团队则围绕前沿大模型,基于 CANN 生态构建了自主创新的推理框架。DeepSeek R1 “出圈” 后,计图团队迅速联合昇腾研发团队,历经三个月、数十次架构迭代、数百次功能更新,构建 MoE 专用算子体系,采用 INT4 量化技术、MLA 矩阵吸收、多维度混合并行等技术,实现性能与内存的双重突破,率先在昇腾单台 Atlas 800 服务器上部署了满血版 DeepSeek R1 模型。
这些技术团队如同生态系统中的 “技术支点”—— 他们或许不站在舞台中央,却用一行行代码、一次次迭代,为大模型应用打下了可落地、可扩展的技术基础。从推理性能的每一次提升到部署成本的每一次降低,这些工程创新不仅重构了模型能力的边界,更持续拓展着昇腾 CANN 生态的价值,让 AI 真正走进产业、走向现实。

三、以热爱点燃生态:高校开发者刻画的生态群像

一个开放生态的繁荣,不仅需要聚集开发者的力量,更需要用生态驱动商业闭环,形成持续的创新动能。这就不得不提第三类开发者 —— 他们从生态中汲取养分,又用实践经验反哺生态,通过深度融入与场景结合,赋予生态自我生长的能力。昇腾 CANN 生态的繁荣,离不开每一位因热爱而加入的开发者。
他们或许不是 “最亮的光”,却是点亮中国 AI 未来的星火;他们可能不为大众熟知,却始终在关键工程节点上默默耕耘。6000 位开发者的故事难以一一详述,但从两位教授身上,我们能看到他们的群像。
2022 年刚接触昇腾 CANN 时,陆璐教授曾感慨 “不够亲和,用起来比较费劲”。但不同于单纯的吐槽,他的团队在深入了解昇腾软硬件体系后,开始针对性优化 —— 将算子性能从 50% 提升至 100%,部分场景甚至从 200% 提升到 500%。作为开源开放的忠实拥趸,陆璐教授并未止步于性能优化,而是希望通过开源项目帮助更多开发者降低门槛,用更少时间、更少代码实现更高性能,最终与昇腾算子模板库 CATLASS 结下不解之缘。
正如他在鲲鹏昇腾开发者大会 2025 上所说:与国外友商相比,CATLASS 模板库在 FP32 精度下实现 2.78 倍加速效率,BF16 为 1.23 倍,FP16 为 1.17 倍,INT8 达 1.21 倍。未来,团队计划进一步迭代,开发 MoE 算力、通算融合算力及卷积类算子。
故事回到 2020 年,西北工业大学成为首批加入 “昇腾众智计划” 的高校。徐韬教授敏锐意识到合作的价值:过去深度学习课程常陷入 “纸上谈兵”,学生只能对着理论公式空想;而昇腾平台与资源池的引入,让学生能在云端完成建模、调参、部署全流程,真正实现 “手脑并用”。
徐韬教授第一时间组建项目小组,与学生一起打磨每个算子,同时积极参与昇腾社区的高校挑战赛、论坛、布道师等活动。学生们在解决实际问题的过程中,系统掌握了从算法设计到硬件适配的全链条技能。
两个月前上线 Gitee 社区的 CANN-Ops 算子共建仓,是国内首个面向昇腾开发者的算子共建平台。徐韬教授团队已自主开发并贡献近 30 个高性能算子,成为国内最早向昇腾 CANN 平台提供核心支持的高校团队之一,也是首个在 CANN-Ops 仓库中完成算子合入的团队。
陆璐和徐韬团队撬动的,不仅是算子开发效率的倍增,更是一个开发者交流经验、沉淀最佳实践、共建共创的平台。算子的每一次被使用、改写、反馈,都在将个体力量转化为集体势能,将工具价值转化为生态共振。生态从来不是技术的简单堆叠,而是一群人共同选择的道路。

结语:开放生态托举智能时代的核心竞争力

从活跃在开源社区的一线开发者,到深耕底层优化的工程团队,再到探索技术边界的领军企业,昇腾 CANN 已成为中国开发者生态中最活跃、技术迭代最迅猛的 AI 创新平台。
当不同背景的开发者聚集一堂,当科研到产业的链路彻底打通,当全栈自主创新成为行业共识,这个多元、开放、协同的 CANN 生态,正以空前的速度引领 AI 开发范式变革,托举起中国在智能时代的核心竞争力。


Search Bar

最新资讯

2025-08-27

服务器临时文件:概念、存储位置...

2025-08-21

2025 年 JavaScri...

2025-09-05

香港云服务器为何设置流量限制?...

2025-09-02

云服务器常见自动化运维工具:优...

2025-09-05

新手云服务器配置选择指南:稳定...