ChatGPT掀起的新一轮人工智能狂欢下,隐藏在背后的“大模型”正进入越来越多开发者的视野。
诚如几年前开始流行的一种说法:数据是燃料、模型是引擎、算力是加速器。ChatGPT的出现,恰如其分地诠释了数据、模型和算力的“化学反应”。而在其中扮演“桥梁”角色的,恰恰是上承应用、下接芯片的AI框架。
正是在这样的背景下,市场调研机构Omdia通过对AI开发者进行调研,在日前发布了《中国人工智能框架市场调研报告》,向外界揭示了国内开发者对于AI框架的认知,以及不断变化的行业格局。
01 开发者眼中的AI框架市场
随着ChatGPT的热度越来越高,不少人坦言:“人工智能领域正在引发新一轮科技竞赛”,其实AI的学术竞赛在2020年前后就已经开始。
OpenAI在这一年推出了著名的GPT-3,拥有1750亿参数量;DeepMind的AlphaFold2在第14届国际蛋白质结构预测竞赛中夺冠;同时全球AI论文发表量逐年增长,来自中国的论文比例越来越高...... 顶会论文、大模型、科学智能代表的技术生态,达到了前所未有的热度。
同样是在2020年,以昇思MindSpore等为代表的中国AI框架纷纷开源,开始了追赶TensorFlow、PyTorch等前辈们的追逐赛,中国AI框架的崛起和技术生态的繁荣,不可避免地出现了交叉。
就像Omdia在《中国人工智能框架市场调研报告》中给出的观点:在大模型应用的趋势下,国内开发者对于AI框架的认知发生了一些微妙的变化。
比如“对于超大规模模型训练能力,您觉得哪个人工智能框架最好?”的问题中,36%的开发者投票给了TensorFlow/JAX,15%的开发者选择的是PyTorch,昇思MindSpore以10%的占比排名第三。
需要说明的是,开发者的答案在某种程度上受到了认知习惯的影响,自然而然地给“老牌框架”打了高分。譬如谷歌的TensorFlow并非原生支持大模型,通过新推出的另一个新生框架JAX作为TensorFlow的简化库融入;PyTorch则是靠第三方并行算法库补充了大模型支持能力。昇思MindSpore正依托原生支持大模型的能力快速崛起。
再比如“您认为最适合做AI for Science项目的人工智能框架是?”的问答下,TensorFlow和新生框架JAX收到了45%的开发者支持,昇思MindSpore在这个问题下超过了PyTorch,以37%的支持率排名第二。

而在人工智能框架使用率的排名中,TensorFlow和PyTorch的先发优势依然存在,但昇思MindSpore以11%的份额进入第一梯队。TensorFlow早在2015年就已经开源,PyTorch的历史也可以追溯到2017年,昇思MindSpore比“前辈”们晚了三到五年,但表现出了快速赶超老牌AI框架的态势,扮演了“挑战者”的角色。
如果说Omdia的报告主要是基于开发者的认知,可能与实际情况存在一定出入,那硬核的技术生态与行业生态的合作,则以板上钉钉的数字佐证着昇思MindSpore等中国AI框架崛起态势:
在技术生态方面,昇思MindSpore已经与200多所高校、科研机构展开创新合作;在行业生态方面,仅在2022年获得昇思技术认证的企业就超过800多家,涵盖制造、金融、电信运营商等国计民生行业;在开源生态方面,昇思MindSpore在Gitee AI开源项目综合排名TOP1,软件下载增速第一,总量已超过370万……
02 昇思MindSpore越级的时与势
一个残酷但有现实意义的现象是,2020年AI框架市场还是一幅百家争鸣的景象,目前却出现了典型的虹吸效应。
按照Omdia的调研数据,在中国人工智能框架的使用率方面,TensorFlow、PyTorch、昇思MindSpore和飞桨合计占了86%的市场份额,大多数AI框架的使用率不足1%,曾经声名鹊起的Caffe、CNTK等已逐渐掉出主流队伍,只有昇思MindSpore一家逆势进入了AI框架的第一梯队。
想要弄清问题的答案,昇思MindSpore可以说是最好的研究对象。过去近三年时间里,昇思MindSpore到底做对了什么?
第一个参考答案是大模型的“时”。
2021年9月的华为全联接大会上,昇思MindSpore迭代至1.5版本,最直接的变化就是原生支持AI大模型训练,通过全自动并行、可视化智能调优等大幅提升了大模型的开发效率。
其中在大模型并行训练上,昇思MindSpore支持数据并行、MoE并行、优化器并行、多副本并行等7大并行计算能力,将训练千亿模型的代码量降低了80%、调优时间下降60%;和TensorFlow、PyTorch等框架相比,昇思MindSpore是支持模型结构最全的AI框架,包含稠密、稀疏MoE、卷积结构、高维稀疏等。
第二个参考答案是应用创新的“势”。
2022年11月发布的2.0版本中完成了AI与HPC的融合,通过神经网络模拟的非线性拟合,让科学家无需再解高维方程,进一步提升了科技创新效率。特别是在产业应用创新方面,昇思MindSpore构建了流体仿真、电磁仿真、分子模拟在内的科学计算套件,持续使能应用创新。
和PyTorch的兴起不谋而合,昇思MindSpore也将技术生态作为“先手棋”。印证昇思MindSpore “路线正确”的案例,绝不止Omdia的报告和开发者的认同,还有一份沉甸甸的成绩单。

衡量创新能力的一个重要标准正是论文数量。按照Papers with Code网站的统计数据,2022年使用昇思MindSpore的顶级会议论文已经超过600篇,在国内AI框架中排名第一,在全球范围内仅次于PyTorch。
而在大模型的创新中,目前国内科研院所和高校已经发布了10多个基于昇思MindSpore的大模型。其中紫东.太初是全球首个三模态大模型,能够实现视觉、文本、语音三个模态间的高效协同,曾在2022世界人工智能大会上斩获“卓越人工智能引领者”奖;东方.御风是业界首个工业级流体仿真大模型,在进行飞机流场模拟仿真时,对比传统的科学计算,在精度一样的情况下,东方.御风的仿真时间只需要原来的1/25。
如果把人工智能产业生态比喻成森林的话,人工智能框架就像是森林中的土壤,寻求创新的开发者自然会“择水土而居”。
03 不应被忽视的可信AI问题
在全民“调戏”ChatGPT的风潮中,ChatGPT有时会“一本正经地胡说八道”,这其实暴露了存在事实性错误、知识盲区和常识偏差等诸多问题。
Omdia在《中国人工智能框架市场调研报告》中向开发者询问了类似的问题,最终的答案似乎超出了一些人的料想:在所有主流人工智能框架中,国内的开发者普遍认为TensorFlow 与 昇思MindSpore 对“负责任的人工智能”提供的支持最好。

个中原因其实不难解释。为了打消开发者担心的安全隐私等问题,谷歌通过Model Cards等工具让框架更加透明、更具备可解释性,同时TensorFlow也提供了一系列支持数据安全和隐私的功能、库和培训工具。
昇思MindSpore之所以能够在可信方面超越PyTorch,离不开对AI安全技术体系的布局,提供了涵盖AI训练、AI测评、AI部署的一整套端到端的安全可信体系,包括联邦学习、模型水印、模型加密等外界所熟知的可信机制。
比如联邦学习是一种常见的隐私保护方式,可以在不收集数据的情况下协同进行模型的训练,实现数据的“可用不可见”,继而保护隐私信息。然而联邦学习和大模型的结合也产生了诸多挑战,涉及到计算代价、通信开销、隐私泄露、模型安全等等,需要解决隐私保护与效率的两难课题。
昇思MindSpore的回答是跨域可信训练。
以鹏城.盘古大模型为例,昇思的联邦学习能力助力盘古超大模型协同训练,根据各地算力情况将大模型拆分,以AI计算中心超大算力实现盘古主干网络的正反向训练,同步在银行等计算机房做数据处理,模型Embedding、TOP层算Loss正反向训练,实现了敏感数据不出本地,并让联邦学习的训练时延降低了30%、通信和计算开销降低了40%。

就像Omdia在报告中的评论:“负责任的人工智能”即是一套道德准则,又是一套技术体系, 是以安全、可靠和合乎道德的方式开发、评估、部署和规模化人工智能系统的方法,对人工智能的可持续发展非常重要。
大模型、科学智能等技术生态在过去三年时间里深入影响了开发者对AI框架的选择,把时间再拉长一些的话,能否在可信AI方面有所作为,能否打消开发者的疑虑,无疑将左右AI框架下一个三到五年的市场排位。
04 写在最后
人工智能的星星之火能否燎原,AI框架有着不可或缺的作用。
一座城市的繁荣,不在于有多高的摩天大楼,而是无处不在的建筑群。沿循这样的逻辑,AI框架的价值在于赋予不同的开发者“建造高楼”的能力,让人工智能的前沿能力进入每一个行业、每一家企业。
至少,以昇腾AI为首的中国人工智能产业建设者早已开始发力。
不只是昇思MindSpore在技术生态上的异军突起,Atlas系列硬件、异构计算架构CANN、昇腾应用使能MindX等软硬件也在持续创新,为开发者打造了“端、边、云”的全场景AI基础设施,让人工智能在千行百业不断扩散。
申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!
2025年10月25日,2025世界青年科学家峰会之人工智能(AI)融合创新发展论坛在浙江温州成功举办。本次论坛由国际院士科创中心主办,中国投资协会能源投资专业委员会、温港院士科创中心承办,中国电工技术学会、中科先进技术温州研究院与温州市电力工程学会提供支持,以“瓯江论道-AI赋能绿色发展”为主题,
个人创业需要启动成本低、无需庞大团队、可快速验证、能利用个人技能或资源。这里分享适合个人创业的十个机会一.AI内容优化与本地化服务·做什么:帮助企业或个人利用AI工具(如GPT-4,Midjourney)优化内容生产流程。例如,为跨境电商撰写多语言产品描述,为小红书博主生成爆款文案,为小公司制作营销
百度AI团队今日正式推出PaddleOCR3.1版本,以突破性的多语言组合识别(MultilingualCompositionPerception,MCP)技术为核心,彻底重构复杂文档处理边界。此次升级标志着OCR领域首次实现对同一文档内任意混合语言文本的精准识别,为全球化企业、跨境业务及多元文化场
导航网站的崛起:从信息过载到精准触达随着全球AI工具数量爆发式增长(2025年已超数万款),用户面临前所未有的选择困境。传统搜索引擎的“关键词-链接”模式难以应对工具筛选的场景需求,垂直化、场景化的AI导航网站应运而生。这类平台通过聚合、评测、分类与推荐四重机制,将分散的工具资源整合为结构化入口。例
当微信公众号文章中出现一个人的名字,它会自动变成蓝色链接,点击即可查看AI生成的“个人简历”——这一微信新功能让不少用户感到被“扒光”在互联网上。近日,微信新上线的“AI搜索”功能陷入隐私泄露争议漩涡。多位网友在社交平台反映,当微信公众号推文中出现本人姓名时,名字会自动变为蓝色超链接,点击即可浏览由
凌晨两点,小王合上笔记本,揉了揉酸胀的眼睛。花了一个月写出来的10万字短剧剧本躺在硬盘里,要真正把它拍成剧,得找演员、租场地、请摄像、做后期……粗算下来少说要几十万,他只能把剧本继续锁在抽屉里。不过,现在小王的剧本可以“见光”了。2026年3月19日,字节跳动旗下的小云雀AI正式上线了短剧Agent
你一定遇到过这样的场景:明明刚和AI助手聊了半个小时的项目细节,退出会话后重新打开,它却像个失忆患者一样,连你上一轮说过什么背景信息都忘得一干二净,你又得从头把需求讲一遍。这种“聊完就忘”的体验,让无数使用AI智能体的用户深感头疼。为了解决这一普遍困扰,腾讯云在4月3日正式推出了名为“龙虾”的记忆服
4月3日凌晨,谷歌DeepMind悄然甩出一枚重磅炸弹——全新一代开源大模型Gemma4正式发布,以极其宽松的Apache2.0协议向全球开发者免费开放。这是自2025年3月发布Gemma3以来,谷歌时隔整整一年的重大迭代。本次发布的Gemma4包含四个不同规格的版本:E2B(有效20亿参数)、E4
AI龙虾也会生病。别怕,大部分病不是什么绝症,自己在家就能治。我养OpenClaw一年多,总结出五种最常见的毛病,附上我的“土方子”,希望对你有用。病一:不吃食(完全不执行任何任务)症状:你给了指令,它没反应,日志里一片空白。就像龙虾趴在塘底不动弹,碰它也不理。病因:通常是进程卡死了,或者依赖服务没
养过真龙虾的人都知道,投喂是个技术活。喂少了,龙虾饿得互相残杀;喂多了,剩饵坏水,整塘发病。OpenClaw这个AI龙虾也一样——你给它安排的任务太少,它会“闲得发慌”,反应迟钝;你一次塞给它太多复杂任务,它会“消化不良”,要么报错要么干一半就卡住。每天该喂几次?我的经验是:每天喂两次,早上一次简单
养过真龙虾的人都知道,苗种的好坏直接决定收成。养AI龙虾也一样——OpenClaw有不同版本,有的稳定但功能少,有的功能多但爱“闹脾气”。新手该怎么选?我用自己的踩坑经历告诉你。版本怎么选?OpenClaw目前主要有三个分支:稳定版(Stable)、测试版(Beta)和社区魔改版(Community
我第一次听说OpenClaw,是在一个技术群里。有人发了一串代码,说“这个AI龙虾特别好养,会自己找食吃”。我好奇点进去,结果对着终端发了一小时呆——连环境都没搭起来。后来我才明白,养AI龙虾跟养真龙虾一样,新手入门得先做足功课。第一问:我的电脑跑得动吗?很多人以为AI龙虾就是个聊天机器人,打开网页
4月2日,字节跳动旗下火山引擎在武汉举行的AI创新巡展上宣布,Seedance2.0API正式面向企业用户开启公测。同时,火山引擎总裁谭待在会上披露,截至今年3月,豆包大模型日均Token使用量已突破120万亿,在过去三个月内增长一倍,比2024年5月发布时增长1000倍。Seedance2.0:从
养AI小龙虾的路上,坑不少。有人被代装服务骗了钱,有人电脑中了毒,有人收到天价账单,还有人发现AI“失控”了,开始乱删文件。如果你也遇到这些糟心事,别慌。下面这份“养虾应急包”,告诉你第一时间该做什么。场景一:代装被骗,钱打水漂了花了300块找人远程装OpenClaw,结果对方收了钱就拉黑,或者装了
把AI智能体请进电脑,就像把家里所有的钥匙交给了一个陌生人。它能帮你打扫房间、整理文件,但万一它“起了坏心”,或者被坏人利用了,你的家就不再安全了。这不是危言耸听。国家互联网应急中心已经发布风险提示,指出OpenClaw的默认配置“极为脆弱”,攻击者一旦得手,能轻易获取系统控制权。微软安全团队也警告