史上用户增速最快消费级应用ChatGPT,自去年11月底发布以来,让全球为其狂欢,各方势力仍持续为此“上火”:用户急着试探ChatGPT是否真的有那么聪明 ,每天有超过2亿的人都在疯狂抛出各式各样的问题“刁难”ChatGPT,并展现自己的“调教”成果;

(ChatGPT每日点击访问量统计 图源:国盛证券研究所)
国内互联网大厂们 基于要“活下去”的心愿和讲更动听的AI故事,急着与ChatGPT扯上关系 :一时间百度、腾讯、阿里等纷纷拿出相关技术布局以及底层设施储备,为中国的ChatGPT奋力一战;
近3个月过去,ChatGPT热度丝毫未减,有关部门也在努力:
2月24日,东数西算一体化算力服务平台在宁夏银川正式上线发布。据悉,东数西算一体化算力服务平台将瞄准目前最稀缺、刚需迫切的ChatGPT运算能力,以支撑中国人工智能运算平台急需的大算力服务。
目前,该平台已吸引曙光、中国电子云、天翼云、阿里云、华为、中兴等大算力头部企业,以及国家信息中心、北京大数据研究院等中国主要大数据机构入驻。
各方势力蜂拥而至,足以见得,目前的算力填补不了ChatGPT们的需求,众志成城,才能打赢ChatGPT算力攻坚战。
本文试图探究,ChatGPT到底需要多大的算力?升级算力的路子是什么?
ChatGPT,企图榨干算力
通用AI时代来临,人类对于算力的需求正逐渐失控。
伴随着摩尔定律失效,大模型时代来临,算力不再“淡定”,每5-6个月就要翻倍,以困兽冲破牢笼之势飞速增长:

(模型发布时间及算力变化 图源:浙商证券)
2018年,谷歌带着3亿参数BERT模型,闯进大众视野,开启大规模预训练模型时代;在这之后,OpenAI、英伟达、微软先后推出15亿参数的GPT-2、83亿参数的Megatron-LM、170亿参数的图灵Turing-NLG,各个大厂暗自较劲,参数规模从十亿级别竞争到了百亿级别。
2020年6月,OpenAI又将算力“战场”拔高了一个层级:推出1750亿参数的GPT-3,把参数规模提高到千亿级别。随后一山更比一山高:微软和英伟达在2020年10月联手发布了5300亿参数的Megatron-Turing自然语言生成模型(MT-NLG)。
2021年,国内迎来预训练大模型元年。在这一年里,华为、百度、阿里等中国企业开始发力:
华为云联合北京大学发布盘古α超大规模预训练模型,参数规模达2000亿;
百度推出ERNIE 3.0 Titan模型,参数规模达2600亿;
阿里达摩院的M6模型参数达到10万亿,又将大模型参数带到新的高度 ……
在这之中表现最为亮眼的,莫过于从GPT-3迭代而来的ChatGPT,2022年底一出世就博得全球目光,无论是在模型预训练阶段,还是模型被访问阶段, ChatGPT都对算力提出“史无前例”的要求。
在模型预训练阶段, 从GPT-1到GPT-3,从GPT-3 Small到GPT-3 175B,对算力的需求呈指数型增长。
在大模型的框架下,每一代 GPT 模型的参数量均高速扩张,参数量从GPT-1的1.17亿个,翻了1029倍至GPT-3 的1750 亿个;
具体来看,在GPT-3历代模型中,短短2年,参数量便从GPT-3 Small的1.25亿个,翻了1399倍至GPT-3的1750亿个,未来GPT-4还要翻倍:根据 Altman 的介绍,预计GPT-4的参数将会达到2800亿个。
与此同时,在模型被访问阶段,ChatGPT对算力同样有着“狂热”需求:
据Similarweb数据,ChatGPT官网在2023年1月27日-2月3日一周内吸引的每日访客数量高达2500万。假设以目前的稳定状态,每日每用户提问约10个问题,则每日约有2.5亿次咨询量。
如果想要“消化”掉这2.5亿次咨询量,根据国盛证券测算,需要大量的A100 GPU芯片“连夜赶工”:
假设每个问题平均30字,单个字在A100 GPU上约消耗350ms,则一天共需消耗729,167个A100 GPU运行小时,对应每天需要729,167/24=30,382片 英伟达A100 GPU。
也就是说,目前每天2.5亿次咨询量,需要30,382片英伟达A100 GPU同时计算,才能把ChatGPT“喂饱”,以下是ChatGPT部分耗费(电费以0.08美元/kwh计算):

而以上图表所显示的,仅仅是2.5亿咨询量需求下,使用英伟达A100 GPU相关设备,ChatGPT所需要的算力成本。
其背后对能源的消耗,更是“触目惊心”。
环球零碳研究中心曾粗略合计了ChatGPT全生命周期的碳足迹:自2022年11月30日运行以来,其制造设备的碳排放量超过了33.41吨,模型训练碳排放超过552吨,运行60天碳排放约为229.2吨。
也就是说上线两个月的ChatGPT,全过程碳排放超过了814.61吨,而这,相当于186个丹麦家庭每年消耗的能量。
现阶段ChatGPT背后的大模型仍在迭代,每日访问量仍在递增,未来还会有更多的ChatGPT们涌现。彼时,算力以及其背后的功耗还能顾得过来吗?
对此,苏妈表示了担忧:在ISSCC 2023上,苏妈表示根据目前计算效率每两年提升2.2倍的规律,预计到2035年,如果想要算力达到十万亿亿级,则需要的功率可达500MW,相当于半个核电站能产生的功率,“这是极为离谱、不切合实际的”。

(2010-2040功率发展情况 图源:2023 IEEE international Solid-State Circuits Conference)
为了达到这样的效果,我们的计算效率起码要每两年提升2.2倍,才能匹配上2035年的算力需求。苏妈坦言,尽管用上目前最先进的计算技术、最先进的芯片,也满足不了ChatGPT们。
而当ChatGPT吞噬完大量算力、能源,“吃饱喝足”之后,各国打的不再是算力之争,而是“国运之争”:一旦搭载ChatGPT的人形机器人能够大批量地上岗时,吃人口红利的国家不再有显著的优势。
ChatGPT们,包括未来的人形机器人们, 正对算力、能源“虎视眈眈”,同时对人类的威胁也不容小觑:往小了看,影响到个人职业发展,往大了看,牵扯到国家竞争力。
存算一体承载和释放ChatGPT
而一切的一切,都得从打好算力之争开始。
传统的AI1.0时代的代表企业,例如AMD已经开始探寻新的出路:依靠系统级创新实现更大的突破。系统级创新,即从整体设计的上下游多个环节协同设计来完成性能的提升。
一个经典案例是,在对模型算法层面使用创新数制(例如8位浮点数FP8)的同时,在电路层对算法层面进行优化支持,最终实现计算层面数量级的效率提升:相比传统的32位浮点数(FP32),进行系统级创新的FP8则可以将计算效率提升30倍之多。而如果仅仅是优化FP32计算单元的效率,无论如何也难以实现数量级的效率提升。
于是,为解决“如何用更少的电,输出更高的算力”这一终极命题,业内给出不少技术及方案:量子计算(量子芯片)、光机芯片、芯粒(Chiplet)、3D封装、存算一体……。同时也有团队将这些技术进行结合,以期达到系统级创新。
在这之中,现在能够兼容CMOS工艺又能尽快量产的有芯粒、3D封装、存算一体。而芯粒、存算一体是目前业内普遍认为,能够突破 AI 算力困境,进行架构创新的两条清晰路线。
浙商证券指出,面对未来潜在的算力指数增长,短期使用芯粒异构技术加速各类应用算法落地,长期来看,打造存算一体芯片,或将成为未来算力升级的潜在方式。

(架构创新路线 图源:浙商证券)
芯粒异构技术成为“种子”选手的原因是,该技术能够突破先进制程的封锁,且大幅提升大型芯片的良率、降低设计成本、芯片制造成本。
而之所以说是短期,是因为该技术路径需要牺牲一定的体积和功耗,导致其目前只能在基站、服务器、智能电车等领域广泛使用。
为解决这一“小缺陷”,目前在学术界,已有团队选择将芯粒异构技术与存算一体架构相融合,以期达到1+1>2的效果:
在ISSCC 2022上,复旦大学芯片与系统前沿技术研究院刘明院士团队提出多芯粒的存算一体集成 芯片——COMB-MCM。
据团队表示,电路上COMB-MCM采用存算一体设计,能够降低功耗、提高系统算力。在存算一体的加持下,该芯片具有精度无损且支持非结构化稀疏的自适应能效调节特点,也就补足了芯粒异构技术的短板。
既是芯粒异构技术的最佳拍档之一,同时也是未来架构创新路径之一,存算一体为何能博得多方“欢心”?
这是因为存算一体成功打破了“三堵墙”:
在传统冯·诺伊曼架构之下,芯片的存储、计算区域是分离的。计算时,数据需要在两个区域之间来回搬运,而随着神经网络模型层数、规模以及数据处理量的不断增长,数据已经面临“跑不过来”的境况,成为高效能计算性能和功耗的瓶颈,也就是业内俗称的“存储墙”。

(存储墙限制具体表现 图源:浙商证券)
存储墙相应地也带来了能耗墙、编译墙(生态墙)的问题。例如编译墙问题,是由于大量的数据搬运容易发生拥塞,编译器无法在静态可预测的情况下对算子、函数、程序或者网络做整体的优化,只能手动、一个个或者一层层对程序进行优化,耗费了大量时间。
这“三堵墙”会导致算力无谓浪费:据统计,在大算力的AI应用中,数据搬运操作消耗90%的时间和功耗,数据搬运的功耗是运算的650倍。
而存算一体能够将存储和计算融合,彻底消除了访存延迟,并极大降低了功耗。基于此,浙商证券报告指出,存算一体的优势包括但不限于: 具有更大算力(1000TOPS以上)、具有更高能效(超过10-100TOPS/W)、降本增效(可超过一个数量级)······
存算一体,正在冲破三堵墙“解救”ChatGPT,加速算力升级。
大算力芯片需扎好马步
除了架构创新,芯片本身的升级迭代也非常重要。作为基石的底层芯片,需要足够“大”,AI大算力应用才能高楼平地起。

(ChatGPT研究框架 图源:浙商证券)
那么AI大算力说的“大”到底是多大?
以2020年发布的GPT3预训练语言模型为例,采用的是2020年最先进的英伟达A100 GPU,算力达到624 TOPS。2023年,随着模型预训练阶段模型迭代,又新增访问阶段井喷的需求,未来模型对于芯片算力的需求起码要破千。
再例如自动驾驶领域,根据财通证券研究所表明,自动驾驶所需单个芯片的算力未来起码1000+TOPS。
目前巨头已开始卷上1000+TOPS的SoC,主要用于自动驾驶领域:在2021年4月,英伟达就已经发布了算力为1000TOPS的DRIVE Atlan芯片。到了今年,英伟达直接推出芯片Thor达到2000TOPS。
故,大算力背景下,大算力芯片起码得是1000+TOPS选手。
而在符合大算力条件下,也需要考虑到“用料”的功耗、造价问题。
目前,在存算一体架构优势下,亿铸科技为当前的算力、能耗困局,给出一条解题思路:选择有着面积更小、微缩性好等特性的RRAM实现“同等能耗,更大算力;同等算力,更低能耗 ”,为各大数据中心、自动驾驶等应用领域“排忧解难”,在数字经济时代,实现绿色算力。

而在存算一体架构下,传统SRAM、闪存(Flash ) 均有着致命的缺陷,无法实现在大算力赛道的降本增效:
SRAM面积较大,占据了英伟达数据中心级GPU总逻辑面积的约50%。而一个A100 GPU的成本就在1万美元以上,根据测算,成熟产品每GB SRAM内存的成本将在100美元左右,最贵的存储器当属SRAM。
除了成本难压之外, SRAM也存在着不稳定的问题。SRAM 的问题在于它的静态电流大,当大量的 SRAM 堆积在芯片上时,会产生一种被称为 DI/DT 的工程性问题(也就是电流在短时间内大量变化),应用落地极具挑战性。
基于这两点考虑,SRAM 并不适合做大算力场景。据了解, 目前采用 SRAM 的这些公司大都在基于边缘端做小算力的场景,比如语音识别、智能家居的唤醒、关键命令词的识别等。
同时,Flash也面临着因微缩性差导致不稳定的问题。传统存储器的局限性让行业逐渐将目光逐渐转向了新型存储器:
比如近期英飞凌宣布其下一代 AURIX ™微控制器 ( MCU ) 将采用新型非易失性存储器 ( NVM ) RRAM ( ReRAM ) ;
亿铸科技自2020成立以来,就专注于研发基于RRAM的全数字存算一体大算力AI芯片。
ChatGPT,需要存算一体的“解救”,也需要该架构下,更物美价廉(微缩性好、单位面积小、成本低)的新型存储器RRAM的大力支持。
亿欧获悉,亿铸科技今年将诞生首颗基于RRAM的存算一体AI大算力芯片。届时,或许“ChatGPT们”以及其下游的应用能够基于该芯片,更轻松地吸取算力,更快实现“智力”升维。
申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!
推理与多模态的终极融合,将彻底终结用户在不同模型间切换的烦恼。7月7日,OpenAI正式确认将在今年夏季推出新一代人工智能模型GPT-5。这一突破性产品将整合现有的多个强大模型,特别是融合专注推理能力的“O系列”与具备多模态功能的“GPT系列”,为用户提供前所未有的统一体验。OpenAI开发者体验负
近日,OpenAI宣布推出其最新旗舰生成式AI模型GPT-4o。相较于GPT-4Trubo,GPT-4o速度更快、价格也更便宜据悉,ChatGPT可以读取人类的情绪,但读取过程有一点困难。OpenAI,是一家位于美国旧金山的人工智能研究公司,现由营利性公司OpenAILP及非营利性母公司OpenAI
关注卢松松,会经常给你分享一些我的经验和观点。OpenAI宣布:从今天起,ChatGPT打开即用,无需再注册帐号和登录了!不过,免登录无法享受一些高级功能,比如分享聊天记录、自定义指令等等。松松刚测试了一下:使用ChatGPT还是需要注册登录的,但是免去了手机号验证码的环节。而且OpenAI实际开放
近日,人工智能领域的领军人物,ChatGPT之父萨姆·阿尔特曼(SamAltman)发表了令人振奋的言论。他表示,人类水平的人工智能(AI)即将出现,这一变革性技术的发展将为世界带来前所未有的影响。作为OpenAI的首席执行官,阿尔特曼的这番言论引发了业界和学术界的广泛关注。一直以来,实现具有人类智
当你看到这类是不是就明白一二了?只不过很多人是借了AI的手来回答了一些热点问题,ChatGPT成了背锅侠,而这个背锅侠却无法反抗。
春节红包会结束,但AI已融入数亿人生活里
性能、商业、生态诠释开源模型的最佳姿态
2026年刚开年,全世界最狂的那个男人,穿着他的经典黑皮衣,在CES舞台上发出了未来十年的信号。他搞了个“能吃饱套餐”:6个包子+一碟小菜+一碗粥=肉包子套餐,这样以后你只要买一个套餐就能吃饱了。(Rubin平台)同时他们店里还免费提供的筷子、勺子、蘸料、酱油、醋、水果、零食等等。(开放10万亿语言
12月12日-14日,2025全球开发者先锋大会暨国际具身智能技能大赛(GDPS2025)于上海张江科学会堂举行,大会以具身智能竞技为核心,融合了技术比拼、产业展示与科普体验,为全球观众呈现出具身智能的现在与未来。上海开普勒机器人有限公司(以下简称"开普勒机器人")携明星产品K2"大黄蜂"亮相,并参
在数字化与智能化深度交织的时代浪潮中,安全的边界不断延展,技术的演进正引领产业迈向新一轮变革。10月24日,以“弈动Dynamic·数智跃迁博弈无界”为主题的2025TechWorld智慧安全大会在北京盛大召开。来自国家部委、院士学者、高校科研机构和企业的权威专家与业界精英齐聚北京,共议AI安全、数
2025年10月25日,2025世界青年科学家峰会之人工智能(AI)融合创新发展论坛在浙江温州成功举办。本次论坛由国际院士科创中心主办,中国投资协会能源投资专业委员会、温港院士科创中心承办,中国电工技术学会、中科先进技术温州研究院与温州市电力工程学会提供支持,以“瓯江论道-AI赋能绿色发展”为主题,
我觉得我们AI的目标是:从芯片设计到软件生态,全链路自主开发,建立可控的世界级AI体系。所以这是俺对未来5年中国AI圈的展望和判断。(1)2026年,英伟达造车、国产开车26年国产芯片会在推理和垂直场景上发力。以DeepSeek为代表,大多数AI大模型会以软件弥补硬件不足,所以训练和推理分开,训练就
文/道哥在深陷“后门”风波、接受网信办问询之后,英伟达的“特供版”H20芯片,又有了新消息。近日,美国科技媒体《TheInformation》援引知情人士消息称,英伟达已悄然向其关键供应商——包括负责封装的安靠科技、供应高带宽内存的三星电子、以及承担后端处理的富士康发出指令,要求暂停所有与H20AI
文/二风来源/节点财经一场关于“中国芯”的IPO审议,正把投资者们的目光锁定在上交所。根据上交所发布的公告,上市审核委员会已定于9月26日审议摩尔线程的科创板首发申请。作为中国半导体自主化浪潮中最受瞩目的“考生”之一,包括其创始人显赫的英伟达背景、高达80亿元人民币的募资雄心,以及在国产GPU领域取