1. 创业头条
  2. 前沿领域
  3. 人工智能
  4. 正文

ChatGPT正在榨干算力,如何打赢这场算力攻坚战?

 2023-03-09 16:02  来源:互联网  我来投稿 撤稿纠错

  【推荐】海外独服/站群服务器/高防

史上用户增速最快消费级应用ChatGPT,自去年11月底发布以来,让全球为其狂欢,各方势力仍持续为此“上火”:用户急着试探ChatGPT是否真的有那么聪明 ,每天有超过2亿的人都在疯狂抛出各式各样的问题“刁难”ChatGPT,并展现自己的“调教”成果;

(ChatGPT每日点击访问量统计 图源:国盛证券研究所)

国内互联网大厂们 基于要“活下去”的心愿和讲更动听的AI故事,急着与ChatGPT扯上关系 :一时间百度、腾讯、阿里等纷纷拿出相关技术布局以及底层设施储备,为中国的ChatGPT奋力一战;

近3个月过去,ChatGPT热度丝毫未减,有关部门也在努力

2月24日,东数西算一体化算力服务平台在宁夏银川正式上线发布。据悉,东数西算一体化算力服务平台将瞄准目前最稀缺、刚需迫切的ChatGPT运算能力,以支撑中国人工智能运算平台急需的大算力服务。

目前,该平台已吸引曙光、中国电子云、天翼云、阿里云、华为、中兴等大算力头部企业,以及国家信息中心、北京大数据研究院等中国主要大数据机构入驻。

各方势力蜂拥而至,足以见得,目前的算力填补不了ChatGPT们的需求,众志成城,才能打赢ChatGPT算力攻坚战。

本文试图探究,ChatGPT到底需要多大的算力?升级算力的路子是什么?

ChatGPT,企图榨干算力

通用AI时代来临,人类对于算力的需求正逐渐失控。

伴随着摩尔定律失效,大模型时代来临,算力不再“淡定”,每5-6个月就要翻倍,以困兽冲破牢笼之势飞速增长:

(模型发布时间及算力变化 图源:浙商证券)

2018年,谷歌带着3亿参数BERT模型,闯进大众视野,开启大规模预训练模型时代;在这之后,OpenAI、英伟达、微软先后推出15亿参数的GPT-2、83亿参数的Megatron-LM、170亿参数的图灵Turing-NLG,各个大厂暗自较劲,参数规模从十亿级别竞争到了百亿级别。

2020年6月,OpenAI又将算力“战场”拔高了一个层级:推出1750亿参数的GPT-3,把参数规模提高到千亿级别。随后一山更比一山高:微软和英伟达在2020年10月联手发布了5300亿参数的Megatron-Turing自然语言生成模型(MT-NLG)。

2021年,国内迎来预训练大模型元年。在这一年里,华为、百度、阿里等中国企业开始发力:

华为云联合北京大学发布盘古α超大规模预训练模型,参数规模达2000亿;

百度推出ERNIE 3.0 Titan模型,参数规模达2600亿;

阿里达摩院的M6模型参数达到10万亿,又将大模型参数带到新的高度 ……

在这之中表现最为亮眼的,莫过于从GPT-3迭代而来的ChatGPT,2022年底一出世就博得全球目光,无论是在模型预训练阶段,还是模型被访问阶段, ChatGPT都对算力提出“史无前例”的要求。

在模型预训练阶段, 从GPT-1到GPT-3,从GPT-3 Small到GPT-3 175B,对算力的需求呈指数型增长。

在大模型的框架下,每一代 GPT 模型的参数量均高速扩张,参数量从GPT-1的1.17亿个,翻了1029倍至GPT-3 的1750 亿个;

具体来看,在GPT-3历代模型中,短短2年,参数量便从GPT-3 Small的1.25亿个,翻了1399倍至GPT-3的1750亿个,未来GPT-4还要翻倍:根据 Altman 的介绍,预计GPT-4的参数将会达到2800亿个。

与此同时,在模型被访问阶段,ChatGPT对算力同样有着“狂热”需求:

据Similarweb数据,ChatGPT官网在2023年1月27日-2月3日一周内吸引的每日访客数量高达2500万。假设以目前的稳定状态,每日每用户提问约10个问题,则每日约有2.5亿次咨询量。

如果想要“消化”掉这2.5亿次咨询量,根据国盛证券测算,需要大量的A100 GPU芯片“连夜赶工”:

假设每个问题平均30字,单个字在A100 GPU上约消耗350ms,则一天共需消耗729,167个A100 GPU运行小时,对应每天需要729,167/24=30,382片 英伟达A100 GPU。

也就是说,目前每天2.5亿次咨询量,需要30,382片英伟达A100 GPU同时计算,才能把ChatGPT“喂饱”,以下是ChatGPT部分耗费(电费以0.08美元/kwh计算):

而以上图表所显示的,仅仅是2.5亿咨询量需求下,使用英伟达A100 GPU相关设备,ChatGPT所需要的算力成本。

其背后对能源的消耗,更是“触目惊心”。

环球零碳研究中心曾粗略合计了ChatGPT全生命周期的碳足迹:自2022年11月30日运行以来,其制造设备的碳排放量超过了33.41吨,模型训练碳排放超过552吨,运行60天碳排放约为229.2吨。

也就是说上线两个月的ChatGPT,全过程碳排放超过了814.61吨,而这,相当于186个丹麦家庭每年消耗的能量。

现阶段ChatGPT背后的大模型仍在迭代,每日访问量仍在递增,未来还会有更多的ChatGPT们涌现。彼时,算力以及其背后的功耗还能顾得过来吗?

对此,苏妈表示了担忧:在ISSCC 2023上,苏妈表示根据目前计算效率每两年提升2.2倍的规律,预计到2035年,如果想要算力达到十万亿亿级,则需要的功率可达500MW,相当于半个核电站能产生的功率,“这是极为离谱、不切合实际的”。

(2010-2040功率发展情况 图源:2023 IEEE international Solid-State Circuits Conference)

为了达到这样的效果,我们的计算效率起码要每两年提升2.2倍,才能匹配上2035年的算力需求。苏妈坦言,尽管用上目前最先进的计算技术、最先进的芯片,也满足不了ChatGPT们。

而当ChatGPT吞噬完大量算力、能源,“吃饱喝足”之后,各国打的不再是算力之争,而是“国运之争”:一旦搭载ChatGPT的人形机器人能够大批量地上岗时,吃人口红利的国家不再有显著的优势。

ChatGPT们,包括未来的人形机器人们, 正对算力、能源“虎视眈眈”,同时对人类的威胁也不容小觑:往小了看,影响到个人职业发展,往大了看,牵扯到国家竞争力。

存算一体承载和释放ChatGPT

而一切的一切,都得从打好算力之争开始。

传统的AI1.0时代的代表企业,例如AMD已经开始探寻新的出路:依靠系统级创新实现更大的突破。系统级创新,即从整体设计的上下游多个环节协同设计来完成性能的提升。

一个经典案例是,在对模型算法层面使用创新数制(例如8位浮点数FP8)的同时,在电路层对算法层面进行优化支持,最终实现计算层面数量级的效率提升:相比传统的32位浮点数(FP32),进行系统级创新的FP8则可以将计算效率提升30倍之多。而如果仅仅是优化FP32计算单元的效率,无论如何也难以实现数量级的效率提升。

于是,为解决“如何用更少的电,输出更高的算力”这一终极命题,业内给出不少技术及方案:量子计算(量子芯片)、光机芯片、芯粒(Chiplet)、3D封装、存算一体……。同时也有团队将这些技术进行结合,以期达到系统级创新。

在这之中,现在能够兼容CMOS工艺又能尽快量产的有芯粒、3D封装、存算一体。而芯粒、存算一体是目前业内普遍认为,能够突破 AI 算力困境,进行架构创新的两条清晰路线。

浙商证券指出,面对未来潜在的算力指数增长,短期使用芯粒异构技术加速各类应用算法落地,长期来看,打造存算一体芯片,或将成为未来算力升级的潜在方式。

(架构创新路线 图源:浙商证券)

芯粒异构技术成为“种子”选手的原因是,该技术能够突破先进制程的封锁,且大幅提升大型芯片的良率、降低设计成本、芯片制造成本。

而之所以说是短期,是因为该技术路径需要牺牲一定的体积和功耗,导致其目前只能在基站、服务器、智能电车等领域广泛使用。

为解决这一“小缺陷”,目前在学术界,已有团队选择将芯粒异构技术与存算一体架构相融合,以期达到1+1>2的效果:

在ISSCC 2022上,复旦大学芯片与系统前沿技术研究院刘明院士团队提出多芯粒的存算一体集成 芯片——COMB-MCM。

据团队表示,电路上COMB-MCM采用存算一体设计,能够降低功耗、提高系统算力。在存算一体的加持下,该芯片具有精度无损且支持非结构化稀疏的自适应能效调节特点,也就补足了芯粒异构技术的短板。

既是芯粒异构技术的最佳拍档之一,同时也是未来架构创新路径之一,存算一体为何能博得多方“欢心”?

这是因为存算一体成功打破了“三堵墙”:

在传统冯·诺伊曼架构之下,芯片的存储、计算区域是分离的。计算时,数据需要在两个区域之间来回搬运,而随着神经网络模型层数、规模以及数据处理量的不断增长,数据已经面临“跑不过来”的境况,成为高效能计算性能和功耗的瓶颈,也就是业内俗称的“存储墙”。

(存储墙限制具体表现 图源:浙商证券)

存储墙相应地也带来了能耗墙、编译墙(生态墙)的问题。例如编译墙问题,是由于大量的数据搬运容易发生拥塞,编译器无法在静态可预测的情况下对算子、函数、程序或者网络做整体的优化,只能手动、一个个或者一层层对程序进行优化,耗费了大量时间。

这“三堵墙”会导致算力无谓浪费:据统计,在大算力的AI应用中,数据搬运操作消耗90%的时间和功耗,数据搬运的功耗是运算的650倍。

而存算一体能够将存储和计算融合,彻底消除了访存延迟,并极大降低了功耗。基于此,浙商证券报告指出,存算一体的优势包括但不限于: 具有更大算力(1000TOPS以上)、具有更高能效(超过10-100TOPS/W)、降本增效(可超过一个数量级)······

存算一体,正在冲破三堵墙“解救”ChatGPT,加速算力升级。

大算力芯片需扎好马步

除了架构创新,芯片本身的升级迭代也非常重要。作为基石的底层芯片,需要足够“大”,AI大算力应用才能高楼平地起。

(ChatGPT研究框架 图源:浙商证券)

那么AI大算力说的“大”到底是多大?

以2020年发布的GPT3预训练语言模型为例,采用的是2020年最先进的英伟达A100 GPU,算力达到624 TOPS。2023年,随着模型预训练阶段模型迭代,又新增访问阶段井喷的需求,未来模型对于芯片算力的需求起码要破千。

再例如自动驾驶领域,根据财通证券研究所表明,自动驾驶所需单个芯片的算力未来起码1000+TOPS。

目前巨头已开始卷上1000+TOPS的SoC,主要用于自动驾驶领域:在2021年4月,英伟达就已经发布了算力为1000TOPS的DRIVE Atlan芯片。到了今年,英伟达直接推出芯片Thor达到2000TOPS。

故,大算力背景下,大算力芯片起码得是1000+TOPS选手。

而在符合大算力条件下,也需要考虑到“用料”的功耗、造价问题。

目前,在存算一体架构优势下,亿铸科技为当前的算力、能耗困局,给出一条解题思路:选择有着面积更小、微缩性好等特性的RRAM实现“同等能耗,更大算力;同等算力,更低能耗 ”,为各大数据中心、自动驾驶等应用领域“排忧解难”,在数字经济时代,实现绿色算力。

而在存算一体架构下,传统SRAM、闪存(Flash ) 均有着致命的缺陷,无法实现在大算力赛道的降本增效:

SRAM面积较大,占据了英伟达数据中心级GPU总逻辑面积的约50%。而一个A100 GPU的成本就在1万美元以上,根据测算,成熟产品每GB SRAM内存的成本将在100美元左右,最贵的存储器当属SRAM。

除了成本难压之外, SRAM也存在着不稳定的问题。SRAM 的问题在于它的静态电流大,当大量的 SRAM 堆积在芯片上时,会产生一种被称为 DI/DT 的工程性问题(也就是电流在短时间内大量变化),应用落地极具挑战性。

基于这两点考虑,SRAM 并不适合做大算力场景。据了解, 目前采用 SRAM 的这些公司大都在基于边缘端做小算力的场景,比如语音识别、智能家居的唤醒、关键命令词的识别等。

同时,Flash也面临着因微缩性差导致不稳定的问题。传统存储器的局限性让行业逐渐将目光逐渐转向了新型存储器:

比如近期英飞凌宣布其下一代 AURIX ™微控制器 ( MCU ) 将采用新型非易失性存储器 ( NVM ) RRAM ( ReRAM ) ;

亿铸科技自2020成立以来,就专注于研发基于RRAM的全数字存算一体大算力AI芯片。

ChatGPT,需要存算一体的“解救”,也需要该架构下,更物美价廉(微缩性好、单位面积小、成本低)的新型存储器RRAM的大力支持。

亿欧获悉,亿铸科技今年将诞生首颗基于RRAM的存算一体AI大算力芯片。届时,或许“ChatGPT们”以及其下游的应用能够基于该芯片,更轻松地吸取算力,更快实现“智力”升维。

申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!

相关标签
chatgpt

相关文章

  • 育儿顾问大模型KidsGPT,能成为孩子王的新故事吗?

    大模型混战,参与者又多了一员。61儿童节当天,主营母婴童商品零售与增值服务的孩子王重磅上线“AI育儿顾问大模型”一一KidsGPT,旨在为6000万会员提供更高维、更新颖的数字化体验。据节点财经了解,KidsGPT为孩子王自研的大模型,经过对育儿、教育等方面系统的垂类数据训练和大量内测,已实现智能对

    标签:
    chatgpt
  • ChatGPT引领卖家在跨境电商平台的智能革命

    导语:随着人工智能的迅速发展,ChatGPT的应用正以惊人的速度渗透到各个行业。其中,在跨境电商平台上,ChatGPT作为一种智能助手,为卖家带来了前所未有的利益。本文将深入探讨ChatGPT在跨境电商中的应用,以及如何将其融合在店铺管理操作中,为卖家带来无限商机。智能客服与沟通:ChatGPT作为

    标签:
    chatgpt
    跨境电商
  • 迈特AI助手ChatGpt源码安装部署详细文档

    迈特AI助手ChatGpt源码安装部署详细文档:1、所需环境服务器建议:centos7.4以上,安装宝塔运行环境:LNMP软件版本:php7.4+mysql5.7php拓展安装:fileinfo、2、安装宝塔自行去安装1、数据库配置这里改为自己的数据库账号密码。4、伪静态配置打开宝塔伪静态内容loc

    标签:
    chatgpt
  • ChatGPT唤醒AI游戏?

    “七天制作新游戏”、“AI全自动完成所有游戏!”......继各种AI绘画、AI合成照片、视频之后,AI在游戏领域开启了新一场狂欢。长久以来,游戏和AI一直有着“相互扶持”的亲密关系——一边是游戏充当AI科研基地,正向拉动AI技术进步;一边是AI定位为先进的技术工具,为游戏体验带来更多可能性。如今,

    标签:
    chatgpt
  • 空间智能化的速度,连ChatGPT都低估了

    如果人可以快速地适应空间,同时空间也可以根据人的行为做出反应,到底会擦出什么样的火花?过去相当长一段时间里,诸如此类的话题可能仅限在设计师的圈子里讨论。可当智能设备越来越流行,用户需求逐渐从PC、手机延伸到整个生活空间,交互已然成为人感知空间智能进化的起点。人们需要什么样的空间体验,怎么去获取智能化

    标签:
    chatgpt
  • 讯飞会议耳机登上《新闻联播》,助力AI+办公新潮流全球加速普及

    据4月18日《新闻联播》报道,国务院总理李强在第135届中国进出口商品交易会(广交会)期间,对包括讯飞会议耳机在内的智能硬件出海情况表示关心。生成式AI会议助手,让工作效率翻倍近年来,随着文字、语音、图像等处理能力跃迁,大模型摇身变为“助理”走入办公室和会议室,结合传统软硬件,使得办公和会议智能化。

  • 清华团队国产“Sora”火了 可一键生成1080p高清视频

    近日,生数科技联合清华大学发布了视频大模型「Vidu」,其强大功能引起了全网关注。该模型支持一键生成长达16秒、分辨率达1080p的高清视频内容,画面效果接近Sora。据悉,Vidu生成的视频画面流畅,细节丰富,逻辑连贯,呈现出高度接近真实世界的效果,并且几乎不会出现穿模、鬼影、运动不符合现实规律的

  • 从汽车到汽车机器人,不用再等100年

    ©自象限原创编辑丨程心20世纪50年代开始,世界所有的汽车公司都竞相开发操作简单,功能齐全的理想家庭用车。1950年,全球汽车总产量首次超过一千万辆。价格低廉、驾驶方便、油耗低的百姓汽车广受大众青睐。但从1888年,奔驰生产出世界上第一辆可供售的汽车至1950年,整整经历了60年,家用汽车才开始走向

    标签:
    智能机器人
  • 为何海尔智家能够做到“换新不厌旧”?

    在繁忙的城市角落,张先生的小公寓里藏着一个宝贝——一台20年前的海尔老式彩电。这台电视见证了他的拼搏、快乐和岁月的流转。虽然他对新科技并不感冒,但他的儿子小张对此却充满了好奇和热情。小张在线上看到以旧换新活动的同时,说服了张先生,并在手机上下单预约上门服务。没多久,服务人员便上门拆走旧家电,安装调试

    标签:
    海尔智家
  • 也谈谈AI洗稿

    前几天腾讯发了个公告称:平台巡查发现有些MCN和作者发布大量“AI洗稿”内容。并宣称要对“AI洗稿”行为进行打击,同时鼓励合理运用AI技术。其实我是想借此机会,给大家说说“AI洗稿”这件事,隐秘在黑暗角落里的赚钱行为。“洗稿”就是把别人的文章用AI工具修改润色一下或调整段落,然后再发到自媒体平台上,

    标签:
    ai智能
  • 竞逐智能家居大模型:美的“蓄力”,海尔“疾行”

    随着ChatGPT火热出圈,AI大模型便成为了各行各业必争的高地。

    标签:
    智能家居
  • 李彦宏新目标,押注AI原生应用

    文/道哥“未来,自然语言将成为新的通用编程语言。你只要会说话,就可以成为一名开发者,用自己的创造力改变世界。”4月16日,百度创始人、董事长兼首席执行官李彦宏在Create2024百度AI开发者大会上表述了对未来AI人工智能发展的新一轮展望。自OpenAI发布ChatGPT大模型后,这股AI人工智能

    标签:
    李彦宏
  • AI算力竞赛加速散热技术变革,液冷方案获行业青睐

    进入AIGC时代,智算中心规模日渐庞大,服务器能耗与日俱增。如何降低智算中心能耗已成为国家和地方政府关注的焦点。工信部数据显示,2022年全国数据中心总耗电量约2700亿千瓦时。当前,大部分数据中心仍主要采用风冷散热技术,在单柜密度、PUE值方面已愈发难以满足行业发展及绿色节能方面的要求,而冷板式液

  • 中国AIGC最值得关注企业&产品榜单揭晓!首份应用全景图谱发布

    “你好,新应用!”站在大模型落地元年,是时候喊出这句话了。从软件APP、智能终端乃至具身智能等等,AIGC开始席卷一切。大模型玩家、互联网巨头、终端厂商、垂直场景玩家纷纷入场,办公、创作、营销、教育、医疗领域相继被渗透……一个万亿市场,正在酝酿。站在浪潮起点,当下发展究竟如何了?机遇在哪?挑战如何?

  • 标准引领促转型 提升新质生产力——2024数字教育标准创新应用研讨会召开

    4月14日,以“标准引领促转型,提升新质生产力”为主题,由全国信息技术标准化技术委员会教育技术分技术委员会主办,锐捷网络承办的2024数字教育标准创新应用研讨会暨《高等学校数字校园建设规范(试行)》(以下简称《规范》)优秀及典型应用案例的颁奖活动在福州举办。本次会议聚焦赋能新质生产力和高校教育数字化

编辑推荐