1. 创业头条
  2. 前沿领域
  3. AI智能
  4. 正文

AI算力竞赛加速散热技术变革,液冷方案获行业青睐

 2024-04-18 09:29  来源:互联网  我来投稿 撤稿纠错

  域名预订/竞价,好“米”不错过

进入AIGC时代,智算中心规模日渐庞大,服务器能耗与日俱增。如何降低智算中心能耗已成为国家和地方政府关注的焦点。

工信部数据显示,2022年全国数据中心总耗电量约2700亿千瓦时。当前,大部分数据中心仍主要采用风冷散热技术,在单柜密度、PUE值方面已愈发难以满足行业发展及绿色节能方面的要求,而冷板式液冷方案则为现有数据中心节能改造提供了诸多便利。

近日,国产CPU领军企业飞腾信息技术有限公司正式发布飞腾腾云S5000C服务器液冷解决方案,并在第十二届中国电子信息博览会上荣获创新金奖。

液冷释放芯片极致性能

目前,常规风冷仅支持8-10kW的单柜密度,若继续采用风冷散热,将导致行间空调需求数量陡增,算力成本也将急剧增加,因此高密度散热场景下液冷方案成本和性能优势显著。本次飞腾联合同泰怡针对S5000C服务器液冷解决方案进行测试,结果表明基于本次液冷解决方案打造的下一代高性能液冷服务器,如果应用在30KW风液式CDU液冷机柜中,单机柜可配置25台1U双路液冷服务器,相对风冷机柜理论上可提升297.6%。

30KW 风液式液冷机柜

测试结果还表明, S5000C高主频芯片可以在液冷系统的加持下稳定可靠运行,主频相对标准版芯片提高20%。

液冷实现算力绿色节能

中国信息通信研究院测算,到2030年我国数据中心耗电量将达到5900亿千瓦时。工信部等部门在2021年12月提出加快绿色数据中心建设,到2025年全国新建大型、超大型数据中心电能利用效率(PUE)降到1.3以下。

相较于传统风冷,液冷方案采用液态介质作为热传递介质,热传导效率比空气大大提高,可以更有效地移除计算机组件中的热量,从而降低能耗。本次测试结果表明,液冷系统的整体能耗相较风冷可降低约10%左右,同时满足国家要求的PUE值,从而降低空调机房以及机柜的电力成本,具有较好的经济适用性。

飞腾腾云S5000C液冷机柜以及服务器结构图

此外,本次飞腾推出的液冷解决方案基于四台双路服务器进行系统功耗测试,进液温度在40℃以上, S5000C结温控制在65℃以内,CPU的结温温度波动在±1℃以内,使得服务器系统的核心部件在一个较低且稳定的温度下运行,大大提高了系统的可靠性以及核心部件的使用寿命。整个液冷系统热阻低,散热能力显著加强。

为了最大限度降低漏液带来的风险,本次飞腾液冷解决方案还采用了一套漏液感知与干预系统。通过漏液检测接口直接检测漏液,在第一时间通过BMC发送警报。在本次测试中,飞腾针对主板的LEAKAGE 4pin 漏液检测接口进行了测试,目前该接口已通过漏液检测设备识别检测与移除告警以及模拟漏液故障报警等测试。

随着AI技术的飞速发展,液冷技术特别是冷板式液冷正获得越来越多数据中心的青睐。由于冷板式液冷的硬盘、光模块等服务器部件以及运维模式和机房承重与传统风冷场景基本一致,因此不需要对现有风冷机房和机柜进行大规模改造,升级成本也相对较低。飞腾本次发布的飞腾腾云S5000C服务器液冷解决方案不仅能够显著提升数据中心的能效和散热性能,还能够降低噪音和运营成本,这对于追求高效率和可持续运营的数据中心来说至关重要。

申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!

相关文章

  • OpenAI发布GPT-4o 能读取人类情绪

    近日,OpenAI宣布推出其最新旗舰生成式AI模型GPT-4o。相较于GPT-4Trubo,GPT-4o速度更快、价格也更便宜据悉,ChatGPT可以读取人类的情绪,但读取过程有一点困难。OpenAI,是一家位于美国旧金山的人工智能研究公司,现由营利性公司OpenAILP及非营利性母公司OpenAI

    标签:
    chatgpt
  • ChatGPT、Gemini、通义千问等一众大语言模型,哪家更适合您?

    随着人工智能技术的飞速发展,大语言模型(LargeLanguageModels,LLMs)在各行各业的应用日益广泛,尤其是在软件开发、数据分析、客户服务等领域。蘑菇云创客空间[445期开放夜]就以“ChatGPT、Gemini、通义千问等一众大语言模型,哪家更适合您”这样的主题,开展了一次深度的大语

  • 体验了下钉钉AI助理,真羡慕现在的“打工人”...

    对于万千打工人来说,AI不会替代我们,反而会成为工作中重要的帮手

    标签:
    钉钉
  • 历时400多天,国产大模型全面赶超GPT-4?

    赶超GPT-4的阶段性升级,可以看作是国产大模型有序迭代部署、不断拉近差距的标志,切莫像手机跑分那样,在过度营销的作用下,沦为被群嘲的对象。

    标签:
    大模型
  • 微博COO王巍:微博已接入阿里云通义大模型,是通义最早一批外部客户

    5月9日,记者获悉,微博已接入阿里云通义大模型,提升内容生产效率和社区活跃度。微博不仅是阿里云最早一批上云客户,也是阿里云通义大模型的最早客户。微博COO、新浪移动CEO王巍表示,AIGC发展速度远超想象,包括通义2.5在内,已涌现出不少大模型能力超越GPT4。同时他指出,大模型开源势不可挡。“阿里

  • 通义灵码推出企业版,底座模型CodeQwen1.5登顶权威榜单

    5月9日阿里云AI峰会,通义灵码宣布推出企业版,满足企业用户的定制化需求,帮助企业提升研发效率。通义灵码是国内用户规模第一的智能编码助手,基于SOTA水准的通义千问代码模型CodeQwen1.5研发,插件下载量已超350万。通义灵码熟练掌握Java、Python、Go、JavaScript、Type

    标签:
    通义千问
  • 通义千问APP更名为通义APP,免费开放通义全栈能力

    5月9日消息,通义大模型品牌升级,“通义千问APP”更名为“通义APP”,集成通义大模型全栈能力,免费为所有用户提供服务。通义APP以性能媲美GPT-4Turbo的基模为底座,并把通义实验室前沿的文生图、智能编码、文档解析、音视频理解、视觉生成等能力“Allinone”,成为每个人的全能AI助手。通

    标签:
    通义千问
  • 阿里云发布通义千问2.5,性能全面赶超GPT-4 Turbo

    5月9日消息,阿里云正式发布通义千问2.5,模型性能全面赶超GPT-4Turbo,成为地表最强中文大模型。同时,通义千问最新开源的1100亿参数模型在多个基准测评收获最佳成绩,超越Meta的Llama-3-70B,成为开源领域最强大模型。相比通义千问2.1版本,通义千问2.5的理解能力、逻辑推理、指

    标签:
    通义千问
  • 通义大模型通过阿里云服务企业超9万,开源模型下载超700万

    5月9日消息,阿里云公布最新数据,通义大模型通过阿里云服务企业超9万,通义开源模型累计下载量突破700万。通义落地应用进程加速,现已进入PC、手机、汽车、航空、天文、矿业、教育、医疗、餐饮、游戏、文旅等领域,成为最受中国企业欢迎的大模型。阿里云AI峰会现场,小米旗下的人工智能助手“小爱同学”已与阿里

    标签:
    通义千问
  • 阿里云发布通义千问2.5, 中文能力地表最强

    通义大模型发布一周年之际,迎来重要的历史性时刻。5月9日,阿里云正式发布通义千问2.5,模型性能全面赶超GPT-4Turbo,成为地表最强中文大模型。同时,通义千问1100亿参数开源模型在多个基准测评收获最佳成绩,超越Llama-3-70B,成为开源领域最强大模型。历经一年多追赶,国产大模型终于进入

    标签:
    通义千问

编辑推荐