1. 创业头条
  2. 前沿领域
  3. 人工智能
  4. 正文

阿里云& NVIDIA TensorRT Hackathon 2023 决赛圆满收官

 2023-10-19 09:39  来源:互联网  我来投稿 撤稿纠错

  【推荐】海外独服/站群服务器/高防

2023年9月 29日,由阿里云、NVIDIA联合主办,阿里云天池平台承办的“NVIDIA TensorRT Hackathon 2023生成式 AI模型优化赛”圆满落幕。该赛事自2020年以来,已成功举办三届,本届赛事于今年 7月启动,吸引了来自全国729支开发者团队报名参赛,其中共有 40支团队晋级复赛,最终 26支团队于决赛中脱颖而出,分获冠军/亚军/季军及优胜奖,展现出了卓越的技术实力。

解锁 TensorRT-LLM挖掘生成式 AI新需求

今年的NVIDIA TensorRT Hackathon着重提升选手开发 TensorRT应用的能力。

在过去的一年里,生成式 AI迎来了爆发式增长。计算机能够批量生成大量图像和文本,有的甚至能够媲美专业创作者的作品。这为未来生成式 AI模型的发展铺平了道路,令人充满期待。正因如此,NVIDIA TensorRT Hackathon 2023选择生成式 AI模型作为比赛的主题,以激发选手的创新潜力。

今年的比赛设置了初赛和复赛两组赛题——初赛阶段,选手需要利用 TensorRT加速带有 ControlNet的 Stable Diffusion pipeline,以优化后的运行时间和出图质量作为主要排名依据;复赛为开放赛题,选手可自由选择公开的 Transformer模型,并利用 TensorRT或 NVIDIA TensorRT-LLM进行模型推理优化。

NVIDIA TensorRT™作为 GPU上的 AI推理加速库,一直以来都备受业界认可与青睐。本次比赛的背后是 NVIDIA TensorRT开发团队对产品不断进行改进和优化的结果。通过让更多模型能够顺利通过 ONNX自动解析得到加速,并对常见模型结构进行深度优化,极大地提高了 TensorRT的可用性和性能。这意味着大部分模型无需经过繁琐的手工优化,就能够在 TensorRT上有出色的性能表现。

TensorRT-LLM是 NVIDIA即将推出用于大语言模型推理的工具,目前已于官网开放试用。作为此次复赛推荐使用的开发工具之一,TensorRT-LLM包含 TensorRT深度学习编译器,并且带有经过优化的 CUDA kernel、前处理和后处理步骤,以及多 GPU/多节点通信,可以在 NVIDIA GPU上提供出类拔萃的性能。它通过一个开源的模块化 Python应用 API提高易用性和可扩展性,使开发人员能够尝试新的 LLM,提供最顶尖的性能和快速自定义功能,且不需要开发人员具备深厚的 C++或 CUDA知识。

作为本次大赛的主办方之一,阿里云天池平台为参赛选手提供了卓越的云上技术支持,在阿里云GPU云服务器中内置 NVIDIA A10 Tensor Core GPU,参赛者通过云上实例进行开发和训练优化模型,体验云开发时代的AI工程化魅力。同时,由NVIDIA 30名工程师组成导师团队,为晋级复赛的 40支队伍提供一对一辅导陪赛,助力选手获得佳绩。

从实践到迭代脑力与创造力的集中比拼

本次比赛中涌现出大量优秀的开发者。在获奖的 26支团队中,有不少团队选择借助 TensorRT-LLM对通义千问-7B进行模型推理优化。

通义千问-7B(Qwen-7B)是阿里云研发的通义千问大模型系列的 70亿参数规模的模型,基于 Transformer的大语言模型,在超大规模的预训练数据上进行训练得到。在 Qwen-7B的基础上,还使用对齐机制打造了基于大语言模型的 AI助手 Qwen-7B-Chat。

获得此次比赛一等奖的“无声优化者(着)”团队,选择使用 TensorRT-LLM完成对 Qwen-7B-Chat实现推理加速。在开发过程中,克服了 Hugging Face转 Tensor-LLM、首次运行报显存分配错误、模型 logits无法对齐等挑战与困难,最终在优化效果上,吞吐量最高提升了4.57倍,生成速度最高提升了5.56倍。

而获得此次赛事二等奖的“NaN-emm”团队,在复赛阶段,则选择使用 TensorRT-LLM实现 RPTQ量化。RPTQ是一种新颖的基于重排序的量化方法,同时量化了权重与中间结果(W8A8),加速了计算。从最开始不熟悉任何 LLM模型,到后续逐步学习和了解相关技术,“NaN-emm”团队启用了GEMM plugin,GPT Attention plugin,完成了 VIT、Q-Former、Vicuna-7B模型的转化,最终通过 40个测试数据,基于 Torch框架推理耗时 145秒,而经过 TensorRT-LLM优化的推理引擎耗时为 115秒。

本次大赛还涌现了一批优秀的开发者,本届参赛选手邓顺子不仅率领队伍获得了一等奖,还收获了本次比赛唯一的特别贡献奖。他表示,2022年的 Hackathon比赛是他首次接触 TensorRT,这使他对模型推理加速产生了浓厚的兴趣。尽管当时未能进入复赛,但那次经历让他深感自身技能的不足。在上一次比赛中,他目睹了顶尖选手使用 FasterTransformer在比赛中取得领先地位,这一经历让他对 AI技术有了更深入的理解和追求。随后,他积极做 TensorRT上的模型开发,特别是对 ChatGLM/Bloom等新兴模型进行了优化,感受到了 TensorRT的强大。

今年,他再次参加了 TensorRT Hackathon 2023,利用 TensorRT-LLM成功优化了 QWen大模型,实现了自己的梦想。他感谢主办方给予的机会,团队的支持,以及所有参赛者的努力,他期待未来能与大家一起为 AI技术的发展创造更多奇迹。

人工智能应用场景创新日新月异,AI模型的开发与部署也需要注入新的动能。在此次赛事中,选手们基于 TensorRT挖掘出更多的潜能和功能需求。未来,阿里云和NVIDIA还将持续为开发者和技术爱好者提供展示技能和创意的平台,天池平台将与更多优秀的开发者一同推进 TensorRT的发展,让 AI在 GPU上更容易、更高效地部署。

申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!

相关标签
阿里云

相关文章

  • 熙凰集团成为阿里云产品生态合作伙伴

    近日,杭州熙凰科技集团有限公司成为阿里云产品生态合作伙伴。未来,熙凰集团将携手云计算与科技智能的力量,共同建设影响世界的数字化企业服务产品和解决方案,为全球企业带来持续成功的客户价值。

    标签:
    阿里云
  • 阿里云将关停代销业务

    阿里云将会在今年9月30日之前,全面关停代销业务。这件事实际上始于今年4月份,阿里云当时已开始通知其经销商。这些经销商早已有所准备。

    标签:
    阿里云
  • 阿里云“通义千问”开源,可免费商用

    阿里云成为国内首个加入大模型开源行列的大型科技企业。就在昨天,阿里云公开表态,把自家的通义千问大模型开源。阿里云把通用70亿参数模型,包括Qwen-7B和对话模型Qwen-7B-Chat这两款大模型产品给开源了。

    标签:
    阿里云
  • 阿里云峰会发布《Well-Architected云卓越架构白皮书》:助力企业用好云管好云

    6月1日,2023阿里云峰会·粤港澳大湾区在广州举行,会上阿里云正式推出《云卓越架构白皮书》,为企业用云管云解决方案和产品化落地提供指引,助力企业构建更加安全、高效、稳定的云架构。本书由阿里云架构师团队、产品团队、全球交付团队等众多团队基于过去多年服务企业的经验总结共同撰写,从安全合规、稳定性、成本

    标签:
    阿里云
  • 性价比提升15%,阿里云发布第八代企业级计算实例g8a和性能增强型实例g8ae

    5月17日,2023阿里云峰会·常州站上,阿里云正式发布第八代企业级计算实例g8a以及性能增强性实例g8ae。两款实例搭载第四代AMDEPYC处理器,标配阿里云eRDMA大规模加速能力,网络延时低至8微秒。其中,g8a综合性价比平均提升15%以上,g8ae算力最高提升55%,在AI推理与训练、深度学

    标签:
    阿里云
  • 蓝色光标瞄准千亿,AI为何成战略胜负手?

    文/崔大宝当今商业界,人工智能(AI)无疑是不可或缺的话题,更是“新质生产力”的代表。2023刚一开年,由AI主导的这场史无前例的大变革,就以摧枯拉朽之势,推动“AI+”成为后十几年的发展主线,并以AGI底层技术力量,塑新千行百业,改变甚至颠覆现有的竞争格局。投射到万亿营销市场,从BATH的通用大模

  • 大模型争霸的下一站:不仅是超越GPT-4,更是寻求模型之间的平衡应用

    文|智能相对论作者|沈浪知名科学杂志《Nature》发表了一篇关于大模型规模参数大小争议的文章《InAl,isbiggeralwaysbetter?》——AI大模型,越大越好吗?随着大模型应用走向实践,这一问题不可避免地成为了当前AI行业发展的焦点与争议。有人认为,大模型当然是越大越好,参数越大,性

    标签:
    大模型
  • AI 如何赋能优质直播内容创作?

    图片|电影《机械姬》剧照‍‍‍‍‍‍‍‍‍‍‍©自象限原创作者丨周乾优质的直播内容已经成为各大直播间营收增长的核心驱动力,而在打造优质直播内容的方式中,AIGC无疑是目前更具性价比和效率的方向。事实上,AI在直播间的应用也越来越深入,比如AI数字人主播、AI技术推动直播服务的优化和升级等等。直播行业

  • AI如何赋能优质直播内容创作?

    ©自象限原创作者丨周乾优质的直播内容已经成为各大直播间营收增长的核心驱动力,而在打造优质直播内容的方式中,AIGC无疑是目前更具性价比和效率的方向。事实上,AI在直播间的应用也越来越深入,比如AI数字人主播、AI技术推动直播服务的优化和升级等等。直播行业线上化程度高,且内容质量直接决定其价值创造,这

  • 吐槽3家知名的AI智能体

    我花了2天时间,把松松最近1年的爆款文案+关键词+情绪+口头禅整理出来,4000多字的Prompt,都是一点点打出来的,再投喂到AI大模型里。使用的平台包括:通义千问、文心一言、智谱清言。接下来我吐槽下这3家AI模型的创建指令(Prompt)的体验:(注,本文只说指令功能,不说其他)(1)智谱清言智

    标签:
    ai智能
  • 解密Kimi:大模型应用当红顶流是如何练成的?

    抛开营销战,或许在中国也可以探索新的大模型应用聚合方式、供给方式以及商业利润分配的方式,对大模型公司来说,这将是一个新议题。

    标签:
    大模型
  • 讯飞会议耳机登上《新闻联播》,助力AI+办公新潮流全球加速普及

    据4月18日《新闻联播》报道,国务院总理李强在第135届中国进出口商品交易会(广交会)期间,对包括讯飞会议耳机在内的智能硬件出海情况表示关心。生成式AI会议助手,让工作效率翻倍近年来,随着文字、语音、图像等处理能力跃迁,大模型摇身变为“助理”走入办公室和会议室,结合传统软硬件,使得办公和会议智能化。

  • 清华团队国产“Sora”火了 可一键生成1080p高清视频

    近日,生数科技联合清华大学发布了视频大模型「Vidu」,其强大功能引起了全网关注。该模型支持一键生成长达16秒、分辨率达1080p的高清视频内容,画面效果接近Sora。据悉,Vidu生成的视频画面流畅,细节丰富,逻辑连贯,呈现出高度接近真实世界的效果,并且几乎不会出现穿模、鬼影、运动不符合现实规律的

  • 从汽车到汽车机器人,不用再等100年

    ©自象限原创编辑丨程心20世纪50年代开始,世界所有的汽车公司都竞相开发操作简单,功能齐全的理想家庭用车。1950年,全球汽车总产量首次超过一千万辆。价格低廉、驾驶方便、油耗低的百姓汽车广受大众青睐。但从1888年,奔驰生产出世界上第一辆可供售的汽车至1950年,整整经历了60年,家用汽车才开始走向

    标签:
    智能机器人
  • 为何海尔智家能够做到“换新不厌旧”?

    在繁忙的城市角落,张先生的小公寓里藏着一个宝贝——一台20年前的海尔老式彩电。这台电视见证了他的拼搏、快乐和岁月的流转。虽然他对新科技并不感冒,但他的儿子小张对此却充满了好奇和热情。小张在线上看到以旧换新活动的同时,说服了张先生,并在手机上下单预约上门服务。没多久,服务人员便上门拆走旧家电,安装调试

    标签:
    海尔智家

编辑推荐