1. 创业头条
  2. 前沿领域
  3. AI智能
  4. 正文

清华学霸引爆“长文本”大战,大模型的应用前景清晰了吗?

 2024-04-02 13:30  来源:A5专栏  我来投稿 撤稿纠错

  【推荐】海外独服/站群服务器/高防

文 | 智能相对论

作者 | 沈浪

Long-LLM(长文本大模型)时代似乎来得有些突然,而引爆这场热潮的,竟是一家由清华学霸牵头的本土AI初创企业。

前不久,月之暗面(Moonshot AI)公司宣布旗下对话式 AI 助理产品 Kimi 应用现已支持200万字无损上下文输入。

对比去年10月份Kimi上线时仅支持的20万字,这一波升级直接提升了10倍文本处理能力,同时也引起了强烈的市场反应,特别是在资本市场,Kimi概念股应运而生,诸如九安医疗、华策影视、中广天择等都受益于Kimi概念而实现了股价不同程度的涨幅。

这些刺激更让大模型领域彻底卷起了长文本大战。

01 “长文本”大战,卷的不是字数而是财力

阿里率先完成自家的大模型产品升级,强化长文本处理能力,免费面向大众开放最高1000万字的长文本处理能力。

360则紧随其后,宣布旗下360智脑正式内测500万字的长文本功能,并在360AI浏览器开放给用户使用。

而百度也宣布在下个月进行版本升级,开放长文本能力,文字范围会在200万-500万字。

目前,文心一言的文本上限大致为2.8万字。而像GPT-4Turbo-128k公布的文本范围也不过为10万汉字,Claude3200k上下文约16万汉字。

可以说,这一波热潮直接把国内的大模型厂商一下子都拉进了百万量级的长文本竞赛,而主流厂商的入局也为这场“长文本”大战增添了很多看头。

目前来看,“长文本”大战的赛点主要呈现在两个方面。

一方面,是大模型的支持文本参数。类似阿里通义千问的1000万字、360智脑的500万字、百度文心一言的200万-500万字、Kimi的200万字等等,都在极力向市场争“彩头”,告诉用户自家的长文本处理能力足够“长”。

另一方面,是长文本处理能力的开放程度。有意思的是,Kimi是免费开放给用户使用的,阿里通义千问的长文本处理功能也是免费的,360智脑、百度文心一言也没有要收费的意思。——以“长文本”大战为例,今年的大模型竞争远比去年要“卷”得多。

还记得去年大火的妙鸭相机,以及各式各样的图片生成式服务,都或多或少地通过各种形式如充值、办会员等,要求用户付费才能体验。

今年大模型领域的这把“火”烧得旺,也烧的离奇地“free”。

为什么?

Kimi自升级以来,就有大量用户不断涌入,激增的流量更是一度让月之暗面(Moonshot AI)的服务器承受了巨大的压力,一度陷入宕机,旗下的App和小程序都无法正常使用。

根据月之暗面(Moonshot AI)发布的官方消息,从3.20观测到流量异常增高后,已经进行了5次扩容工作。推理资源会持续配合流量进行扩容,以尽量承载持续增长的用户量。

简单来说,用户对长文本功能是非常有兴趣的,相关的市场需求还在保持持续性的、爆炸性的增长。同时,大量的用户涌进,不仅提高了大模型产品的知名度,更重要的是在大量用户的基础上通过类似于UGC的模式去探索大模型的应用,或许更能进一步推动Long-LLM(长文本大模型)的商业化进程。

当然,在这个过程中,不可避免地就得投入大量资金,一旦商业化加速,大模型厂商就得做好“卷”财力的准备。

阿里通义千问目前免费对所有人开放高达万页的文档处理能力,如果要计算成本,按照目前最便宜的市价0.1元/页,10000页的文档光解析费用就要1000元,这还不包括解析完成之后大模型处理文档的成本。考虑到通义千问网页、APP、钉钉等多个端口的用户基数,需要投入的资金恐怕不会是个小数目。

大模型的商业化在开始阶段并非“赚钱”,而是“烧钱”。

02 长文本,直接“接驳”商业化场景

在大模型的商业化进程上,长文本的爆火是很关键的一环。

就大模型的技术原理而言,解决长文本问题是必要的。因为文本长度的提高,对应的模型能解决问题的边界也将大幅提升,两者呈现出明显的正向关系。

传统的文本处理模型受限于训练结构,可支持的文本范围都不算长,在处理复杂任务和深度专业知识(这一类知识往往都是长篇巨著)时,只能拆解输入训练,由此就有可能导致输出的结果上下文逻辑不连贯不顺畅等问题。

区别于传统的文本处理模型,长文本模型就具备更准确的文本理解和生成能力以及更强大的跨领域迁移能力。这对于打造垂直领域的行业专家是一个非常必要的能力支持,比如面向一些长篇巨制的医疗文献、法律文件、财务报告等,长文本模型就具备更好的理解能力,对应完成跨领域学习和应用,从而打造出更专业的医疗助理、法律助理以及金融助理等应用。

话不多说,实践一下。

在这里,「智能相对论」向阿里通义千问相继“投喂”了几本长达数百页的专业书籍,涵盖以《高产母猪饲养技术有问必答》为代表的农业养殖、以《犬猫营养需要》为代表的宠物喂养等等小众领域。

结果所能实现的效果确实令人惊讶,阿里通义千问不仅能高度概括总结这些长篇巨著的主要内容,还能有针对性的给出具体篇章的知识解答。比如,在《高产母猪饲养技术有问必答》一书中,「智能相对论」向其提问“夏季高温提问应该如何饲养母猪?”很快就得到了书中的精炼解答。

这意味着什么?只要用户有足够多的专业书籍“投喂”给大模型,那么大模型就可以成长为一个专业的专家助理,帮助用户快速解答相关专业问题。

在日常生活中,或许有很多书籍是我们没办法去仔细阅读和学习的,但是只要有长文本大模型予以支持,那么基本上人人都能创造一个专业的垂直领域助理。

这或许会颠覆现在我们获取信息、知识的渠道,去百度搜索或是去知乎提问、亦或是去小红书讨论这些路径都将被替代。

在Kimi开放20万字文本处理能力的时候,其做了一个简单的对比,20万字等于什么?答案是等于先秦的全部古籍。随着长文本大模型进入百万量级的迭代,那么这些能力还能实现进一步的进化,对应所赋予场景应用的机会就是无限的。

如今,在AI领域,Agent的话题也很火,被认为是下一个主流的应用形态。那么,打造Agent的关键是什么?答案正是大模型的长文本处理能力。

比如,Kimi就在帮助元隆雅图等公司进行营销升级,基于长文本处理能力来提供爆品文案分析、文案写作、市场分析、辅助营销策划等功能。

尽管现在很多相关的应用还处在探索阶段,但是谁又能确定下一个爆款应用不是出自自家的大模型+某个C端用户的想法/某个企业客户的业务融合?正因如此,大模型厂商们才不顾一切的升级并开放长文本功能,为下一场应用上的爆火做准备。

目前,长本文的火爆还只是技术上的,接下来的爆点大概率将是应用上的爆发。

03 写在最后

2024年是大模型大规模走向商业化的关键一年。从Kimi的火爆程度来看,以长文本为代表的技术迭代走向C端引发了非常积极的反馈。同时,在「智能相对论」的实践中,也预感这一能力随着技术的成熟和完善,必然会在C端用户的手中被“玩出花来”。

只是目前很多的“玩法”还缺乏打磨,显得比较粗糙。OpenAI在发布GPT商店时,就期望要打造一个全新的生态,人人都能创造自己的专属GPTs。

现在,摆在大众面前的长文本热潮,其实就是一个全民时代到来的信号。只要用户有书,会投喂,那么同样可以在国内的大模型平台上打造出属于自己想要的专业助理,进而延伸到应用端的火爆。

当然,在这个过程中,书籍的版权问题、平台的审核问题以及巨大的流量涌入所带来的诸多挑战和问题,也是大模型走向商业化的难点。但是,其根本的方向是清晰的,Long-LLM(长文本大模型)时代已经拉开序幕,从技术到应用,接下来大模型厂商们有得卷了。

说实在,就目前各大厂商公布的参数,从500万到1000万,基本上也足够用了。大模型在长文本技术层面或许不会再有什么值得卷了,哪怕是有也只是背地里正常迭代和发展。

接下来的爆点只能是往应用层面来看。不管是To C还是To B,谁家的平台最先把大众化的应用探索并验证出来,再加以打磨推向大众市场,那么谁就有可能成为下一个市场的宠儿。

*本文图片均来源于网络

此内容为【智能相对论】原创,

仅代表个人观点,未经授权,任何人不得以任何方式使用,包括转载、摘编、复制或建立镜像。

部分图片来自网络,且未核实版权归属,不作为商业用途,如有侵犯,请作者与我们联系。

•AI产业新媒体;

•澎湃新闻科技榜单月度top5;

•文章长期“霸占”钛媒体热门文章排行榜TOP10;

•著有《人工智能 十万个为什么》

•【重点关注领域】智能家电(含白电、黑电、智能手机、无人机等AIoT设备)、智能驾驶、AI+医疗、机器人、物联网、AI+金融、AI+教育、AR/VR、云计算、开发者以及背后的芯片、算法等。

申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!

相关文章

  • 讯飞会议耳机登上《新闻联播》,助力AI+办公新潮流全球加速普及

    据4月18日《新闻联播》报道,国务院总理李强在第135届中国进出口商品交易会(广交会)期间,对包括讯飞会议耳机在内的智能硬件出海情况表示关心。生成式AI会议助手,让工作效率翻倍近年来,随着文字、语音、图像等处理能力跃迁,大模型摇身变为“助理”走入办公室和会议室,结合传统软硬件,使得办公和会议智能化。

  • 清华团队国产“Sora”火了 可一键生成1080p高清视频

    近日,生数科技联合清华大学发布了视频大模型「Vidu」,其强大功能引起了全网关注。该模型支持一键生成长达16秒、分辨率达1080p的高清视频内容,画面效果接近Sora。据悉,Vidu生成的视频画面流畅,细节丰富,逻辑连贯,呈现出高度接近真实世界的效果,并且几乎不会出现穿模、鬼影、运动不符合现实规律的

  • 从汽车到汽车机器人,不用再等100年

    ©自象限原创编辑丨程心20世纪50年代开始,世界所有的汽车公司都竞相开发操作简单,功能齐全的理想家庭用车。1950年,全球汽车总产量首次超过一千万辆。价格低廉、驾驶方便、油耗低的百姓汽车广受大众青睐。但从1888年,奔驰生产出世界上第一辆可供售的汽车至1950年,整整经历了60年,家用汽车才开始走向

    标签:
    智能机器人
  • 为何海尔智家能够做到“换新不厌旧”?

    在繁忙的城市角落,张先生的小公寓里藏着一个宝贝——一台20年前的海尔老式彩电。这台电视见证了他的拼搏、快乐和岁月的流转。虽然他对新科技并不感冒,但他的儿子小张对此却充满了好奇和热情。小张在线上看到以旧换新活动的同时,说服了张先生,并在手机上下单预约上门服务。没多久,服务人员便上门拆走旧家电,安装调试

    标签:
    海尔智家
  • 也谈谈AI洗稿

    前几天腾讯发了个公告称:平台巡查发现有些MCN和作者发布大量“AI洗稿”内容。并宣称要对“AI洗稿”行为进行打击,同时鼓励合理运用AI技术。其实我是想借此机会,给大家说说“AI洗稿”这件事,隐秘在黑暗角落里的赚钱行为。“洗稿”就是把别人的文章用AI工具修改润色一下或调整段落,然后再发到自媒体平台上,

    标签:
    ai智能
  • 竞逐智能家居大模型:美的“蓄力”,海尔“疾行”

    随着ChatGPT火热出圈,AI大模型便成为了各行各业必争的高地。

    标签:
    智能家居
  • 李彦宏新目标,押注AI原生应用

    文/道哥“未来,自然语言将成为新的通用编程语言。你只要会说话,就可以成为一名开发者,用自己的创造力改变世界。”4月16日,百度创始人、董事长兼首席执行官李彦宏在Create2024百度AI开发者大会上表述了对未来AI人工智能发展的新一轮展望。自OpenAI发布ChatGPT大模型后,这股AI人工智能

    标签:
    李彦宏
  • AI算力竞赛加速散热技术变革,液冷方案获行业青睐

    进入AIGC时代,智算中心规模日渐庞大,服务器能耗与日俱增。如何降低智算中心能耗已成为国家和地方政府关注的焦点。工信部数据显示,2022年全国数据中心总耗电量约2700亿千瓦时。当前,大部分数据中心仍主要采用风冷散热技术,在单柜密度、PUE值方面已愈发难以满足行业发展及绿色节能方面的要求,而冷板式液

  • 中国AIGC最值得关注企业&产品榜单揭晓!首份应用全景图谱发布

    “你好,新应用!”站在大模型落地元年,是时候喊出这句话了。从软件APP、智能终端乃至具身智能等等,AIGC开始席卷一切。大模型玩家、互联网巨头、终端厂商、垂直场景玩家纷纷入场,办公、创作、营销、教育、医疗领域相继被渗透……一个万亿市场,正在酝酿。站在浪潮起点,当下发展究竟如何了?机遇在哪?挑战如何?

  • 标准引领促转型 提升新质生产力——2024数字教育标准创新应用研讨会召开

    4月14日,以“标准引领促转型,提升新质生产力”为主题,由全国信息技术标准化技术委员会教育技术分技术委员会主办,锐捷网络承办的2024数字教育标准创新应用研讨会暨《高等学校数字校园建设规范(试行)》(以下简称《规范》)优秀及典型应用案例的颁奖活动在福州举办。本次会议聚焦赋能新质生产力和高校教育数字化

编辑推荐