1. 创业头条
  2. 前沿领域
  3. AI智能
  4. 正文

谷歌 Gemma 4 正式开源,开源赛道迎来变局!

 2026-04-03 15:55  来源:互联网  我来投稿 撤稿纠错

  一键部署OpenClaw

4月3日凌晨,谷歌DeepMind悄然甩出一枚重磅炸弹——全新一代 开源大模型Gemma 4正式发布,以极其宽松的Apache 2.0协议向全球开发者免费开放。这是自2025年3月发布Gemma 3以来,谷歌时隔整整一年的重大迭代。

本次发布的Gemma 4包含四个不同规格的版本:E2B(有效20亿参数)、E4B(有效40亿参数)、26B混合专家模型(MoE)以及31B稠密模型(Dense),全面覆盖从手机、树莓派到工作站和服务器的全场景部署需求。谷歌DeepMind CEO Demis Hassabis在社交平台上以四颗钻石emoji暗示此次发布,并放话:“这是全球同等规模下最好的开源模型。”

Apache 2.0协议:一次迟到的诚意释放
Gemma 4最值得关注的变化并非参数或性能,而是它的开源协议。此前Gemma系列采用谷歌自有的定制化条款,开发者抱怨了一整年——可以用,但用途受限,再分发受限,修改了也不能随便传播,充其量只能算“开放模型”,远达不到AI圈真正的“开源”标准。相比之下,Gemma 4直接换成了Apache 2.0协议,这是业界最宽松、最成熟的开源协议之一,与Qwen、Mistral等主流开源模型采用相同的授权条款。没有使用限制条款,没有“禁止危害用途”等需要法律团队逐条解释的灰色地带,对再分发和商业部署没有任何限制。

这一转变意味着,企业和个人开发者现在可以无门槛地自由修改、分发和商业化使用Gemma 4,无需担心谷歌中途收回授权。对于此前因许可证问题转向Mistral或Qwen的团队而言,这个堵点终于被消除了。

参数效率的颠覆性突破
如果说许可证转向是态度上的诚意,那么性能表现则是技术上的硬实力。Gemma 4 31B Dense版本在Arena AI文本开源排行榜中冲到了全球第三,Elo评分1452,仅次于GLM-5和Kimi 2.5。排在前面的两位,参数量分别是它的20倍和30倍。换句话说,谷歌用三十分之一的体量打出了同等水平的成绩,“参数效率”这个词被重新定义了。

26B MoE版本同样亮眼:260亿总参数,推理时仅激活38亿,Elo达到1441,位列开源榜单第六。这意味着在手机上跑一个小模型,得到的响应质量可以堪比一年前千亿级参数的云端模型。

具体数据更为直观。相比上一代Gemma 3 27B,Gemma 4 31B在数学推理基准AIME 2026上从20.8%跳升至89.2%;代码能力基准LiveCodeBench v6从29.1%涨到80.0%,Codeforces编程竞赛ELO评分从110拉到2150,相当于人类编程竞赛“紫名”选手的水平。衡量智能体工具调用能力的τ2-bench从6.6%大幅跃升至86.4%。在研究生级科学问答GPQA Diamond测试中,得分从42.4%升至84.3%,几乎翻倍。

多模态能力同步补齐。所有版本均支持图像和视频输入,小模型版本额外搭载了音频编码器,支持语音识别与翻译。在MMMU Pro多模态推理测试中,31B版本达到76.9%,大幅领先前代的49.7%。长上下文短板也被补齐,MRCR v2 128K测试从13.5%跃升至66.4%。此外,Gemma 4原生支持超过140种语言,多语言基准MMMLU达88.4%。

值得注意的是,26B MoE与31B在大部分指标上只差2到5个百分点,但推理速度快得多。对于延迟敏感的应用场景,26B MoE的性价比更高。

从口袋到数据中心的全场景覆盖
Gemma 4的硬件适配范围堪称全面。31B Dense追求极致原始性能,未量化的bfloat16权重可放入单张80GB NVIDIA H100显卡运行,量化版本在消费级显卡上也能跑。26B MoE侧重低延迟,推理时仅激活38亿参数,Token生成速度极快,适合实时语音助手、自动化操作等需要快速响应的智能体场景。

端侧的E2B和E4B则与谷歌Pixel团队、高通、联发科联合优化,可在手机、树莓派、NVIDIA Jetson Orin Nano上完全离线运行,延迟接近于零。E2B在部分设备上的内存占用可压至1.5GB以下,使得真正的端侧AI部署成为现实。

此外,Gemma 4全系列内置可开关的“思考模式”,模型在输出答案前会先进行内部推理,极大提升了多步骤规划类任务的准确性。原生支持函数调用和结构化JSON输出,谷歌还同步发布了开源Agent开发工具包(ADK),让端侧模型也能变身“智能体”。

开源赛道迎来变局
自2024年2月Gemma首次发布以来,开发者已下载Gemma系列超过4亿次,构建了拥有超过10万个变体的生态系统。在上一代Gemma 3发布后的一年里,国内开源模型如DeepSeek、Qwen、GLM等迭代了好几轮,谷歌在开源领域的存在感一度被削弱。此次Gemma 4的发布,不仅是技术上的代际飞跃,更是开源赛道的一次权力重组。

Gemma 4现已可在Hugging Face、Kaggle、Ollama、Google AI Studio等多个平台免费下载使用。对于全球数百万开发者而言,一个真正开源、性能顶尖且能在本地自由运行的AI模型,正从云端落入每个人的口袋里。

申请创业报道,分享创业好点子。点击此处,共同探讨创业新机遇!

相关标签
大模型

相关文章

  • 字节火山引擎Seedance 2.0正式面向普通API客户开放申请,豆包大模型日均Token使用量突破120万亿

    4月2日,字节跳动旗下火山引擎在武汉举行的AI创新巡展上宣布,Seedance2.0API正式面向企业用户开启公测。同时,火山引擎总裁谭待在会上披露,截至今年3月,豆包大模型日均Token使用量已突破120万亿,在过去三个月内增长一倍,比2024年5月发布时增长1000倍。Seedance2.0:从

  • Claude Code意外泄露51万行核心源码,全球开发者连夜“抢救式”备份

    3月31日,科技圈上演了一场现实版的“代码大逃杀”。一向以“闭源”为傲的AI巨头Anthropic,因一个低级打包失误,将旗下明星产品ClaudeCode的完整源代码拱手送给了全世界。一次59.8MB的“裸奔”事情始于一个普通的周二早晨。Web3安全公司FuzzLab的实习研究员ChaofanSho

  • 大模型是下一代操作系统的未来,在这届云栖大会上已经到来

    9月24日,2025云栖大会在杭州开幕,阿里巴巴集团CEO、阿里云智能集团董事长兼CEO吴泳铭发表主旨演讲,首次系统性地阐述通往ASI的三阶段演进路线,包括智能涌现、自主行动以及自我迭代等,实现从学习人、辅助人到超越人的发展脉络。基于上述的发展路线,吴泳铭对外做出判断,大模型是下一代的操作系统。“我

    标签:
    大模型
  • 大模型抢滩高考志愿填报,能否顶替「张雪峰」们?

    文/二风来源/节点财经每年高考成绩放榜后,数千万考生和家长将迎来另一场硬仗——填报志愿。今年,这一领域迎来了AI的全面介入,多家互联网大厂和教育公司纷纷推出智能志愿填报产品,为考生提供院校和专业选择建议。据艾媒咨询数据,2023年中国高考志愿填报市场付费规模约9.5亿元,近九成考生愿意借助志愿填报服

    标签:
    大模型
  • 崔大宝:大模型降温背后的难点、卡点、节点

    崔大宝|节点财经创始人进入2024年,大模型似乎有熄火之势:资本市场,与之关联的概念炒不动了,英伟达股价动辄暴跌重挫,引发“泡沫戳破”的担忧;消费市场,BATH们的推新活动少了,产品更新迭代的速度慢了,民众的关注度降了……热闹的大概只剩下两场酣仗:自5月15日字节跳动宣布“以厘计费”,打响国内大模型

    标签:
    大模型

热门排行

编辑推荐