新智元报道
编辑:海狸
【新智元导读】Google双线出击!T5Gemma重燃encoder-decoder架构战火,性能暴涨12分;MedGemma坚守decoder-only路线,强攻医疗多模态,击穿闭源壁垒。Gemma体系完成「架构+落地」双重进化,打响Google开源反击战。
2023年以来,大模型的战场由decoder-only架构一统江湖。
从GPT家族到LLaMA、Gemma、Mistral,再到Claude、Command-R、Yi系列,
能叫得出名字的主流LLM,几乎都是清一色的「纯解码器」(decoder-only)。
但今天,Google带着T5Gemma杀回来了——
不仅重启了encoder-decoder的技术路线,还略施小技就让它原地起飞,暴打原版Gemma 2。
T5Gemma本身基于decoder-only的Gemma 2框架。
神奇的是,通过简单的「适配」转换成encoder-decoder架构后,T5Gemma一举实现性能飞跃。
T5Gemma 9B-9B在GSM8K(数学推理)上得分⽐原始Gemma 2 9B⾼出9分,在DROP(阅读理解)上⾼出4分。
进一步缩小参数量,结果反而更惊人!
T5Gemma 2B-2B IT的MMLU得分⽐Gemma 2 2B提高了近12分,GSM8K准确率暴涨到70.7%。
T5Gemma主要面向文本生成任务,包括问答系统、数学推理、阅读理解等。
并且encoder-decoder的架构支持「不平衡」配置。如9B编码器配2B解码器,可以在质量和效率之间游刃有余。
在相同的计算量下,T5Gemma性能优于仅解码器模型,灵活度也更胜一筹,可以根据具体任务调整编码器和解码器的大小。
除了Gemma 2的技术回马枪之外,Gemma 3系列也有重大更新!
Google这次专攻医疗多模态任务,基于Gemma 3架构,推出了MedGemma和MedSigLIP两款多模态模型。
MedGemma支持图文输入,输出是医学自由文本;MedSigLIP则是轻量图文编码器。
Google把「低资源友好」贯彻到底,MedGemma仅需4B模型即可逼近SoTA,部署门槛极低,单卡、甚至移动端也能轻松跑起来。
4亿参数的MedSigLIP也是全能王者,不仅擅长医学图像,检索、零样本分类等非医学下游任务也手拿把掐。
在Med系列「开源双子星」的轰炸下,医疗模型闭源壁垒岌岌可危,同行纷纷对Google表示祝贺和期待。
「架构+落地」双王炸,Google的开源LLM体系战略杀疯了。
四两拨千斤
重燃encoder-decoder架构之战
T5Gemma基于Gemma 2框架,包括适配后的Gemma 2 2B和9B模型,以及⼀组新训练的T5尺寸模型(Small、Base、Large 和 XL)。
Google已经将预训练模型和指令微调模型的T5Gemma系列在huggingface上开源,助⼒社区在研究与开发中挖掘新的机会。
一招适配,暴打原版
不少网友在T5Gemma发布后纷纷表示,encoder-decoder其实也具有很强的输入理解、上下文建模和推理能力。
然而,它却因为decoder-only架构的风头无两而被雪藏已久。
Google四两拨千斤,仅凭一招「适配」,把encoder-decoder架构重新带到聚光灯下。
在技术报告中,Google所提出的「模型适配」(Model Adaptation)理念其实非常直观:
直接利用已完成预训练的decoder-only模型权重,初始化encoder-decoder模型的参数,然后基于UL2或PrefixLM进行进一步训练。
具体而言,如图所示。
Google首先使用一个已经预训练完成的decoder-only模型,比如Gemma 2 9B或2B。
这个模型包含前馈网络模块(FFN)和一个因果自注意力+旋转位置编码(ROPE)模块
原本decoder-only模型中的「因果自注意力」模块会被替换为「双头注意力」以适配encoder。在encoder中,FFN和ROPE参数继续沿用原模型。
原始decoder-only中的模块中间新增一层 Cross-Attention之后,作为新架构的decoder,用于解码器从encoder输出中获取信息。
在上述结构完成初始化后,模型可以使用UL2或PrefixLM来适应encoder-decoder的信息流、masking策略和解码方式。
这种适配⽅法具有很⾼的灵活性,允许在模型尺寸之间进⾏创造性的组合。
想法简单,效果惊人
实验证明,T5Gemma的想法非常有效。
在相同的推理FLOPs下,T5Gemma的表现(星形点)始终高于或等于decoder-only模型(圆形点)。
在SuperGLUE基准上,T5Gemma的最高分超过90,显著领先于大多数decoder-only模型。
IT(信息提取)与PT(推理任务)指标同样展现出encoder-decoder架构的稳健性,特别是在中低FLOPs区间内性能提升尤为显著,说明它对计算资源的利用效率更高。
在真实场景下,T5Gemma的高效计算优势也一路狂飙,稳坐开源性能「性价比之王」。
以GSM8K(数学推理)为例,T5Gemma 9B-9B的准确率⾼于Gemma 2 9B,但延迟却相近。
T5Gemma 9B-2B在准确率上远超2B-2B模型,但其延迟却几乎与较⼩的Gemma 2 2B模型相同。
全方位碾压!T5Gemma不止于快
T5Gemma在预训练前后都展现出强⼤能⼒。
例如,T5Gemma 9B-9B在GSM8K(数学推理)上得分⽐原始Gemma 2 9B⾼出超过9分,在DROP(阅读理解)上⾼出4分。
这些提高意味着,通过「适配」进行初始化的encoder-decoder架构潜力更大。
进行指令微调后,Gemma 2与T5Gemma的性能差距在多个任务上进一步显著扩大。
T5Gemma 2B-2B IT的MMLU得分狂超Gemma 2 2B近12分,GSM8K准确率从58.0%跃升到70.7%。
MedGemma
击破医疗AI开源壁垒
Google这次盯上了医疗多模态场景,一口气发布两款模型:MedGemma和MedSigLIP。
Med系列多模态模型延续了「低资源友好」的策略。
基于 Gemma 3 打造的MedGemma生成式多模态模型,支持图像+文本输入,输出医学自由文本。
该模型提供 4B 和 27B 两种尺寸,4B 多模态版本可在单卡甚至移动设备上运行,一举把医学级模型推下了高算力「神坛」。
不管是放射报告生成,还是图像问答和病例摘要,它都能轻松胜任。
在 MedQA 等权威评测中,MedGemma 27B拿下 87.7% 高分,精度接近DeepSeek R1,但推理成本仅为十分之一!
图文编码器MedSigLIP更加短小精悍。
只有 4 亿参数,却能稳稳处理胸片、皮肤病、眼底等多种医学图像,并输出与文本对齐的语义嵌入。
图像分类、零样本识别和语义图像检索,统统一「模」搞定。
在开发过程中,团队首先把MedSigLIP训了出来,作为医学优化图像编码器。
然后在医学数据上训练了4B和27B版本的Gemma 3模型。
通过训练流程解耦,Gemma 3很好地保留了通用能力。MedGemma在融合医学与非医学信息、遵循指令、支持非英文语言等任务上依然表现良好。
单独训出来的MedSigLIP是一款仅 4 亿参数的轻量医学图像编码器,采用Sigmoid损失的SigLIP架构,如下图所示。
它的训练是通过胸片、病理切片、皮肤病图像与眼底图像等多样医学图像数据调优完成的。
MedSigLIP的核心目标是,将医学图像与文本编码为「同一语义空间嵌入向量」。
它在多种医学图像任务中的分类效果可媲美专用模型,同时通用性也不拜下风,完美胜任传统图像分类、零样本分类、检索等任务。
Gemma路线大升级
Google开源吹响反攻号角
Google这波开源一举把「反攻号角」吹到了医疗AI最前线。
无论是图文融合的MedSigLIP,还是医疗多语种全能选手MedGemma,全都以safetensors格式上线Hugging Face,直接拉低使用门槛。
开发者可以一键下载、灵活部署,还能在本地或自定义云平台完成推理与微调,隐私合规和数据安全轻松搞定。
不少医疗机构已经验证了Med系列医疗AI「开源双子星」的有效性。
例如,美国DeepHealth已开始使用 MedSigLIP 优化胸片分诊与结节检测;台湾长庚纪念医院称MedGemma能很好理解繁体中文医学文献,并有效回应医护问题。
对于医疗机构的不同需求,Google还给出了对应的模型选择建议。
Hugging Face上已经提供了32个版本的T5Gemma全家桶。
用户可以根据推理速度、内存预算、精度等个性化需求,自由选择模型型号,也可以选择预训练版、指令微调版、RLHF版,或基于不同目标(PrefixLM / UL2)训练的各种变体。
不止如此,Google还贴心给出全套使用手册、Colab示例和Vertex AI部署方案,从下载到上线一路畅通,开发效率直接拉满。
Gemma路线已经从「架构革新」延伸到「产业落地」。
Google这波上场更新,不止打破了闭源神话,更是为整个AI社区作出了「工具+自由+性能」的表率。
从T5Gemma到MedGemma,世界级开源模型已来,接下来,是开发者的上场。
参考资料:
https://developers.googleblog.com/en/t5gemma/
https://research.google/blog/medgemma-our-most-capable-open-models-for-health-ai-development/
https://x.com/_philschmid/status/1943013171389780341
《免费🔞成人❌❌二次元》,《P6F3X2M7T9QJ8L1B4WZR》花火裸体被❌涩涩
“日本熟妇Ⅹ公交车”
原神㊙️黄😍视频免费看
……
07月16日
“亚洲做受❌❌❌高潮软件”斯里兰卡一赛车失控撞向观众席
↓↓↓
07月16日,陕西佛坪:大熊猫秀“花样滑雪”才艺,张元英被财阀爆炒的视频,美女裸体被❌涩涩漫画软件,a🔴🍑我好🔴痒🔴本子,憨憨倩大长腿跳舞
07月16日,中新教育丨全球数字教育发展指数“出炉”:中国排名前进15位,扒开美女狂揉上门,中国老太太的毛耳耳,小蓝国产同性帅Gay片,亚洲AV㊙️无码一区在线播放
07月16日,加拿大敏感技术研究机构清单包括中国机构 中方严正交涉,男人㴬精XXXXX免费网站,美女被男生❌免费视频网,❌❌视频老师大白兔,❌❌爆乳❌❌扶她视频
07月16日|工信部:创新信息通信行业管理 优化营商环境|国产女同疯狂做爰XXXⅩa高潮|美女脱一光二净打屁股|云缨裸体被❌羞羞漫画app|大雷打狙免费观看完整版
07月16日|四川康定山洪泥石流灾害已致12人遇难、15人失联|提瓦特调教乱婬h侵犯在线文|體育生爽擼大雞吧黃片gv|JIL915沉迷于黑人的人妻|巴西做爰XXXⅩ性视频
07月16日|瞭望·治国理政纪事|舰指深蓝 向海图强|孕交XXOO变态孕妇69|我解开岳的乳罩吃她胸|pppe135|日韩裸体裸乳🍑免费看视频……
07月16日,加拿大“石油城”卡尔加里举行国际中文日活动,女同被❌到爽了玩具,扒开芙宁娜❌狂揉❌难受小说,亲嘴脱内衣👙内裤,于文华裸体大片免费观看
07月16日,河南周口非遗项目“龙”重登场,嗯~用力啊~嗯~c我~主人,男女被❌到爽🔞流尿小说,1000部丰满熟女富婆视频,貂蝉玉臀喷水沦为肉奴
07月16日|湖北谷城:“与世界共品一杯高香茶”|成人网站🔞美女成人补精|胡桃撕内衣👙挠奶头动漫|美杜莎调教游戏|日本成在人线av无码免费高潮
07月16日,今年前9个月泰国出口额持续增长,精品麻豆剧传媒AV国产九九九,花式自慰肉玩具,刘玥被躁的嗷嗷叫,夜兰裸体被❌羞羞的图片
07月16日,降雨增多 云南野生菌进入交易旺季,喷🔞🈲🍌流水高c,电视剧在线观看平台,自慰啊嗯~出水了明星,散兵被十几根触手扒开腿猛戳动漫
07月16日,国际识局:政府被议会推翻,总理将辞职,法国怎么了?,Gay白袜男强制捆绑视频网站,男男疯狂的❌进去自慰,玉足网站,国产高潮的无套A片激情视频大全
07月16日|多所高校向新疆、云南受灾学生开放灾后困难专项补助申请|小🐔🐔伸进🈲🔞🔞明星|菠萝视频网站色情入口|赵一曼被C到高潮下不了床|Japanese偷窥放屁fart网站
07月16日|天舟七号完成全区合练 各系统准备就绪|女学生婬荡呻吟扒开腿H漫画|91无码➕高潮➕在线不卡|禁漫天堂999性AV网站网址|视频丨9l❤️丨黑料3D
07月16日|突发!两名美国海军士兵在索马里海域失踪|artists免费观看高清版|人妖十八禁🔞免费网软件|白色丝袜美女被❌视频网站|91久久久无码国产一区二区
在暴雪时分,张庭 我都没去过这个楼盘|五四青春歌会唱响广州永庆坊手工书、皮影、凸版印刷 多国青年学子体验“书趣”|帅 Chinese Gay Fuck videos|七仙女裸体被强开双腿小说|男人的一半是女人e架|男生露出给别人摸网站
监制:邓金木
策划:赖晗
主创:唐征宇 林箴贺 陈佛烘 颜亦阳 陈林韵
编辑:王家菁、段圣祺