在 Google I/O 2025 大会上,公司 CEO Sundar Pichai 在活动首日的主题演讲中便分享了多项创新,例如 Gemini 2.5 的全系列升级,Agent Mode 上线 Chrome,编码智能体 Jules 开启公测,Android XR 正式版亮相等等。而在一众令人眼花缭乱的重磅更新之中,还隐藏着一个面向于医疗领域的重磅开源成果——MedGemma。
据官方介绍,MedGemma 系列模型基于 Gemma 3 构建,包含谷歌在医学文本与图像理解方面最强大的开源模型,提供 2 个版本,分别为 40 亿参数的多模态版本,以及 270 亿参数的纯文本版本。
相比于 MedGemma 27B,MedGemma 4B 更倾向于对医疗影像进行分析。MedGemma 4B 多模态版本采用了 SigLIP 图像编码器,该编码器经过专门预训练,使用的数据涵盖去标识化的医学图像,包括胸部 X 光、皮肤病图像、眼科图像和组织病理切片。其大语言模型组件则基于多种医学数据进行训练,涵盖放射影像、组织病理图像块、眼科与皮肤科图像以及医学文本。
针对医学图像的应用场景,MedGemma 能够完成生成诊断报告、推荐治疗方案、模拟病例回答等多项任务。为了方便读者更加直观地体验 MedGemma 的强大能力,「一键部署 MedGemma-4b-it 多模态医疗 AI 模型」教程已上线至 OpenBayes 公共教程中,快来体验 AI 医生问诊吧!
- 教程地址:
https://go.openbayes.com/MxZnH
此外,OpenBayes 公共教程还上线了「一键部署 MedGemma-27b-text-it 医学推理大模型」,该模型是 MedGemma 的另一个版本。MedGemma 27B 专门在医学文本上进行了训练,并针对推理阶段的计算进行了优化。点击下方链接,一键克隆体验!
- 教程地址:
https://go.openbayes.com/Je6f9
Demo 运行
01 运行阶段
1.登录 OpenBayes.com,在「公共教程」页面,选择键部署「一键部署 MedGemma-4b-it 多模态医疗 AI 模型」教程。
2.页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。
3.选择「NVIDIA RTX 4090」以及「PyTorch」镜像,OpenBayes 平台提供了 4 种计费方式,大家可以按照需求选择「按量付费」或「包日/周/月」,点击「继续执行」。新用户使用下方邀请链接注册,可获得 4 小时 RTX 4090 + 5 小时 CPU 的免费时长!
小贝总专属邀请链接(直接复制到浏览器打开):
https://go.openbayes.com/9S6Dr
- 等待分配资源,首次克隆需等待 2 分钟左右的时间。当状态变为「运行中」后,点击「API 地址」旁边的跳转箭头,即可跳转至 Demo 页面。请注意,用户需在实名认证后才能使用 API 地址访问功能。
02 效果演示
小贝上传了一张胸部的 X 光片,让模型为我们分析。可以看到 MedGemma 不仅对 X 光片进行了识别,而且还提出了具体的诊断建议。
**粗体** _斜体_ [链接](http://example.com) `代码` - 列表 > 引用
。你还可以使用@
来通知其他用户。