IT之家 5 月 21 日消息,科技媒体 marktechpost 昨日(5 月 20 日)发布博文,报道称在 2025 年 I/O 开发者大会上,谷歌针对多模态医疗文本和图像理解,推出了 MedGemma 开源模型。

MedGemma 基于 Gemma 3 架构,提供 4B 参数的多模态模型(分类)和 27B 参数的纯文本模型两种配置,4B 模型擅长分类和解读医疗图像,可生成诊断报告或解答图像相关问题;27B 模型则擅长临床文本,支持患者分诊和决策辅助。

MedGemma 4B 拥有 40 亿参数,采用 SigLIP 图像编码器,预训练数据涵盖胸部 X 光、皮肤病学、眼科及组织病理学图像;MedGemma 27B 则有 270 亿参数,专注于医疗文本理解与临床推理,适合需要深入文本分析的任务。

模型既能本地运行用于实验,也可通过 Google Cloud 的 Vertex AI 部署为 HTTPS 端点,实现大规模应用。Google 还提供 Colab 笔记本等资源,助力模型微调和集成。

谷歌鼓励开发者针对具体场景进行验证和微调,并提供相关指导和工具,支持适配过程。开发者可采用提示工程、上下文学习及 LoRA 等参数高效微调方法优化模型效果。

“特别声明:以上作品内容(包括在内的视频、图片或音频)为凤凰网旗下自媒体平台“大风号”用户上传并发布,本平台仅提供信息存储空间服务。

Notice: The content above (including the videos, pictures and audios if any) is uploaded and posted by the user of Dafeng Hao, which is a social media platform and merely provides information storage space services.”