跳到正文
Back to Feed

总结

中国科研团队研发多模态视觉语言模型AFLoc,提出多层次语义结构对比学习,将多粒度医学概念与影像特征对齐,实现无需专家标注的病理定位与分类。在22万对胸部X光影像-报告数据上训练,并在覆盖34种病理的8个外部数据集验证,定位与分类均优于现有方法。模型还可迁移至组织病理与视网膜眼底等模态,在多项定位任务中超过人类基准,成果发表于《自然·生物医学工程》。

正文

🔬 中国团队研发 AFLoc 模型实现无标注病理定位突破 中国科研团队开发出名为 AFLoc 的多模态视觉语言模型,实现了无需专家标注的病理定位技术突破。该模型采用多层次语义结构对比学习技术,将多粒度医学概念与图像特征全面对齐,以适应病理表达的多样性。研究团队利用包含 22 万对胸部 X 光图像报告的数据集进行实验,并在涵盖 34 种病理的 8 个外部数据集上完成验证。结果显示,AFLoc 在无标注定位与分类任务中均优于现有先进方法。此外,该模型在组织病理学和视网膜眼底图像等模态上展现出强泛化能力,在 5 种病理图像定位表现中超越了人类基准。相关研究成果已发表于《自然生物医学工程》期刊。 (科技圈)
发布时间: