
中山大学与美团联合推出X-SAM模型 单次操作多对象分割技术20项测试全面领先
近日,中山大学与美团联合宣布推出全新的X-SAM(X-Segment Anything Model)模型,该模型在图像分割领域取得重大突破,实现了单次操作即可分割多个对象的技术创新。在20项专业测试中,X-SAM模型表现全面领先,有望为计算机视觉应用带来革命性变革。
X-SAM模型是由中山大学计算机学院与美团视觉智能团队历时两年联合研发的图像分割新模型。与传统的图像分割技术不同,X-SAM采用了创新的注意力机制和并行处理架构,首次实现了单次操作即可同时识别并分割图像中的多个对象,大幅提升了处理效率。
在技术层面,X-SAM模型融合了Transformer架构和卷积神经网络的优势,通过动态权重分配机制,能够精准捕捉图像中的细节信息和上下文关系。此外,该模型还引入了自适应阈值算法,有效解决了传统分割模型在复杂场景下的边界模糊问题。
为验证X-SAM模型的性能,研究团队在COCO、ADE20K等20个主流图像分割数据集上进行了全面测试。结果显示,X-SAM在分割精度、处理速度、内存占用等关键指标上均优于现有主流模型,其中在mAP(平均精度均值)指标上领先第二名达5.3个百分点,在处理速度上提升了近3倍。
X-SAM模型的推出将对多个领域产生深远影响。在自动驾驶领域,更精准高效的多对象分割技术将提升车辆对周围环境的感知能力;在医疗影像分析中,该技术可辅助医生快速识别并分割病灶区域;在电商和零售行业,X-SAM能够显著提升商品识别和图像搜索的准确性。
美团相关负责人表示,X-SAM模型将率先应用于美团的无人配送、智能零售等业务场景,预计可提升相关业务的处理效率30%以上。中山大学计算机学院教授指出,这一成果不仅体现了产学研合作的巨大潜力,也为中国在计算机视觉基础研究领域赢得了国际话语权。
研究团队表示,未来将进一步优化X-SAM模型的轻量化设计,使其能够在移动端和边缘计算设备上高效运行。同时,团队也计划将X-SAM与多模态大模型结合,拓展其在视频理解、3D重建等领域的应用。
据悉,中山大学与美团已达成协议,将在未来三年内投入超过5000万元,共同建设"智能视觉联合实验室",持续推动X-SAM模型的迭代升级和产业化应用。
相关链接: