Meta引爆AI圈!SAM 3发布:一句话就能精准分割图像视频中的对象
近日,Meta重磅推出新一代图像分割模型 Segment Anything Model 3(SAM 3),宣告视觉AI正式迈入“可提示”时代!这项突破性技术不仅延续了点选、框选等传统交互方式,更带来革命性的“文本驱动分割”能力——用户只需输入“黄色校车”“红色棒球帽”等简单描述,或提供一个参考对象,模型就能在图像或视频中自动识别并分割所有对应目标。
✨ SAM 3 四大升级亮点:
多模态提示融合
同时支持文本、示例图像、掩码、边界框等多种输入方式,交互更自由、更智能。
统一模型架构
首次将检测、分割与跟踪任务集成于单一模型,无缝覆盖图像与视频场景。
性能大幅提升
在Meta新构建的 SA-Co 基准测试中,SAM 3 精度显著超越前代,可识别超过27万个独特概念,处理能力达现有系统的数十倍!
开放体验平台
Meta 同步上线 Segment Anything Playground,普通用户无需代码基础,也能轻松体验强劲的一键分割与编辑功能。
不止于技术,更是场景革命:
• 内容创作升级:Instagram、Meta AI 等平台已集成新功能,创作者用文字指令即可锁定并编辑画面中的任意对象。
• 电商体验革新:Facebook Marketplace 借助 SAM 3D 推出“View in Room”功能,实时预览家具摆放效果。
• 自动数据标注:SAM 3 可批量标注数百万对象实例,极大降低人工标注成本。
• 空间计算新可能:3D重建、人体姿态估计等技术迎来突破,AR/VR、机器人交互将更加精准自然。
头条说:
Meta 此次发布的不仅是 SAM 3,更是“可提示视觉理解”的全新范式。从二维到三维,从单一对象到复杂概念,AI 正在以前所未有的方式“看懂”世界。未来的视频剪辑、虚拟场景构建、智能交互体验,或许都将因 SAM 3 而彻底改变。