Meta引爆AI圈!SAM 3发布:一句话就能精准分割图像视频中的对象

近日,Meta重磅推出新一代图像分割模型 Segment Anything Model 3(SAM 3),宣告视觉AI正式迈入“可提示”时代!这项突破性技术不仅延续了点选、框选等传统交互方式,更带来革命性的“文本驱动分割”能力——用户只需输入“黄色校车”“红色棒球帽”等简单描述,或提供一个参考对象,模型就能在图像或视频中自动识别并分割所有对应目标。

✨ SAM 3 四大升级亮点:

多模态提示融合

同时支持文本、示例图像、掩码、边界框等多种输入方式,交互更自由、更智能。

统一模型架构

首次将检测、分割与跟踪任务集成于单一模型,无缝覆盖图像与视频场景。

性能大幅提升

在Meta新构建的 SA-Co 基准测试中,SAM 3 精度显著超越前代,可识别超过27万个独特概念,处理能力达现有系统的数十倍!

开放体验平台

Meta 同步上线 Segment Anything Playground,普通用户无需代码基础,也能轻松体验强劲的一键分割与编辑功能。

不止于技术,更是场景革命:

• 内容创作升级:Instagram、Meta AI 等平台已集成新功能,创作者用文字指令即可锁定并编辑画面中的任意对象。

• 电商体验革新:Facebook Marketplace 借助 SAM 3D 推出“View in Room”功能,实时预览家具摆放效果。

• 自动数据标注:SAM 3 可批量标注数百万对象实例,极大降低人工标注成本。

• 空间计算新可能:3D重建、人体姿态估计等技术迎来突破,AR/VR、机器人交互将更加精准自然。

头条说:

Meta 此次发布的不仅是 SAM 3,更是“可提示视觉理解”的全新范式。从二维到三维,从单一对象到复杂概念,AI 正在以前所未有的方式“看懂”世界。未来的视频剪辑、虚拟场景构建、智能交互体验,或许都将因 SAM 3 而彻底改变。

© 版权声明

相关文章

暂无评论

none
暂无评论...