1. 首页 >精选经验 > 综合经验 > 正文

Meta的新AI模型可以追踪图片或视频中的任何物体

导读 我对人工智能不以为然的一个原因是,各大公司一直将其视为解决所有问题的解决方案。这就是为什么Meta的新SegmentAnythingModel(SAM2)让我如...

我对人工智能不以为然的一个原因是,各大公司一直将其视为解决所有问题的解决方案。这就是为什么Meta的新SegmentAnythingModel(SAM2)让我如此着迷。SAM2不会回答问题、编写代码、生成AI图像或创作音乐。相反,正如其名称所暗示的那样,新的AI模型只是对视频和图像中的对象进行分割——但它确实非常出色地完成了一项工作。

Meta将SAM2描述为“第一个用于实时、可提示的图像和视频对象分割的统一模型”。你可以使用它来选择多个可以实时跟踪的对象,即使它们在视频中不规则地移动。

以下仅是新“任何事物细分模型”实际应用中的几个激动人心的示例:

据Meta介绍,SAM2相对于第一个模型的改进包括图像分割效果更佳、视频跟踪效果更佳,并且交互时间比现有的交互式视频分割方法减少了三倍。

如果您想亲自尝试一下AI模型的功能,Meta在其网站上有一个演示,可让您在短视频中跟踪多个对象,然后进行各种编辑,包括更改背景和为选定的对象添加效果。

标签:

免责声明:本文由用户上传,如有侵权请联系删除!