查看原文
其他

不用再学图像分割了?用它!








你知道metaAI 出了一个工具叫Segment Anything,可以做到zero-shot segmentation吗?


这个是什么呢?能详细讲讲吗?




就是不需要任何数据直接给你做图像切割,比如下面这个图像就是没有任何数据情况下segment出来的



这个处理后的照片就是数据吗?但是就只有这个照片也无法来了解裂缝的长宽呀?


当提取出裂缝之后,可以通过雷达或者光感测算的方式,做到裂缝特征值的计算。


哦哦,那这个AI工具的优势在什么地方?


裂缝检测直接可以用这个,不再需要大量数据的训练了。这个远远优于目前已有的图像切割算法。


哦,那这个工具可以理解为segmentationGPT。


对的哟,这个工具估计会在未来应用于许多应用场景。



1

什么是Segment Anything?

Segment Anything是Facebook AI Research团队开发的一种新的图像分割模型,该模型使用了一种新的方法,可以在不需要大量标注数据的情况下,对图像中的任何物体进行分割。这种方法可以帮助计算机视觉领域的研究人员和开发人员更轻松地训练模型,从而提高计算机视觉应用程序的性能。



2

Segment Anything干了什么?

Segment Anything并没有做到chatgpt似的能力,目前只能在分割领域来进行结果输出,只不过跟之前相比,以前我们要预测固定种类的标签,完成一个特定场景的任务,比如医学任务,缺陷检测等,现在变成我们可以预测一切需要分割的东西,无论任何应用场景,一个模型搞定全部分割的活。所以,这离CV大结局还远得很,离视觉的chatgpt也远得很,现在只是在分割领域做到了一个通用的大模型,并不是这个模型能解决所有CV的事了。




3

Segment Anything应用场景

Segment Anything模型可以用于许多应用场景,例如:

01

自动驾驶

自动驾驶汽车需要能够识别道路、车辆和行人等物体。



02

医学图像分析

Segment Anything模型可以更准确地对这些组织和器官进行分割,帮助医生更好地诊断疾病。




03

视频监控

视频监控系统需要能够识别和跟踪不同的对象,从而提高视频监控系统的性能。





4

Segment Anything研发思路

SAM 的研发灵感来自于自然语言和计算机视觉中的 “prompt 工程”,只需对新数据集和任务执行零样本学习和少样本学习即可使其能够基于任何提示返回有效的分割掩模。

其中,提示可以是前景/背景点、粗略框或掩模、自由文本或者一般情况下指示图像中需要进行分割的任何信息。有效掩模的要求意味着即使提示不明确并且可能涉及多个对象(例如,在衬衫上的一个点既可能表示衬衫,也可能表示穿着它的人),输出应该是其中一个对象合理的掩模。

这项任务用于预训练模型,并通过提示解决通用下游分割任务。


chatgpt爆火后,最期待的就是视觉大模型了,什么时候才能以不变应万变,才是AI的终极解决方案。

2023年以来各路大厂的兄弟,跟我唠的最多的就是公司研究和业务发展都要转大模型,无论CV和NLP都是如此,那么可以看出2023年注定是AI不平凡的一年。


我们总说在自己的年龄干自己该干的事,2023年,AI突然发力,有一种14岁的孩子就考了清华状元的感觉。

在本该他快乐玩耍的年纪,AI偷偷地学了全世界的知识,可能本应2025年才可能发生的事,今年已经开始遍地开花了。


今天看到Segment Anything,就像上学时候盼着体育课一样,

今天它终于来了。








推荐阅读




编辑丨屈柯行 麦文彬 曾学聪

校审丨霍钧资 高熙哲

责编丨孙羽捷 张绣宇



更多领航人物专访启迪班资讯

请关注同济大学学生科协

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存