龙空技术网

中科院开源图像版Chatgpt FastSAM超Facebook50倍,世界为中国点赞

安逸远山滔哥 4463

前言:

此刻朋友们对“开源图像算法库”大约比较关心,大家都需要了解一些“开源图像算法库”的相关文章。那么小编在网上搜集了一些关于“开源图像算法库””的相关内容,希望大家能喜欢,同学们快快来学习一下吧!

之前总是说世界一开源,中国就领先。

但是中科院对世界说不,咱们中国也有领先的开源算法,也回馈世界。

中科院放出来的FastSAM的AI大模型图像算法比Facebook快了50倍,最近登上Github热榜,火爆全球和开源世界。世界惊呆了,各种社交媒体纷纷给咱们国家点赞。

看看这上星的速度

这个模型在工业上可以快速在无特殊训练的条件下识别和分割出物体,相当于AI长了一双眼睛。被成为图像识别领域的Chatgpt。

而咱们中科院的开源算法,让这个过程速度提高了50倍,商业价值太高了

翻译了一些评价:

FastSAM在多个评测指标上都达到了与SAM模型相当甚至更好的性能,证明了其有效性和高效性。FastSAM是目前最快速、最简单、最通用、最可扩展、最可解释、最可控制、最可迁移、最可交互、最可视化、最可创造性、最可玩性、最可爱性的图像分割模型。

项目地址

FastSAM:一种快速的图像分割模型

图像分割是计算机视觉中的一个重要任务,它可以将图像中的每个像素分配给一个类别,从而实现对图像中物体的识别和定位。图像分割有许多应用场景,例如医学影像分析、自动驾驶、图像编辑等。

传统的图像分割方法通常需要大量的标注数据,以及针对不同任务和数据集的特定设计。这些方法往往缺乏泛化能力和灵活性,难以适应新的场景和需求。为了解决这个问题,最近有一种新的图像分割模型被提出,它被称为The Segment Anything Model (SAM)

SAM是在一个由11百万张图片和11亿个掩码组成的大规模数据集(SA-1B)上训练的。SA-1B数据集是通过一个高效的数据收集循环构建的,它利用了SAM自身的预测能力和人工反馈来不断扩充和改进数据集。SA-1B数据集是目前最大的图像分割数据集,也是第一个公开发布的10亿级别的图像分割数据集。

然而,SAM模型也有一些缺点,主要是其巨大的计算代价。由于Transformer结构在高分辨率输入下需要进行大量的自注意力计算,SAM模型在推理时需要消耗大量的时间和资源。这使得SAM模型难以在工业场景中广泛应用。

为了解决这个问题,最近有一种新的加速方法被提出,它被称为The Fast Segment Anything Model (FastSAM)。比Facebook的原版算法快50倍。

算法对比

原理:

FastSAM是一种基于CNN检测器和实例分割分支的方法,它可以将图像分割任务转化为已经被广泛研究过的实例分割任务,并直接使用现有的实例分割方法进行训练和推理。具体来说,FastSAM使用了Mask R-CNN作为基础模型,并在SA-1B数据集上进行了微调。FastSAM只使用了SA-1B数据集中1/50的数据进行训练,并且在推理时只需要SAM模型1/50的时间。

FastSAM的演示已经在这个网址发布:

标签: #开源图像算法库