图像分割,作为打算机视觉的根本,是图像理解的主要组成部分,也是图像处理的难点之一。
那么,如何优雅且体面的图像分割?
5行代码、分分钟实现的库——PixelLib,理解一下。

当然,如此好用的项目,开源是必须的。
为什么要用到图像分割?虽然打算机视觉研究事情者,会常常打仗图像分割的问题,但是我们还是须要对其做下“赘述”(方便初学者)。
我们都知道每个图像都是有一组像素值组成。大略来说,图像分割便是在像素级上,对图像进行分类的任务。
图像分割中利用的一些“独门秘技”,使它可以处理一些关键的打算机视觉任务。紧张分为2类:
语义分割:便是把图像中每个像素授予一个种别标签,用不同的颜色来表示。实例分割:它不须要对每个像素进行标记,它只须要找到感兴趣物体的边缘轮廓就行。它的身影也常常会涌如今比较主要的场景中:
无人驾驶汽车视觉系统,可以有效的理解道路场景。医疗图像分割,可以帮助年夜夫进行诊断测试。卫星图像剖析,等等。以是,图像分割技能的运用还是非常主要的。
接下来,我们就直奔主题,开始理解一下PixelLib,这个神奇又好用的库。
快速安装PixelLibPixelLib这个库可以非常大略的实现图像分割——5行代码就可以实现语义分割和实例分割。
老规矩,先先容一下安装环境。
安装最新版本的TensorFlow、Pillow、OpenCV-Python、scikit-image和PixelLib:
pip3installtensorflowpip3installpillowpip3installopencv-pythonpip3installscikit-imagepip3installpixellib
PixelLib实现语义分割
PixelLib在实行语义分割任务时,采取的是Deeplabv3+框架,以及在pascalvoc上预演习的Xception模型。
用在pascalvoc上预演习的Xception模型实行语义分割:
importpixellibfrompixellib.semanticimportsemantic_segmentationsegment_image=semantic_segmentation()segment_image.load_pascalvoc_model(“deeplabv3_xception_tf_dim_ordering_tf_kernels.h5”)segment_image.segmentAsPascalvoc(“path_to_image”,output_image_name=“path_to_output_image”)
让我们看一下每行代码:
importpixellibfrompixellib.semanticimportsemantic_segmentation#createdaninstanceofsemanticsegmentationclasssegment_image=semantic_segmentation()
用于实行语义分割的类,是从pixellib导入的,创建了一个类的实例。
segment_image.load_pascalvoc_model(“deeplabv3_xception_tf_dim_ordering_tf_kernels.h5”)
调用函数来加载在pascal voc上演习的xception模型(xception模型可以从文末传送门链接处下载)。
segment_image.segmentAsPascalvoc(“path_to_image”,output_image_name=“path_to_output_image”)
这是对图像进行分割的代码行,这个函数包含了两个参数:
path_to_image:图像被分割的路径。path_to_output_image:保存输出图像的路径,图像将被保存在你当前的事情目录中。接下来,上图,实战!
图像文件命名为:sample1.jpg,如下图所示。
实行代码如下:
importpixellibfrompixellib.semanticimportsemantic_segmentationsegment_image=semantic_segmentation()segment_image.load_pascalvoc_model(“deeplabv3_xception_tf_dim_ordering_tf_kernels.h5”)segment_image.segmentAsPascalvoc(“sample1.jpg”,output_image_name=“image_new.jpg”)
可以看到,在实行代码后,保存的图像中,所有工具都被分割了。
也可以对代码稍作修正,获取一张带有目标工具分段重叠(segmentation overlay)的图像。
segment_image.segmentAsPascalvoc(“sample1.jpg”,output_image_name=“image_new.jpg”,overlay=True)
添加了一个额外的参数,并设置为True,就天生了带有分段叠加的图像。
可以通过修正下面的代码,来检讨实行分割所需的推理韶光。
importpixellibfrompixellib.semanticimportsemantic_segmentationimporttimesegment_image=semantic_segmentation()segment_image.load_pascalvoc_model(“pascal.h5”)start=time.time()segment_image.segmentAsPascalvoc(“sample1.jpg”,output_image_name=“image_new.jpg”)end=time.time()print(f”InferenceTime:{end-start:.2f}seconds”)
输出如下:
InferenceTime:8.19seconds
可以看到,在图像上实行语义分割,只用了8.19秒。
这个xception模型是用pascalvoc数据集演习的,有20个常用工具种别。
工具及其相应的color map如下所示:
PixelLib实现实例分割
虽然语义分割的结果看起来还不错,但在图像分割的某些特界说务上,可能就不太空想。
在语义分割中,相同类别的工具被授予相同的colormap,因此语义分割可能无法供应特殊充分的图像信息。
于是,便出身了实例分割——同一类别的工具被授予不同的colormap。
PixelLib在实行实例分割时,基于的框架是Mask RCNN,代码如下:
importpixellibfrompixellib.instanceimportinstance_segmentationsegment_image=instance_segmentation()segment_image.load_model(“mask_rcnn_coco.h5”)segment_image.segmentImage(“path_to_image”,output_image_name=“output_image_path”)
同样,我们先来拆解一下每行代码。
importpixellibfrompixellib.instanceimportinstance_segmentationsegment_image=instance_segmentation()
导入了用于实行实例分割的类,创建了该类的一个实例。
segment_image.load_model(“mask_rcnn_coco.h5”)
这是加载 Mask RCNN 模型来实行实例分割的代码(Mask RCNN模型可以从文末传送门链接处下载)。
segment_image.segmentImage(“path_to_image”,output_image_name=“output_image_path”)
这是对图像进行实例分割的代码,它须要两个参数:
path_to_image:模型所要预测图像的路径。output_image_name:保存分割结果的路径,将被保存在当前的事情目录中。上图,实战第二弹!
图像文件命名为:sample2.jpg,如下图所示。
实行代码如下:
importpixellibfrompixellib.instanceimportinstance_segmentationsegment_image=instance_segmentation()segment_image.load_model(“mask_rcnn_coco.h5”)segment_image.segmentImage(“sample2.jpg”,output_image_name=“image_new.jpg”)
上图便是保存到目录的图片,现在可以看到语义分割和实例分割之间的明显差异——在实例分割中,同一类别的所有工具,都被授予了不同的colormap。
若是想用边界框(bounding box)来实现分割,可以对代码稍作修正:
segment_image.segmentImage(“sample2.jpg”,output_image_name=“image_new.jpg”,show_bboxes=True)
这样,就可以得到一个包含分割蒙版和边界框的保存图像。
同样的,也可以通过代码查询实例分割的推理韶光:
importpixellibfrompixellib.instanceimportinstance_segmentationimporttimesegment_image=instance_segmentation()segment_image.load_model(“mask_rcnn_coco.h5”)start=time.time()segment_image.segmentImage(“former.jpg”,output_image_name=“image_new.jpg”)end=time.time()print(f”InferenceTime:{end-start:.2f}seconds”)
输出结果如下:
InferenceTime:12.55seconds
可以看到,在图像上实行实例分割,须要12.55秒的韶光。
末了,奉上项目、模型下载地址,快去试试吧~
传送门PixelLib项目地址:https://github.com/ayoolaolafenwa/PixelLib
xception模型下载地址:https://github.com/bonlime/keras-deeplab-v3-plus/releases/download/1.1/deeplabv3_xception_tf_dim_ordering_tf_kernels.h5
Mask RCNN模型下载地址:https://github.com/matterport/Mask_RCNN/releases/download/v2.0/mask_rcnn_coco.h5
— 完 —
量子位 QbitAI · 头条号签约
关注我们,第一韶光获知前沿科技动态