前言:
眼前各位老铁们对“python设置图例标签的信息语言”大概比较着重,我们都想要知道一些“python设置图例标签的信息语言”的相关资讯。那么小编同时在网络上汇集了一些关于“python设置图例标签的信息语言””的相关知识,希望我们能喜欢,同学们一起来学习一下吧!前言:
与分类的图像打标签不同,目标识别的标签包含了更多的信息。理解训练数据集的打标签方法,对于理解YOLO的算法还是很有帮助的,而个训练集数据打标签又是一个容易理解的工作。因此,在学习YOLO算法之前,我们先看看,如何给用于目标检测的图像数据打标签。
打标签是一件很枯燥而又繁琐的事,因此必须借助软件工具了完成。
本文使用基于Python语言编写的工具labelme来完成打标签的工作,详解解读labelme的使用方法。
第1章 labelme概述
1.1 什么是标注/打标签?
在有监督的机器学习中,必须给进行训练的数据集打标签,表明真实图片的含义。
对真实图片进行标注其含义的过程,就是打标签。如下图所示:
标签的内容包括:
(1)问题的名称 (人工)
(2)物体所在方框(人工)
(3)方框对应的坐标(工具自动完成)
备注:
标注的形状,不一定是方框,也可以是轮廓或圆形,椭圆形等。YOLU采用的是矩形方框。
1.2 什么是labelme
Labelme 是一个图形界面的图像标注软件。其的设计灵感来自于 LabelMe. The Open annotation tool 。
它是用 Python 语言编写的,图形界面使用的是 Qt(PyQt)。
其Python的源代码在github的位置:
1.3 Labelme 能干啥?
Labelme 能够进行多种形式的图像数据标注。Labelme 以 JSON 文件存储标注信息。
(1)对图像进行多边形,矩形,圆形,多段线,线段,点形式的标注(可用于目标检测,图像分割,等任务)。
(2)对图像进行进行 flag 形式的标注(可用于图像分类 和 清理 任务)。
视频标注
(3)生成 VOC 格式的数据集(for semantic / instance segmentation)
PASCAL的全称是Pattern Analysis, Statistical Modelling and Computational Learning。
VOC的全称是Visual Object Classes。
PASCAL VOC竞赛目标主要是目标识别,其提供的数据集里包含了20类的物体。
(4)生成 COCO 格式的数据集(for instance segmentation)
MS COCO的全称是Microsoft Common Objects in Context,起源于微软于2014年出资标注的Microsoft COCO数据集,与ImageNet竞赛一样,被视为是计算机视觉领域最受关注和最权威的比赛之一。
COCO数据集是一个大型的、丰富的物体检测,分割和字幕数据集。这个数据集以scene understanding为目标,主要从复杂的日常场景中截取,图像中的目标通过精确的segmentation进行位置的标定。
图像包括91类目标,328,000影像和2,500,000个label。目前为止有语义分割的最大数据集,提供的类别有80 类,有超过33 万张图片,其中20 万张有标注,整个数据集中个体的数目超过150 万个。
(5)自定义图片+标签的自定义数据集
1.4 什么是JSON文件
JSON(JavaScript Object Notation) 是一种轻量级的数据交换格式。 易于人阅读和编写。同时也易于机器解析和生成。 它基于JavaScript Programming Language, Standard ECMA-262 3rd Edition - December 1999的一个子集。
JSON采用完全独立于语言的文本格式,但是也使用了类似于C语言家族的习惯(包括C, C++, C#, Java, JavaScript, Perl, Python等)。 这些特性使JSON成为理想的数据交换语言。
JSON建构于两种结构:
(1)“名称/值”对的集合(A collection of name/value pairs)。不同的语言中,它被理解为对象(object),纪录(record),结构(struct),字典(dictionary),哈希表(hash table),有键列表(keyed list),或者关联数组 (associative array)。
(2)值的有序列表(An ordered list of values)。在大部分语言中,它被理解为数组(array)。
1.5 Labelme 安装
(1)Anaconda环境
conda activate pytorch-gpu-os pip install pyqt5 pip install labelme
1.6 Labelme打开
在命令行模式下,执行labelme命令,常用的命令行参数:
--flags: comma separated list of flags 或者 file containing flags
--labels:comma separated list of labels 或者 file containing labels
--nodata:stop storing image data to JSON file
--nosortlabels:stop sorting labels
--output:指定输出文件夹
关于命令行参数的更多信息,可以使用 labelme --help 命令查看。
由于图像化打标签,也可以先打开工具,然后在工具中设置参数。
例如:labelme --nodata --autosave
Open:打开单张要标注的图片
Open Dir:打开要标准图片所在的文件夹(一组文件)
第2章 Labelme使用方法
2.1 分类标注(图像分类)
使用 labelme 进行图像分类标注的教程详见:labelme_classification
分类标注:标注整个图像是某一种类型或名称。
(1)用法
命令行输入 labelme image1.png --output image1.json --flags 0,1
- --output:标注文件存放位置。如果给的参数是以.json结尾,则会向该文件写入一个标签。也就意味着如果使用.json指定位置,则只能对一个图像进行注释。如果位置不是以.json结尾,程序将假定它是一个目录。注释将以与在其上进行注释的图像相对应的名称存储在此目录中。
- --Flags: 为图像创建分类标签,多分类用逗号隔开。
- --nosortlabels: 是否对标签进行排序
5.2 目标检测标注(目标检测)
使用 labelme 进行目标检测标注的教程详见:labelme_bbox_detection
目标检测标注:通过方框,标注图像中的某一部分属于哪某一种类型或名称,而不是整张图片。
(1)使用
labelme data_annotated --labels labels.txt --nodata --autosave
说明:
--autosave:自动存储成与图片文件名同名的标签文件,提高打标签的效率
--nodata :不需要把图片数据信息存储在标签文件中
(2)标签文件的内容
每个方框有标签的名称每个方框有的位置信息(X1,Y1)每个方框有的位置信息(X2,Y2)每个标签文件有对应的图片文件、是否包含图片的数据、图片的尺寸。
(3)Convert to VOC-format Dataset
# It generates:# - data_dataset_voc/JPEGImages# - data_dataset_voc/Annotations# - data_dataset_voc/AnnotationsVisualization./labelme2voc.py data_annotated data_dataset_voc --labels labels.txt
5.3 场景分割标注
使用 labelme 进行场景分割标注的教程详见:labelme_semantic_segmentation
5.4 实例分割标注
使用 labelme 进行实例分割标注的教程详见:labelme_instance_segmentation
5.5 视频标注
使用 labelme 进行视频标注的教程详见:labelme_video_annotation
5.6 其它形式的标注
Labelme 除了能进行上面形式的标注,还能进行下面形式的标注:
多边形矩形圆形多段线线段点
使用 labelme 进行其它形式的标注的教程详见:labelme_primitives
第3章 其他命令行工具
3.1 查看标注:labelme_draw_json
使用该命令可以快速查看JSON格式的标注。
3.2 格式转换:labelme_json_to_dataset:
使用该命令可以将JSON文件转为一组图像和标签文本文件。
3.3 把标签转换成图片:labelme_draw_label_png:
将label文本文件以图例的形式绘制到PNG格式的标签上,并显示出来。
关于上面三个命令的详细使用的方法见:命令行工具
————————————————
版权声明:本文为CSDN博主「文火冰糖的硅基工坊」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:
标签: #python设置图例标签的信息语言 #python设置图例标签的信息语言有哪些 #python画图设置标签 #js生成标签 #java怎么把图片放在标签里