数据集地址:https://storage.googleapis.com/openimages/web/visualizer/index.html?set=train&c=%2Fm%2F06mf6
数据组织
数据集被分成了演习集(9,011,219 张图像)、验证集(41,620 张图像)和测试集(125,436 张图像)三部分。这些图像用图像级的标签和边界框进行了标注,如下所述。

图像级标签
表 1 为 Open Images V4 数据集所有部分(演习集、验证集、测试集)的图像级标签的概述。所有图像都带有由机器通过类似于谷歌云视觉 API(https://cloud.google.com/vision/)的打算机视觉模型自动天生的图像级标签。这些自动天生的标签有很大的假正例率。
表 1:图像级标签。
此外,验证集、测试集以及部分演习集都带有经由人验证的图像级别标签。大多数验证事情都是由谷歌内部的标注职员完成的。一小部分数据标注事情是通过图像标注程序(Image Labeler)进行众包完成的:如 Crowdsource app 和 g.co/ imagelabeler。这个验证过程实际上肃清了假正例(但不能肃清假负例:图像中可能短缺一些标签)。终极得到的标签基本上是精确的,我们认为这些数据可以很好的被用于演习打算机视觉模型。我们利用了多个打算机视觉模型来天生样本(不仅仅是用于机器天生标签的模型),词汇表因此得到了显著的扩展(表 1 中的 #Classes 列)。
总的来说,数据集包含 19,995 个具有图像级标签的不同类。把稳,这个数字略高于上表中经由人工验证的标签的数量。缘故原由是机器天生的凑集中有少量的标签没有涌如今人工验证的凑集中。在 V4 演习集中,至少含有 100 个人工验证的正类才能算得上可演习的类。根据这个定义,我们可以认为有 7186 个类是可演习的。
边界框
表 2 为 Open Images V4 数据集所有部分(演习集、验证集、测试集)中逾 600 类边界框标注的概述。这些数据比 ILSVRC 和 COCO 目标检测寻衅赛的数据种别范围更大,包括「fedora」和「snowman」等新工具。
表 2:边界框。
对付演习集,我们在 174 万张经由人类验证的带有正类图像级别标签的图像上标注了边界框。我们关注的是最详细的标签。例如,如果一个图像带有标签 {car,limousine,screwdriver},我们会为「limousine」和「screwdriver」两类标注边界框。对付图像中的每个标签,我们都详尽地标注了图像中从属于该目标类的每个实例。我们一共标注了 1460 万个边界框。均匀每个图像有 8.4 个带有边界框的目标。90% 的边界框都是由谷歌的专业标注职员利用高效的「extreme clicking」界面手动绘制的 [1]。我们利用 [2] 中方法的增强版半自动地天生了剩下 10% 的边界框。经由人类验证,这些边界框的 IoU>0.7,在相应目标上有一个完美的边界框,它们在实际中的准确率非常高(均匀的 IoU 大约为 0.82)。由于实例过多(95,335 张图片上共有 1,327,596 个实例),我们仅为 95,335 张图像绘制了人体部分和「哺乳动物」的边界框。
对付验证集和测试集,我们为所有目标实例所有可能的正类图像级标签供应了详尽的边界框标注信息。所有的边界框都是手工绘制的。我们尽可能在语义层次构造中最详细的层次上标注边界框。在验证集和测试集中,均匀每个图像都有大约 5 个边界框。
在所有部分(演习集、验证集、测试集)中,标注职员还为每个框标记了一组属性。例如,解释该目标是否被遮盖(请参阅「download」部分(https://storage.googleapis.com/openimages/web/download.html#attributes)的完全描述)。
类的定义
图像的种别由 MID(机器天生的 ID)来标识,这些 MID 可以在「Freebase」或「Google Knowledge Grapg API」(https://developers.google.com/knowledge-graph/)中找到。在「class-description.csv」(https://storage.googleapis.com/openimages/2018_04/class-descriptions.csv)文件中可以找到每个类的简短描述。
统计和数据剖析
600 个边界框可标识的类的层次构造
在这里,我们将一组可以用边界框标识出来的类以一种层次构造表示出来(https://storage.googleapis.com/openimages/2018_04/bbox_labels_600_hierarchy_visualizer/circle.html),或者可以以 JSON 文件的办法下载它们(https://storage.googleapis.com/openimages/2018_04/bbox_labels_600_hierarchy.json):
标签分布
下图显示了标注结果在数据集中的分布情形。把稳,标签分布严重倾斜(注:y 轴为对数刻度)。根据正类样本的数量对各种排序。绿色代表正类样本,赤色代表负类样本。
论文:The Open Images Dataset V4: Unified image classification, object detection, and visual relationship detection at scale
论文链接:https://arxiv.org/abs/1811.00982
择要:在本文中,我们发布了 Open Images V4,这是一个包含 920 万张图像的数据集,对付图像分类、目标检测和视觉关系检测等任务有统一的标注。这些图像都具有许可共享和修正素材的创作共用容许证(Creative Commons Attribution license),网络自 Flickr,上面没有事先定义的类名或标签列表。这使得数据集具备自然的类的统计性子,避免了初始设计偏差。Open Images V4 供应了多个维度上的大规模数据:为 19800 个观点供应了 3010 万个图像级标签,为 600 个目标类供应了 1540 万个边界框,为 57 个类供应了 375000 个视觉关系标注。特殊是目标检测方面,我们供应了比仅次于我们的第二大数据集多 15 倍的边界框。在这些图像中常常涌现一些包含多个目标的繁芜场景(均匀每个图像有 8 个带标注的目标)。我们标注了它们之间的视觉关系,用来支持视觉关系检测,这是一个须要构造化推理的新兴任务。我们供应了关于数据集的深入、全面的统计数据,验证了标注信息的质量,并研究了随着演习数据的增加,目前盛行的一些模型的性能会如何变革。我们希望 Open Image V4 的规模、质量和种类能够促进进一步的研究和创新,乃至在图像分类、目标检测和视觉关系检测等领域之外也能有所助益。
图 1:Open Image 中用于图像分类、目标检测和视觉关系检测的标注示例。对付图像分类任务,正类标签(涌如今图像中)是绿色的,而负类标签(没有涌如今图像中)是赤色的。对付视觉关系检测任务,带有虚线轮廓的边界框将两个具有特定视觉关系的目标圈在一起。
图 17:每类边界框的数量。横轴是按边界框数量对各种进行排序的结果,为了提高可读性,我们将该结果用对数刻度表示。我们还标明了最常见的类的名称。
图 18:每张图像中的种别数量。每张图像不同种别数量归一化(左)和非归一化(右)直方图。
图 20:演习集中标注过的目标区域的比例:PASCAL、COCO、Open Images 中标注过的目标占图像区域百分比的累积分布;即面积低于某个值的实例的百分比。作为比拟基线,我们绘制了面积和边长均匀分布的边界框对应的函数。我们忽略了在 COCO 中标记为人群的边界框和在 Open Image 中标记为群组的边界框。
图 15:包含大量标注过的边界框的示例:分别包含 348、386 和 743 个边界框的图像。在很多这样的情形下可以利用 GroupOf,但实际上它们还是对此很感兴趣。
图 19:含有大量不同类别的标注的图像(左图中有 11 类标注,右图中有 7 类标注)。