[关闭]
@sambodhi 2018-10-23T14:23:14.000000Z 字数 2285 阅读 1665

Google 发布 Fluid Annotation,数据标注速度提高三倍!

作者 | Jasper Uijlings 等
译者 | Sambodhi
编辑 | Debra

AI 前线导读: 支撑人工智能的崛起的背后不仅有科学家、程序员,还有 “农民工”。这些所谓的农民工就是数据标注员。在人工智能灼热与闪亮的背后,数据标注产业,作为做基础的支撑,却显得格外粗粝与拙朴。这个产业就是个“血汗工厂”,引用该产业的一个员工的说法:“人工智能就像是一个孩子,标注好的图片就像是孩子的食物,而我们就是制作食物的人,最苦最累的我们做了,成名的只是那些制造孩子的人。” 这话说得没有错。那么,我们能不能让机器解放这些数据标注员呢?Google AI 就推出了 Fluid Annotation ,旨在提高数据标注的能力。

基于现代深度学习的计算机视觉模型(如由 TensorFlow 对象检测 API 实现的模型)的性能取决于日益增大的标注训练数据集(如 Open Images)的可用性。然而,获得高质量的训练数据很快成为计算机视觉的主要瓶颈。对于像语义分割(semantic segmentation)这样的像素级预测任务尤为如此,语义分割在自动驾驶、机器人和图像搜索之类等有广泛的应用。实际上,传统的手动标注工具需要使用注释器仔细点击边界来勾勒出图像中每个对象,这种过程很令人乏味,如下面的视频所示。在 COCO+Stuff 数据集中标注一个图像需要 19 分钟,而完成整个数据集的标注需要 53000 个小时!

AI 前线注:
使用 TensorFlow 对象检测 API 实现的计算机视觉模型可以参见《http://ai.googleblog.com/2017/06/supercharge-your-computer-vision-models.html》(https://ai.googleblog.com/2017/06/supercharge-your-computer-vision-models.html)。
关于标准训练数据集 Open Images,可参见《Announcing Open Images V4 and the ECCV 2018 Open Images Challenge》(https://ai.googleblog.com/2018/04/announcing-open-images-v4-and-eccv-2018.html)。
语义分割的应用可参见《Semantic Image Segmentation with DeepLab in TensorFlow》(https://ai.googleblog.com/2018/03/semantic-image-segmentation-with.html

视频地址:https://v.qq.com/x/page/t0761gtjon6.html

左图为 COCO 数据集的图像示例,右图为像素级语义标注。

我们将在 2018 ACM Multimedia Conference 会议的 Brave New Ideas 公开论文《 Fluid Annotation:用于完整图像标注的人机协作接口》(Fluid Annotation: A Human-Machine Collaboration Interface for Full Image Annotation),在这篇论文中,我们探讨了机器学习驱动的接口,用于标注图像中每个对象和背景区域的类标签与轮廓,从而将标注数据集的创建速度提高三倍。

AI 前线注: Fluid Annotation: A Human-Machine Collaboration Interface for Full Image Annotation 论文地址为:https://arxiv.org/abs/1806.07527

Fluid Annotation 从强语义分割模型的输出开始,人们要做标注工作,可以使用自然用户接口通过机器辅助编辑操作进行修改。我们的接口可以让标注者选择正确的内容和顺序,使他们能够有效地将精力集中在机器尚未知晓的内容上。

COCO 数据集中图像 Fluid Annotation 接口的可视化效果。

更确切地说,为了标注一张图像,我们首先通过预训练的语义分割模型(Mask R-CNN)来运行它。这将生成大约 1000 个带有类标签和置信度分数的图像片段。具有最高置信度的片段用于初始化标记,并将标记呈现给注释器。之后,注释器可以:(1)从机器生成的候选列表选择现有片段的标签。(2)添加一个片段来覆盖缺失的对象。机器识别出最可能预先生成的片段,通过这些片段,注释器可以滚动并选择最佳片段。(3)删除现有片段。(4)改变重叠片段的深度顺序。要更好地了解这个接口,请访问此网址 https://fluidann.appspot.com/ 来尝试 Demo(仅限于桌面)。

AI 前线注: Mask R-CNN 论文参见 https://arxiv.org/abs/1703.06870

在三幅COCO图像(左)分别使用传统手工标注(中)与 Fluid Annotation (右)的对比。虽然使用手工标注工具时,对象边界通常更精确,但标注差异的最大来源是由于人类注释器通常不同意确切的对象类。

Fluid Annotation 是使图像标注更快、更容易的第一步探索。在未来的工作中,我们的目标是改进对象边界的标注,通过加入更多的机器智能,使接口更快,最后扩展接口来处理以前看不到的类,而这些类最需要高效的数据收集。


原文链接: https://ai.googleblog.com/2018/10/fluid-annotation-exploratory-machine.html

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注