计算机视觉系统无处不在。它们帮助对社交媒体中的图像进行分类和标记,检测图像和视频中的对象和人脸,并突出图片中相关元素。然而,它们存在着偏见,并且在显示黑人、棕色人种和女性的图像时准确性较低。还有另一个问题:当前研究人员发现这些系统中的偏见的方法本身也存在偏见,将人们排序为不完全考虑人类之间复杂性的广泛类别。
索尼和Meta的两篇新论文提出了衡量计算机视觉系统偏见的方法,以更全面地把握人类的丰富多元性。这两篇论文将在十月份的计算机视觉会议ICCV上发表。开发人员可以使用这些工具来检查其数据集的多样性,从而帮助实现更好、更多样化的AI训练数据。这些工具还可以用于衡量生成式AI产生的人类图像的多样性。
传统上,计算机视觉中的肤色偏见是使用菲茨帕特里克肤色等级来衡量的,该等级从浅到深进行划分。菲茨帕特里克肤色等级最初是用来衡量白人皮肤晒黑程度的,但现在已广泛被采用作为一种确定种族的工具,索尼的AI伦理研究员威廉·汤表示。它被用来评估计算机系统对浅色和深色皮肤人群的准确性。
然而,用一个一维的等级来描述人们的肤色是具有误导性的,索尼的全球AI伦理负责人艾丽斯·翔表示。通过根据粗糙的等级将人们分类成组,研究人员忽视了影响亚洲人的偏见。亚洲人在西方AI数据集中占比较低,有时既属于浅肤色类别,又属于深肤色类别。这也没有考虑到人们肤色随着年龄变化的事实。例如,亚洲人的肤色随着年龄增长变得更黑、更黄,而白人的肤色变得更黑、更红,研究人员指出。
来自《麻省理工科技评论》查看全文