本文概要:
1. 担心训练数据集中的偏见会导致少数族裔承受欺诈、诈骗和虚假信息的压力。
2. 大部分深度伪造检测器是基于依赖于用于训练的数据集的学习策略。然而,这些检测方法并不总是适用于深色肤色的人群。
3. 缺乏对所有种族、口音、性别、年龄和肤色的包容性训练集可能会导致偏见。
站长之家(ChinaZ.com)8月18日 消息:专家警告说,为应对日益严重的深度造假(看起来逼真的虚假内容)威胁而开发的检测工具必须使用包含较深肤色的训练数据集,以避免偏见。
目前大多数Deepfake深度伪造检测器都基于依赖于训练数据集的学习策略,并利用人眼无法察觉的迹象进行检测,例如监测血液流动和心率。
然而,这些检测方法并不总是适用于深色肤色的人群,如果训练集中不包含所有种族、口音、性别、年龄和肤色的样本,就会存在偏见的问题。
专家们担心这种偏见将会导致对少数群体进行深度伪造的欺诈、诈骗和虚假信息的增加。为了解决这个问题,深度伪造检测工具需要使用视觉线索,如血液流动和心率检测,但由于深色肤色在视频流中很难提取心率,这些工具对少数群体的表现会较差。
因此,需要建立新的数据集,并使用更具代表性的肤色范围来训练机器学习模型,以确保包容性和准确性。然而,目前世界上还没有规定相应的监管措施,这导致偏见在新技术中仍然存在和复制。
为了解决这个问题,哈佛大学社会学教授兼谷歌客座研究员埃利斯·蒙克 (Ellis Monk) 开发了蒙克肤色量表。它是一种比科技行业标准更具包容性的替代尺度,并且将提供比可用于数据集和机器学习模型更广泛的肤色。专家们呼吁建立更具包容性的训练集和标准化的测量方法,以解决深度伪造检测工具的偏见问题。