站长之家 - 业界 2023-08-18 11:38

专家呼吁:Deepfake检测工具须考虑深色肤色群体 避免偏见

本文概要:

1. 担心训练数据集中的偏见会导致少数族裔承受欺诈、诈骗和虚假信息的压力。

2. 大部分深度伪造检测器是基于依赖于用于训练的数据集的学习策略。然而,这些检测方法并不总是适用于深色肤色的人群。

3. 缺乏对所有种族、口音、性别、年龄和肤色的包容性训练集可能会导致偏见。

站长之家(ChinaZ.com)8月18日 消息:专家警告说,为应对日益严重的深度造假(看起来逼真的虚假内容)威胁而开发的检测工具必须使用包含较深肤色的训练数据集,以避免偏见。

目前大多数Deepfake深度伪造检测器都基于依赖于训练数据集的学习策略,并利用人眼无法察觉的迹象进行检测,例如监测血液流动和心率。

人脸识别(2)

然而,这些检测方法并不总是适用于深色肤色的人群,如果训练集中不包含所有种族、口音、性别、年龄和肤色的样本,就会存在偏见的问题。

专家们担心这种偏见将会导致对少数群体进行深度伪造的欺诈、诈骗和虚假信息的增加。为了解决这个问题,深度伪造检测工具需要使用视觉线索,如血液流动和心率检测,但由于深色肤色在视频流中很难提取心率,这些工具对少数群体的表现会较差。

因此,需要建立新的数据集,并使用更具代表性的肤色范围来训练机器学习模型,以确保包容性和准确性。然而,目前世界上还没有规定相应的监管措施,这导致偏见在新技术中仍然存在和复制。

为了解决这个问题,哈佛大学社会学教授兼谷歌客座研究员埃利斯·蒙克 (Ellis Monk) 开发了蒙克肤色量表。它是一种比科技行业标准更具包容性的替代尺度,并且将提供比可用于数据集和机器学习模型更广泛的肤色。专家们呼吁建立更具包容性的训练集和标准化的测量方法,以解决深度伪造检测工具的偏见问题。

相关话题

推荐关键词

24小时热搜

查看更多内容

大家正在看