当前位置:首页>资讯 >行业资讯>面部识别中的有害偏见,阻碍了深度检测

面部识别中的有害偏见,阻碍了深度检测

2021-05-21 来源:JQRZX |责任编辑:小球球 浏览数:820 全球焊接网

核心提示:南加州大学的研究人员在Deepfake数据集和检测模型中存在偏见。一个普遍使用的数据集“绝大多数”是白人,尤其是白人女性。Deepfake检测器无法发现有色人种的欺诈性图像和视频。行业中的许多人认为Deepfake算法的发展

南加州大学的研究人员在Deepfake数据集和检测模型中存在偏见。一个普遍使用的数据集“绝大多数”是白人,尤其是白人女性。Deepfake检测器无法发现有色人种的欺诈性图像和视频。


行业中的许多人认为Deepfake算法的发展是如此迅速,以至于如此之快,以至于自动检测器将很快成为发现它们的唯一希望。



一个由研究员有三个为根据性别和种族中的误码率10.7%,差异知名deepfake探测器,发现尽可能多的尝试。


他们俩发现,尤其是流行的FaceForensics ++的平衡性很差。重要的是要注意对AI数据集中的偏见的关注是非常新的。随着改进,一段时间以来会出现更多的代表性不足的例子。


研究人员写道,在尝试发现假冒视频时,实现较低的假阳性率是一个“具有挑战性的问题”。


他们使用FaceForensics ++和Blended Image生物特征数据集,训练了MesoInception4,Xception和Face X射线模型,所有这些模型在视频检测中都“被证明是成功的”。这三个代表各种规模、架构和损失表述。



这三个检测器在男性和女性面部上的表现均相同,错误率的差异为0.1%至0.3%。用混合图像训练的检测器在显示较暗的非洲图像时效果最差,错误率相差3.5%至6.7%。


“混合图像”和“面部X射线”在处理白人男性面孔方面最为成功,所有白人面孔的错误率均为9.8%,白人男性的错误率为9.5%。


VentureBeat中的一篇文章对USC论文与去年科罗拉多大学博尔德分校,发表的另一篇论文进行了比较。根据该出版物,微软、Clarifai、亚马逊和其他公司编写的算法至少有95%的时间正确地识别了男性。


但是跨性别者中有38%的人将男性误认为女性。


一些研究人员正在研究面部生物特征活动性检测。一种努力认识到当血液在皮肤下以脉冲形式冲洗时,人的脸部会发生快速而细微的颜色变化。


Facebook仍因无法将危险的政治宣传与有关医疗保健的知情人士分开而烧伤,它在去年6月结束的Deepfake Detection Challenge中提供了100万美元的奖金。


打赏
分享到:
0相关评论
阅读上文 >> 青岛“十四五”智能制造的整体规划公布,以智能制造为主攻方向,加快打造“世界工业互联网之都”
阅读下文 >> IDS摄像机帮助疫苗瓶制造商检查瑕疵品

大家喜欢看的

  • 品牌
  • 资讯
  • 展会
  • 视频
  • 图片
  • 供应
  • 求购
  • 商城

版权与免责声明:

注明稿件来源的内容均为自动转载信息、企业用户或网友注册发布,本网转载出于传递更多信息的目的;如转载信息涉及版权问题,请及时联系网站客服,我们将第一时间对相关内容进行删除处理。同时对于资讯内容及用户评论等信息,本网并不表示赞同其观点或证实其内容的真实性;亦不承担任何法律责任。


本文地址:http://www.qqweld.com/news/show-9128.html

转载本站原创文章请注明来源:全球焊接网 或原稿来源。

推荐新闻

更多

微信“扫一扫”
即可分享此文章

友情链接

  • 旗下平台:货源网

  • 旗下平台:玩具网

2018-2023 QQWELD.COM All Rights Reserved 全球焊接网版权所有 丨 冀ICP备2024057666号
访问和使用全球焊接网,即表明您已完全接受和服从我们的用户协议。