亚博app
Mou Mou Jidian Generator
发电机维修 发电机回收
发电机出售 发电机租赁
客户统一服务热线

040-602843481
11599863059

4静音发电机
您的位置: 主页 > 产品中心 > 静音发电机 >
揭秘丨反人脸识别,身份欺骗成功率达99.5%【亚博app安全有保障】

揭秘丨反人脸识别,身份欺骗成功率达99.5%【亚博app安全有保障】

本文摘要:在一些社交媒体平台,每次你上载照片或视频时,它的人脸识别系统不会企图从这些照片和视频中获得更加多信息。比如,这些算法不会萃取关于你是谁、你的方位以及你了解的其他人的数据,并且,这些算法在不断改进。现在,人脸识别的克星——“反人脸识别”问世了。多伦多大学ParhamAarabi教授和研究生AvishekBose的团队研发了一种算法,可以动态地毁坏人脸识别系统。

亚博app

在一些社交媒体平台,每次你上载照片或视频时,它的人脸识别系统不会企图从这些照片和视频中获得更加多信息。比如,这些算法不会萃取关于你是谁、你的方位以及你了解的其他人的数据,并且,这些算法在不断改进。现在,人脸识别的克星——“反人脸识别”问世了。多伦多大学ParhamAarabi教授和研究生AvishekBose的团队研发了一种算法,可以动态地毁坏人脸识别系统。

他们的解决方案利用了一种叫作对付训练(adversarialtraining)的深度自学技术,这种技术让两种人工智能算法互相对付。现在,深度神经网络早已被应用于各种各样问题,如自动驾驶车辆、癌症检测等,但是我们迫切需要更佳地解读这些模型更容易受到反击的方式。在图像识别领域,在图像中加到小的、往往不能察觉到的阻碍就可以愚弄一个典型的分类网络,使其将图像错误地分类。

这种被阻碍的图像被称作对付样本(adversarialexamples),它们可以被用来对网络展开对付反击(adversarialattacks)。在生产对付样本方面早已有几种方法,它们在复杂性、计算成本和被反击模型所需的采访级别等方面差异相当大。

一般来说,对付反击可以根据反击模型的采访级别和对付目标展开分类。白盒反击(white-boxattacks)可以几乎采访它们正在反击的模型的结构和参数;黑盒反击(black-boxattacks)不能采访被反击模型的输入。一种基线方法是较慢梯度符号法(FGSM),它基于输出图像的梯度对分类器的损失展开反击。FGSM是一种白盒方法,因为它必须采访被反击分类器的内部。

反击图像分类的深度神经网络有几种反感的对付反击方法,如L-BFGS、acobian-basedSaliencyMapAttack(JSMA)、DeepFool和carlin-wagner等。然而,这些方法都牵涉到到对有可能的阻碍空间展开简单的优化,这使得它们速度慢,计算成本低。与反击分类模型比起,反击目标检测的pipeline要艰难得多。

最先进设备的检测器,例如FasterR-CNN,用于有所不同尺度和方位的对象方案,然后对它们展开分类;其目标的数量比分类模型大几个数量级。此外,如果受到反击的方案只是总数的一小部分,那么依然可以通过有所不同的方案子集正确地检测出受阻碍的图像。因此,顺利的反击必须同时愚弄所有对象方案。

在这个案例中,研究人员证明了对最先进设备的人脸检测器展开较慢对付反击是有可能的。研究人员研发了一种“隐私滤镜”,可以阻碍人脸识别算法。该系统依赖2种AI算法:一种继续执行倒数的人脸检测,另一种设计来毁坏前者。研究人员明确提出一种针对基于FasterR-CNN的人脸探测器的新反击方法。

该方法通过产生微小的阻碍(perturbation),当将这些阻碍加到到输出的人脸图像中时,不会造成实训练过的人脸探测器过热。为了产生对抗干扰,研究人员明确提出针对基于实训练FasterR-CNN人脸检测器训练一个生成器。等价一个图像,生成器将产生一个小的阻碍,可以加到到图像中以愚弄人脸检测器。

人脸检测器只在未受阻碍的图像上展开脱机训练,因此对生成器的不存在浑然不觉。随着时间的流逝,生成器学会了产生阻碍,这种阻碍可以有效地愚弄它所训练的人脸探测器。分解一个对付样本非常较慢而且成本低,甚至比FGSM的成本更加较低,因为为输出创立一个阻碍只必须在生成器经过充份的训练后展开前向传送(forwardpass)。

两个神经网络互相对付,构成“隐私”滤镜研究人员设计了两个神经网络:第一个用作辨识人脸,第二个用作阻碍第一个神经网络的辨识人脸任务。这两个神经网络大大地互相对付,并互相自学。

其结果是一个类似于instagram的“隐私”滤镜,可以应用于照片,以维护隐私。其中的秘诀是他们的算法转变了照片中的一些特定像素,但人眼完全察觉到将近这些变化。“阻碍性的AI算法无法‘反击’用作检测人脸的神经网络正在找寻的东西。”该项目的主要作者Bose说道:“例如,如果检测网络正在找寻眼角,阻碍算法就不会调整眼角,使得眼角的像素不那么醒目。

算法在照片中造成了十分微小的阻碍,但对于检测器来说,这些阻碍不足以愚弄系统。”算法1:对付生成器训练等价人脸检测置信度的对付成功率。α值是边界板区域被分类为人脸之前的confidencethreshold,右边两列回应600张照片中检测到脸部的数量。

研究人员在300-W人脸数据集上测试了他们的系统,该数据集包括多种族,有所不同灯光条件和背景环境的多达600张人脸照片,是一个业界的标准库。结果表明,他们的系统可以将原本可检测到的人脸比例从相似100%减少到0.5%。所明确提出的对付反击的pineline,其中生成器网络G创立图像条件阻碍,以愚弄人脸检测器。

Bose说道:“这里的关键是训练两个神经网络互相对付——一个创立更加强劲的面部检测系统,另一个创立更加强劲的工具来停止使用面部检测。”该团队的研究将于将要举办的2018年IEEE国际多媒体信号处理研讨会上公开发表和展出。将300-W数据集的人脸检测和适当的对付样本展开对比,这些样本具备分解的阻碍,没被FasterR-CNN人脸检测器检测到。被检测到的人脸被围困在具备适当置信度值的边界板中。

为了可视化,阻碍被缩放了10倍。除了停止使用面部辨识之外,这项新技术还不会阻碍基于图像的搜寻、特征辨识、情感和种族辨别以及其他可以自动萃取面部属性。

接下来,该团队期望通过app或网站公开发表这个隐私滤镜。“十年前,这些算法必需要由人类定义,但现在是神经网络自己自学——你不必须向它们获取任何东西,除了训练数据,”Aarabi说道。

“最后,它们可以作出一些十分真是的事情,有极大的潜力。


本文关键词:亚博app安全有保障,揭秘,丨反,人脸,识别,身份,欺骗,成功率,达,在

本文来源:亚博app-www.onepyf.com

Copyright © 2007-2021 www.onepyf.com. 亚博app科技 版权所有  ICP备案:ICP备65342004号-4