AI面部识别领域又开辟了新业务?

2022-07-11 09:45:28

AI面部识别领域又开辟了新业务?

这一次,鉴别二战老照片中的人脸图像。

最近,谷歌的一名软件工程师Daniel Patt 研发了一项名为N2N(Numbers to Names)的 AI人脸识别技术可以识别二战前欧洲和大屠杀期间的照片,并将其与现代人联系起来。

用AI寻找失散多年的亲人

2016年,帕特在参观华沙波兰犹太人纪念馆时有了一个想法。

陌生的脸会和自己有血缘关系吗?

他的祖父母/外祖父母是波兰大屠杀的幸存者,他想帮助祖母找到纳粹杀害他们的家人的照片。

二战期间,由于波兰裔犹太人众多,并被关押在不同的集中营,许多人下落不明。

仅仅通过一张黄色的照片,很难区分谁是脸,更不用说找到失去的亲人了。

于是,他回到家,立刻把这个想法变成了现实。

该软件最初的想法是通过数据库收集人脸图像信息,并使用人工智能算法帮助匹配最相似的前十个选项。

大部分图像数据来自美国大屠杀纪念馆(The US Holocaust Memorial Museum),此外,来自全国各地的数据库还有100多万张图像。

用户只需选择计算机文件中的图像,点击上传,系统就会自动筛选出匹配图最高的前十个选项。

此外,用户还可以点击源地址查看图片的年份、地点、藏室等信息。

一个槽点是,如果输入现代人物图像,检索结果也可能离谱。

结果是这样吗?(黑人问号)

 

总之,系统功能需要改进。

此外,Patt它还与谷歌的其他软件工程师和数据科学家合作,以提高搜索的范围和准确性。

面部识别系统存在隐私泄露的风险,Patt表示,「我们对身份没有任何评价, 我们只负责以相似度分数呈现结果,让用户自己判断」。

AI面部识别技术的发展

那么这个技术是如何识别人脸的呢?

最初,人脸识别技术必须从「如何判断检测的图像是一张脸」开始。

2001年,计算机视觉研究人员 Paul Viola 和 Michael Jones 以高精度实时检测人脸的框架。

这个框架可以基于训练模型来理解「什么是人脸,什么不是人脸」。

训练结束后,模型将提取特定特征,然后将这些特征存储在文件中,以便将新图像中的特征与以前存储的特征进行比较。

为了帮助确保准确性,算法需要在包含「数十万正负图像的大型数据集」训练,以提高算法确定图像中是否有人脸及其位置的能力。

若所研究的图像通过了特征比较的各个阶段,则已检测到人脸并可继续操作。

尽管 Viola-Jones 在实时应用程序中,框架被用来识别人脸的高精度,但它有一定的局限性。

比如人脸戴口罩,或者脸没有正确定向,框架可能无法工作。

为帮助消除 Viola-Jones 他们开发了其他算法来改进框架的缺点和人脸检测。

例如,基于区域的卷积神经网络 (R-CNN) 单镜头检测器 (SSD)帮助改进流程。

卷积神经网络 (CNN) 它是一种专门用于图像识别和处理的人工神经网络。

R-CNN 在 CNN 框架上生成区域提议,以对图像中的对象进行定位和分类。

虽然网络的方法是基于区域(如 R-CNN)需要两个镜头——一个用于生成区域提议,另一个用于检测每个提议的对象——但 SSD 只需要一个镜头来检测图像中的多个对象。SSD 明显快于 R-CNN。

近年来,模型驱动的人脸识别技术的深度学习明显优于传统的计算机视觉方法。

传统的机器学习算法主要用于早期人脸识别,研究更注重如何提取更具识别性的特征,以及如何更有效地对齐人脸。

随着研究的深入,二维图像中传统机器学习算法人脸识别的性能逐渐达到瓶颈。

人们开始研究视频中的人脸识别问题,或者结合三维模型进一步提高人脸识别性能,少数学者开始研究三维人脸识别问题。

在最出名的 LFW 在公开数据库中,深度学习算法突破了二维图像中传统机器学习算法人脸识别性能的瓶颈,首次将识别率提高到 97% 以上。

即利用「CNN 网络建立的高维模型」 ,有效的识别特征直接从输入的人脸图像中提取,余弦距离直接计算进行人脸识别。

人脸检测已经从基本的计算机视觉技术发展到机器学习 (ML) 人工神经网络的进步日益复杂 (ANN) 结果是相关技术的持续性能改进。

如今,它在许多关键应用程序中发挥着重要作用——包括面部跟踪、面部分析和面部识别。

 

二战期间,中国也遭受了战争的创伤,当时照片中的许多人物早已无法辨别。

 

曾经遭受战争创伤的爷爷奶奶,有很多亲戚朋友下落不明。

 

这项技术的研发可能会帮助人们揭开尘封的岁月,为过去的人们找到一些安慰。

参考资料:https://www.timesofisrael.com/google-engineer-identifies-anonymous-faces-in-wwii-photos-with-ai-facial-recognition/