机器人可以通过照片指认罪犯?这个“谬论”最近被中国研究员给证实了
事实上,自从人类发明摄影术以后,学术界与人工智能界就正式开启了关于“如何通过面部识别技术来确认 罪犯 ”的脑洞:
摄影时代的到来曾让一部分19世纪科学家坚信,机器绝对有能力通过识别人的面部特征来准确找到 罪犯 。虽然他们这种假设最终被打上了“不可信”与“荒谬”的标签,但200年以后,这一曾经的“谬论”却可能为他们挽回声誉:
新一代人工智能技术或许可以证明他们的言论是有据可查的。
上海交大:神经网络识别犯人的精准度高达89.5%
在中国,来自上海交通大学的研究员吴小林与张希让这个极具争议的传统型议题——“通过面部识别确认 罪犯 ”再次回归大众视野:
他们建立了一个据说只需通过验证面部特征就可找出犯人的神经网络。
在他们的论文中,为了证明这个理论的可行性,研究员们将大量嫌疑犯与未犯罪者照片混放在一起,继而利用大量机器视觉算法来测试这些人的面部表情,目标就是发掘出一套能够可靠分辨出犯人的神经网络系统。
在这个过程中,科学家需要将1856张无面部毛发(包括眉毛、嘴毛以及胡须等等)、年龄在18~56岁之间的中国人照片灌输给神经网络。这些照片中的一半人(约有730张已被确认为犯罪者)具有犯罪前科。
值得注意的是,研究员只用其中的90%来训练人工智能以识别犯人与普通人之间的差异,其余10%用来检测这套系统的目标达成度。
而成果的确令人印象深刻。根据研究人员提供的数据,这套神经网络区分犯人与普通人的精准度高达89.5%。 因此,吴小林与张希也认为:
“即便‘通过面部表情推测罪犯’是一个历史争论,但这些与事实高度匹配的结果的确是一个很好的证据。”
被神经网络解析的图片
研究结果与MIT科技评论此前给出的解释非常类似,神经网络识别面部特征的要素可以被划分为三个类别:
- 犯人上唇的弯曲度会比普通人平均高出23%;
- 犯人双眼内眼角之间的距离比普通人窄6%;
- 犯人的鼻尖与嘴角之间形成的角度比普通人小20%。
不过上海交大的研究员们还得出了一个更有意思的结论:与普通人相比,犯罪者之间的面部表情往往呈现出更大的差异。
“换句话说,比起罪犯们的脸,普通大众的脸有更高的相似度;而犯人之间的面容比普通人有更大的差异度。”
实际上,上海交大的研究结果很难引起人工智能界的惊讶:这个准确率极高的结果根本不值得大惊小怪。
此前学术界就指出,如果“犯罪心理学家”的存在是对“人类有能力分辨出犯人与普通人”的最好证明,那么机器也应该有能力这么做——毕竟神经网络系统就是对人类大脑的最好模仿。
人工智能在面部识别应用领域的技术与道德局限:
然而,这项特殊研究的主要方法还不能获得足够信任,原因就在于研究所选取的各项参数还存在诸多问题。
譬如用于训练神经网络的照片样本是严重受限的(只有1000多份)。或者至少可以这么说,研究结果在很大程度上取决于照片的质量与数量。
因此,这个研究成果一公布,就毫不意外地引起网友的担忧与谴责:
照这么说,人们无意中翘起的嘴角,嘴巴的大小与形状,拍摄照片的角度都会让一个人变得“贼眉鼠眼”。因此,研究结果所谓的科学依据与可靠性仅仅是人工智能技术的“一厢情愿”。
而MIT科技评论也认为,这项人工智能技术引起的最大担忧其实在于,计算机很可能在人类法庭上根据一个人的面相,带有偏见来指证一个无辜的人。与此同时,一个看起来很无辜的犯人也有可能被机器证明“无罪”而逍遥法外。
实际上,就像文章开头所说的,对此类研究的大肆谴责一直延续了几十年甚至上百年。
譬如今年9月,在一项名为Beauty.AI的选美大赛上,由 6 名 AI 机器人 担任评委。这些 机器人 利用 5 种算法对来自全球年龄在18-69岁的自拍照片进行了评判。
但选美结果却遭到了很大的非议——因为机器人根本“不喜欢”皮肤黑的人,几乎所有黑皮肤的照片都被机器筛掉了。
所以说,这种带有“种族歧视”的结果再一次让基于人工智能的面部识别技术陷入尴尬的境地。
因此,就像Beauty.AI选美大赛首席技术官Alex Zhavoronkov给出的解释一样,对神经网络进行充足的训练是将人工智能推入应用层的前提:
“如果在你采集的数据库中没有足够多不同肤色的照片可以参考,那么人工智能机器人注定会产生有偏见的结果。”
或许我们不能质疑,未来某一天,除了完美打破各项成功纪录,人工智能技术将有足够能力执行各种基于面部识别的任务。
但是,我们却不能排除另一个潜在的安全威胁:那些被机器打上“无害”标签的普通人真的不会给我们带来威胁吗?在这项技术足够成熟后,如何鉴别那些能够进行完美“反侦查”的“伪装者”?
或许这些理由就是我们不能对人工智能识别技术掉以轻心的根本原因。