装上 AI 大脑的无人机:人群中谁有暴力行为,它可精准识别
如果有一天,你想打我,你以为一拳头挥过来就完事了吗?
现在可不那么简单了。现在你如果想要打我,不仅要问问我爸妈同不同意,还得问问 AI 答不答应,可能你还没动手,就已经被我的 AI 所拦截下来了。
没错," 暴力检测 " 成为了当下的一个热门。在人群中实时检测 " 暴力行为 " 成为了现实,如果你想打架,最好先看看 AI 同不同意。
" 检测暴力 " 的 AI
这种能够检测 " 暴力行为 " 的 AI 系统由英国剑桥大学、印度国家技术研究院和印度科学理工学院的研究人员研发,此类 AI 技术利用悬停式四轴飞行器上的摄像头来检测每个人的身体动作。然后,当系统识别出攻击性的行为,如拳打、脚踢、刺杀、射击、掐脖子等时,它就会发出警报,准确率达到 85%。
它不识别人脸——只是监测人们之间可能的暴力行为。
借由无人机实现 AI" 暴力检测 "
这个系统可以扩展到自动识别非法越境的人,在公共场所发现绑架事件,并在发现暴力行为时发出警报。因此,在某种程度上,这种自主间谍无人机可以帮助警察压制犯罪,或帮助士兵在无辜群众中找出敌人。
AI 在检测暴力动作时,主要分为五个类型:扼杀、拳打、踢踹、枪击,以及刺伤。系统先用 FPN ( 特征金字塔网络 ) 检测在场的所有人类,并标记出头、上肢、下肢三个部分的 14 个重要位点,画出人体的骨架。然后,SHDL 网络可以分析四肢朝向等数据,判断那些人是不是在使用暴力。
可用于检测公共区域或大型聚会中的暴力分子姿态估计 pipelin e
当然,AI 暴力检测的效果也与数据处理人数有着很大关系。一般来说,系统需要处理的人数更少时,准确率会更高。如只需处理一人时,系统准确率可以达到 94.1%,如果人数超过了十人,准确率下降到仅 79.8%。同样,其在检测扼杀、拳打、踢踹、枪击,以及刺伤五种暴力行为时,也存在着准确率差异。行为的准确率
检测不同人数时的准确率
另一方面,无人机的应用也存在着一定的使用条件限制问题。在真正应用场景中,无人机无法直接靠近斗殴人群,只能实行高空检测,而这一定程度上降低了能见度和检测准确度。
AI 检测暴力,依然存在着众多问题
AI 检测在人工智能领域早已经不是新鲜事。不论是此前的 Dextro 公司利用机器学习来解读视频的声音和图象信息,还是谷歌解决鸡尾酒会问题,并成功推出新一代 Google Assistance,AI 检测一直是各领域应用的重要方式。
在云端执行推理有潜在的安全和隐私风险,因为要将人们的视频传输到第三方计算系统中。当 AI 渗入日常生活的监测过程之中,智能相对论(aixdlun)分析师柯鸣认为,其依然就几个问题 " 有待解决 "。
1. 泛滥的用户信息泄露
2017 年,是数据泄露极为猖獗的一年。根据金雅拓(Gemalto)近期发布的一份报告 "2017 Poor International Security Practices Take a Toll" 显示,2017 年仅上半年被盗的数据,就已超过 2016 年全年被盗数据的总量。
2017 年 1 月到 6 月,平均每天有 1050 万条记录被盗。尽管很多数据泄露来自于外部黑客攻击所致,但所造成的记录被盗或遗失,仅占 13%;相比之下,内部恶意泄露、员工疏忽无意泄露等造成的却占 19 亿被盗数据中的 86%。
早在此前的 Cambridge Analytica 丑闻造成了 8700 万人的信息泄露,并且对 2016 年唐纳德 · 特朗普参与美国总统竞选的结果造成了影响。Facebook 数据泄露事件再次向人们展现了信息泄露的危害," 被行为 " 或是 " 诱导行为 " 成为许多数据公司利用用户信息进行的不良操作。
可想而知,如果当 AI 监测暴力系统被恶意使用,其带来的风险更是相当严重。诸如此类的面部识别技术,如亚马逊的 Rekognition 服务,已经被美国警方采用。这些系统经常受到高误报率的困扰,或者根本就不准确,所以像这样的技术要和无人机结合还需要一段时间。
2." 大数据杀熟 "
从目前众多 AI 应用的表现来看,隐私数据的泄露所导致的 " 大数据杀熟 " 是一个不容忽视的问题。
信息泄露不仅会威胁到一个普通用户的网络账户安全,更会直接影响到其现实生活中的方方面面。最近闹得沸沸扬扬的 Facebook 用户数据泄露更是让全球用户纷纷自危,不少知名人士更是宣布从 Facebook 退出,扬言保护自身隐私数据安全。
在前段时间,滴滴被曝光对用户进行大数据杀熟,一时之间舆论纷纷,显然被人区别对待的感受不是每个人都喜欢,尤其是在加价的情况下。虽然之后滴滴很快对其进行了澄清,但大数据杀熟这种方式却已经被世人获知。
那么什么是大数据杀熟,通常而言,这种行为指的是通过大数据来判断用户消费潜力,当判断用户为高消费者时,则会对用户进行区别对待,提高其消费价格,比其他用户花费更多资金才能享受到相同的商品及服务。
互联网 上的杀熟早就不是什么新鲜的事情,自互联网诞生以来,这种行为便一直存在。而在 2000 年,也发生了一件令人瞩目的杀熟事件。有亚马逊用户反映,在其删除浏览器 cookies 之后,之前浏览过的 DVD 商品售价从 26.24 美元降至 22.74 美元。
此消息一出,备受舆论压力的亚马逊只能出来解释,称这项功能只是向不同顾客展示的差别定价实验,绝对与客户数据没有关系。最后也只能努力公关,才度过了这个信任危机。如今的一些互联网公司,显然已经忘记了亚马逊当年的遭遇,试图重蹈覆辙。
3.AI 监测恐侵犯主体的 " 知情权 "
在 AI 监测的过程中," 知情 " 确实成为了一个伦理争论的焦点。" 如何监测 "、" 是否知情 " 争议不断。诚然,随着行为识别技术的不断发展,许多识别技术都可以实现 " 非受控性 ":即主体无需配合,依然可以实现精准识别。
这无疑将 AI 伦理提到了一个新的高度。信息不再为我所有,确实让人细思极恐。那么,在公安与刑侦领域,AI 监测尚可让人信服,但在其他民用甚至是商用领域,如何平衡好 " 获取信息 " 与保障和满足受众基本的知情权将会成为一个重点和难点。
显然,许多大公司在此类 " 获取信息 " 与 " 保障隐私 " 两者中积极寻求平衡。Facebook 首席运营官雪莉 · 桑德伯格 ( Sheryl Sandberg ) 宣布为了响应欧盟即将于五月份生效的新隐私法规,Facebook 将让其 20 亿用户更容易地管理自己的个人数据。
在欧盟,将于今年五月份实施的《通用数据保护条例》 ( General Data Protection Regulation,GDPR ) 是自互联网诞生以来对个人隐私数据法规的最大一次修订。该条例旨在给予欧盟成员国内居民更多管理自身信息的权限,并规定了公司使用用户数据的方法。
总的来说,AI 监测暴力的出现,为安防与刑侦领域提供了一个便捷之道。但是,作为极为敏感的领域,精确性的问题依然是不可忽视的。毕竟,冤枉一个好人永远都不是一件好事。