Axon设立AI伦理委员会,将研究人脸识别技术危害
据外媒报道,Axon近日推出了一个全新的AI伦理委员会以此来为公司的AI技术使用提供指导。委员会未来每年将举行两场会议,他们将就即将到来的Axon产品的道德问题特别是它们的使用可能对社区治安带来的影响展开讨论。
对此,隐私倡导机构敦促该委员会密切关注Axon的人脸识别技术开发。
Axon发言人Steve Tuttle告诉外媒The Verge:“他们可以让我们对公众负责,并帮助我们为执法行动制定一套AI伦理准则。”
虽然这家公司目前还没有开发出专门针对执法部门的实时人脸识别技术,但CEO Rick Smith曾表示,这种技术对于解决儿童诱拐或恐怖分子搜捕等极端案件非常有用。
直到去年,Axon的名字还叫Taser International,新名字则来自其云平台。这个平台拥有20多亿字节的数据,Axon表示这使公司成为了美国甚至可能是全球最大的公共安全数据保管平台。
由41个公民权利组织组成的团队对这个新委员会做出回应,他们希望Axon能将像实时人脸识别等技术产品定义为不道德行为。该团队在写给Axon中的信件中说道:“没有任何政策或保障能够充分地缓解存在于实时人脸识别的风险。”
据了解,面部识别算法在处理种族和性别偏见问题时面临困难,女性和非白人的错误率更高。虽然一些产品展现了不错的错误率,但许多算法仍旧在这个问题上苦苦挣扎。MIT今年的一项研究就发现,IBM、微软等提供的人脸识别算法在种族上就存在明显差异。而如果在执法环境下,这些错误率将引发更多的人力成本。
Tuttle在接受采访时特别强调,公司希望对AI的关注能够领先于公众。另外他还表示委员会和Axon将会进行沟通交流,这不仅包括上面提到的两份年度报告还包括了电话、邮件等所有类型的交流途径。
(来源:cnBeta)