人工智能新型诈骗,语音模拟黑科技疑为作案工具

我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

人工智能新型诈骗,语音模拟黑科技疑为作案工具

   这是一篇洋葱新闻。有疑惑的朋友更应该坚持到最后。

   最近,深圳多位市民接到所谓的「熟人借款电话」,据专家分析,这是一种使用「人工智能技术模拟语音进行诈骗」的新型犯罪方式,提醒市民应警惕此类电话。

   “我再三确认过电话里的声音是来自黄总的,而且还给电话录了音,但他却根本不记得有这件事情”受骗的李女士说。

人工智能新型诈骗,语音模拟黑科技疑为作案工具

   李女士接到在外地出差的老板电话,称在外地手机钱包被人偷了,需要打三千块到朋友的银行卡上应急。李女士再三确认电话里的声音就是上司之后完成了转账。不料上司出差回来之后表示自己手机和钱包根本没有丢失,也没有电话要求李女士转账。

   “但是那个人说话的声音确实和我们黄总一模一样,我们还现场对比过”李女士补充。这件事情导致李女士非常生气,内心是崩溃的。

人工智能新型诈骗,语音模拟黑科技疑为作案工具

   是谁冒充了李女士的上司打了电话?

   接手此案的民警称经过专家的评定,冒充来电的语音和原语音“只有微小差别,基本做到了以假乱真”。

   犯罪分子很可能使用一种“ 可以理解、分析人声,然后再复制出一个完全相同声音 ”的人工智能技术伪造了语音。

人工智能新型诈骗,语音模拟黑科技疑为作案工具

   据警方专家介绍,有一款消费者可以直接购买的Adobe Audition声音处理软件可以实现此类功能,利用软件中VoCo功能,软件可以识别出一段语音中的文字,之后针对语音中的文字进行编辑和修改,就可以马上得到一段音色和音调“几乎和本人完全一样”的语音。

   另外,我国的语音识别领先企业科大讯飞日前也推出了此项功能,下载一个App就可以让罗永浩、奥巴马直接“开口说话”,不过暂时不支持学习任意人士的语气做模拟。

   犯罪分子通过社交或者公共场合演讲或电话录音提前收集了李女士上司的录音,之后再用此类软件假冒语音给李女士拨打电话以达到诈骗的目的。

   单单是在深圳,本月就已经有五起以上同类事件,假冒语音的对象囊括上司、朋友、亲人。

   专家建议:“针对这一类的熟人来电,最好使用例如微信、QQ、FaceTime一类的视频通话确认对方身份或者 请对方按照特定的姿势自拍 以确保没有被语音欺骗。这是 一种快速鉴别借款真实性的好方法 。”

人工智能新型诈骗,语音模拟黑科技疑为作案工具

   另外专家还透露,此类技术暂时不具备针对方言的识别能力,因而深圳、上海等外来人口较多的城市是此类新型犯罪的高发城市,因为这些城市以普通话为主,方言使用频率较低,而例如温州、闽南等地区因为方言发音较为特殊,暂时还没有收到有此类案件发生的通报。请广大一线城市的市民多加留意此类电话,向警方提供线索。

   根据网络上查询的信息,具备此功能的软件套装可直接在网络购买,价格2.4万元;而科大讯飞的语音模拟App则为免费下载,导出语音的话需要付费3元/条。

人工智能新型诈骗,语音模拟黑科技疑为作案工具

   网络上有一段此项技术发布时候视频,的确有以假乱真的效果。当场就有嘉宾表示“这是音频界的PhotoShop!你这样会有大麻烦!”

   记者同时也将这一信息反馈给了能够提供此类语音模拟软件的Adobe公司和科大讯飞,截止发稿时暂未得到任何回应。

   严肃说

   对于人工智能,恐怕最大的威胁,并不是替代人类的工作岗位,而是经过大量的数据输入和深度学习之后,计算机可以准确判断一个人的喜好、状态甚至模拟人类(从外表到思维)做出决策。

   在一个充满人工智能的社会,普通人占有什么样的角色?如何平衡人工智能技术对于人类社会现有分工的冲击?相信我,这个问题比我们想的更迫切。

   上面是一篇洋葱新闻,其特点是以新闻报道手法,报道纯粹虚构或真假掺半的新闻事件,从而达到娱乐或讽刺的目的。

随意打赏

人工智能未来科技人工智能黑科技顶风作案
提交建议
微信扫一扫,分享给好友吧。