ChatGPT成为欧盟的眼中钉 隐私风险或只是表象
ChatGPT到底是第四次工业革命的曙光、还是是毁灭人类的推手,如今这场关于“生成式人工智能到底是不是潘多拉魔盒”的论战,已然在 科技 圈如火如荼的进行。就在业界关于生成式人工智能到底是天使还是魔鬼的争论尚无结论之时,部分欧洲国家似乎先坐不住了。
当地时间3月31日,意大利数据保护局(Garante)方面宣布,从即日起禁止使用ChatGPT、限制OpenAI处理该国用户信息,并开始立案调查。
不仅仅是意大利,随后德国数据专员乌尔里希·凯尔伯(Ulrich Kelber)也表示,德国可能会效仿意大利,以数据安全方面的担忧为由,屏蔽OpenAI的聊天机器人ChatGPT。而随着此事的发酵,越来越多欧洲国家也开始考虑对人工智能相关技术采取更为严格的监管。
就在4月13日,西班牙国家数据保护局发表声明称,其已经正式对ChatGPT可能的违法行为展开初步调查。同时,法国国家信息自由委员会(CNIL)也决定对ChatGPT展开调查。不仅如此,欧洲数据保护委员会(EDPB)还宣布成立专门的工作组,以促进针对ChatGPT的调查相关合作事宜。
这些欧洲国家对ChatGPT的不友好态度,几乎都源自隐私安全与数据保护,并且他们认为ChatGPT这类生成式人工智能的技术原理处于黑箱状态。比如,Garante方面就要求OpenAI在其官网向意大利用户公示ChatGPT运行所需数据处理背后的“方法和逻辑”。
其实ChatGPT会导致数据泄露这一点,此前已经被证实。不久前在三星允许员工使用ChatGPT不足20天的时候,只是其掌握到的数据泄露事件就已有3起,例如三星DS设备解决方案部门的员工在操作半导体测试设备下载软件的过程中,将相关代码复制到ChatGPT中寻找答案。同样亚马逊的律师就警告该公司员工,不要与ChatGPT分享“任何亚马逊的机密信息”,因为输入的信息可能会被用作ChatGPT迭代的训练数据。
虽然根据OpenAI方面的说法,ChatGPT使用的训练数据可能包括来自多个来源的“公开可用的个人信息”,并且其所采取措施保护用户隐私的方式,包括“微调”模型以阻止用户询问个人信息,以及“在可行的情况下”从训练数据中删除用户信息。然而实际情况,却是即便OpenAI没有兴趣收集用户的个人数据,也很难避免这些数据在训练过程被ChatGPT学习。
从技术角度来说,ChatGPT本身的运作方式难以解释,它是一种基于统计学习神经网络的黑箱模型,也无法解释其内部的工作机制,这一点即便是亲自训练ChatGPT的OpenAI研究人员,也无法明确答案产生的过程,更无法评估其智能程度。
那么ChatGPT的智能究竟从何而来,或许可以用凯文· 凯利在《失控》一书中的说法来解释。即智慧是涌现而出的,即各个部分遵循简单的趋利避害原则行动,而当群体规模到达一定程度后,智慧就突然出现了。
事实上,当用户使用ChatGPT来帮助自己更好工作、学习、生活的过程,几乎就无法避免交出个人隐私信息,或者说大语言模型根据输入的内容输出结果的过程,反而是在无时无刻扩大数据泄露的风险。
例如,你需要借助ChatGPT写一个项目进展报告,为了让报告更详实、更可信,就必须要添加关键的数据和逻辑。虽然这一操作会让ChatGPT输出的结果更可信,也会让ChatGPT更有动力去学习,以便未来用你的数据来回答其他人的问题。
其实简单来说,“ChatGPT的嘴是没把门的”。当然,隐私安全可能只是部分欧洲国家抵触ChatGPT的表面原因,更深层次的原因或许是从《通用数据保护条例》(GDPR)到《数字市场法案》一脉相承的理念,即在 互联网 世界里建立欧盟的数字边疆。
如今在互联网世界中,美国与中国是既得利益者,诸如Facebook、Amazon、Microsoft、Apple、腾讯、阿里巴巴、字节跳动等叫得上号的科技巨头都是来自中美,日本、欧盟则几乎是互联网时代的失意者。
从某种意义上来说,互联网让世界变成地球村的30年后,欧盟方面终于醒悟过来,在建设初期扶植本土企业的做法可能才是明智之举,这也使得中国成为了美国之外,唯一一个有自己完整互联网生态的国家。要不然在这一轮生成式人工智能的浪潮中,中国已经有了文心一言、通义千问的情况下,欧洲为什么就没有属于自己的ChatGPT类产品呢。
事不过三,已经错过了PC互联网与移动互联网的欧洲,这一次显然不想再掉队了。如果继续任由ChatGPT肆意攫取欧洲人/企业的相关数据,本土的生成式人工智能可能就真要被消灭在萌芽状态了。
【来源:三易生活】