生成式大模型安全与隐私白皮书(2023)

数据观  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

当前,生成式大模型已经为学术研究甚至是社会生活带来了深刻的变革,以ChatGPT为代表,生成式大模型的能力已经显示了迈向通用人工智能的可能性。但同时,研究者们也开始意识到ChatGPT等生成式大模型面临着数据和模型方面的安全隐患。

今年5月初,美国白宫与谷歌微软、OpenAI、Anthropic等AI公司的CEO们召开集体会议,针对AI生成技术的爆发,讨论技术背后隐藏的风险、如何负责任地开发人工智能系统,以及制定有效的监管措施。国内的生成式大模型技术也正在发展之中,但是同时也需要先对安全问题进行相应的分析以便双管齐下,避免生成式大模型这把双刃剑带来的隐藏危害。

为此,之江实验室基础理论研究院人工智能与安全团队首次全面总结了ChatGPT为代表的生成式大模型的安全与隐私问题白皮书,希望能够为从事安全问题研究的技术人员指明方向,同时也为AI相关政策的制定者提供依据。

  生成式大模型的发展与重要应用

这份白皮书首先总结了ChatGPT与GPT4等生成式大模型的发展历程,以及其带来的各种令人惊叹的能力和社会变革、社会应用等。作者列举了ChatGPT和GPT4出现之前的GPT-1、GPT-2、GPT-3、GoogleBert等模型的特点以及缺点,这些缺点与ChatGPT和GPT4的强大能力形成了对比;并且,ChatGPT和GPT4之后又涌现了一大批的模型,包括LLaMa、Alpaca、文心一言、通义千问等,它们的出现使得在人机交互、资源管理、科学研究、内容创作等应用领域出现了新的、强有力的工具。但同时也出现了包括数据安全,使用规范、可信伦理、知识产权以及模型安全方面的问题。

  数据安全问题

白皮书提出,数据的安全和隐私是ChatGPT及GPT4等生成式大模型使用和研发过程中一个极为重要的问题,并从「显式」和「隐式」两个方面对其进行了分析。

在显式的信息泄漏中,首先,ChatGPT等生成式大模型的训练数据在不经意间被转换成了生成内容,其中就包括了敏感和隐私的个人信息如银行卡账号、病例信息等。此外,ChatGPT的数据安全和隐私隐患还体现在它对于对话框内容的存储,当用户在和ChatGPT互动时,他们的信息会以某些形式被记录和存储下来。

白皮书还提出了之前被大家忽略的隐式信息泄漏问题。首先,ChatGPT体现出的数据安全和隐私的隐患是它可能通过对对话框数据的收集进行广告推荐,以及收集对话框数据进行推荐或者其他的下游机器学习任务,且ChatGPT有时候可能也会生成虚假的信息,以此来诱导用户泄漏一系列的数据。

具体内容如下:

生成式大模型安全与隐私白皮书(2023)

生成式大模型安全与隐私白皮书(2023)

生成式大模型安全与隐私白皮书(2023)

责任编辑:张薇

随意打赏

提交建议
微信扫一扫,分享给好友吧。