我们不能对AI硬件的隐私问题视而不见
本文来自微信公众号: 果壳 (ID:Guokr42) ,作者:Jesse,编辑:沈知涵,题图来自:AI生成
很多智能儿童手表都会有一个“主打”功能——“聆听”。在家长app端发起后,手表端静默执行, 自动接通、保持黑屏、不通知孩子,以此实现远程观察孩子状态。
这大概是儿童智能手表中最受家长欢迎和孩子厌恶的功能了。
如果把“孩子”换成你我,“家长”换做AI呢?也许你坚信:目前还没有任何一个理由戴着一个时刻“监听”自己的设备。
可如果AI给了你一个理由呢?很诱人的那种。
目前各种最火热的AI硬件形态,智能眼镜、AI项链、录音饰品等等, 都是以收集不同模态“贴身”数据为基础来实现功能的——训练大模型形成个人知识库,让AI拓展更多实用能力。
AI硬件的隐私问题,已经在激起争议和焦虑。
还记得几个月前微软撤回了Recall功能么?Recall是Windows 11上的一项新功能,通过对用户PC不断截图——已经删除的电子邮件会被保存,无痕浏览的网页会被截取,并制作成个人数据库。再加上Copilot,PC就能变得更“好用”。
漏洞很快就被发现了—— 虽然用户数据被保存在本地设备上,黑客还是能通过恶意软件远程访问、窃取到数据。
AI时代,如此多的个人数据在采集、保存、训练、输出的过程中要保证安全,对企业来说是前所未有的挑战,移动时代的隐私保护实践,或许并不再适用。
这个问题,比我们想象中要复杂得多。
互联网时代的遗患
第一层的恐慌和怀疑,来自本地和云端的拉扯。
今年春季WWDC上,苹果官宣与OpenAI合作的消息之后,马斯克立刻在X表示上“强烈反对”,并将其形容为“creepy spyware”。
OpenAI被骂得也不算冤——去年3月,ChatGPT流行正盛时,就发生过一起个人数据泄漏危机。不少用户在社交网络反馈, 在ChatGPT的聊天记录栏中出现了他人的聊天记录, 一些人甚至能看到活跃用户的姓名、电子邮件地址、支付地址、信用卡号等私密信息。
刚刚为AI应用开始狂热的用户开始认真地担心起来:云端大模型的隐私泄漏和数据安全到底会成为一个多么严重的隐患?
当下对于AI隐私安全的讨论, 更多是上一个互联网时代延续下来的“焦虑” ——用户个人信息和交互数据在云端存储并用于进一步的训练,这是否会加剧隐私泄漏的风险。
2014年,黑客利用iCloud安全机制的漏洞,撞库盗取了账号,流出了一些好莱坞女星照片;2018年,“剑桥分析”事件曝光,一个Facebook上的第三方应用,通过获取的用户社交数据构建了服务于精准投放政治宣传的算法,进而影响选民的投票行为;2021年,国内一家电商网站被指,在获得系统照片的权限后,删除了“缓存在云端”的照片,让用户以为平台远程操作了本地设备……
以及各种推荐算法和个性化广告等,属于上一代决策式人工智能对于用户行为数据的依赖,“天啊,它给我推的这个内容就是我刚刚聊的,我被监听了……”
在“更好的用户体验 (也包括更精准的内容投放) ”和“更透明安心的隐私保护”之间, 当用户经历了天平摇摆的从左到右,“逐渐觉醒”的过程,也开始步步倒逼厂商采取更严格的隐私策略。
一些厂商的做法是把尽量多隐私数据和运算直接留在硬件本地 (代表是苹果,如果你还记得当年CES场外苹果揶揄安卓的经典广告语) ;以及利用差分隐私、联邦学习等技术手段,保障调用数据的隐私和安全,比如华为做个人音乐推荐时用了差分隐私,原始个人数据不上云,在云端进行差分后数据的统计分析。
传统的隐私计算多是在算法层开展工作,但是,大模型从训练、输出到能力涌现是一个“黑盒”,不透明、无边界、不可解释,对于以前的基于可解释、清晰、可控的技术路线的隐私计算方法提出了全新挑战。
这让很多智能手机厂商都在加码“端侧模型”的概念。 去年底,骁龙8 Gen3发布,实现了在“端侧”运行100亿参数大模型,为了强调“本地”芯片能力,在演示0.6秒生成图像时,还将手机开启了飞行模式。
今天,用户大部分最为关键的个人数据都是在手机上产生的,日历、待办事项、笔记、照片、短信等。手机厂商一致认为,基于这些数据生成“个人AI知识库”的过程,也要留在本地,才能保证私密安全。
AI时代,更难的是对于“数据边界”的界定。
要自主,还是要自动?
“隐私意味着用户要知道他们在签署什么。条款应当用清晰易懂的语言,反复强调重点。我对这件事很乐观,我相信用户是聪明的,有些人愿意分享更多数据。 但你要问他们,每一次都问,获得明确的授权,让用户准确地知道你用他们的数据干了什么。 ”
这是2010年iCloud上线前夕,乔布斯与Walt Mossberg有过的一段对隐私的精彩论述。并且这段论述,在之后十几年时间里,成为乃至全行业的隐私保护宗旨。
iOS 10开始,当iPhone要获取用户数据和传感器权限 (比如蓝牙、通讯录、定位、麦克风、日历、照相机等) ,都会弹窗进行询问,用户也可以在设置里进行精确管理;iOS 14.5以来,当app需要跟踪用户活动时,都会弹窗询问,并告知用户如果允许,数据将被用在哪里。 (但数据统计,后来人们对于该功能越来越不在意。)
Android 14引入了新权限设置,让用户只授权应用访问特定照片或视频,而不用开放整个媒体库。
欧盟的GDPR规定:企业在获取用户数据时,必须用具体、清晰的语言描述需要获得什么数据,并得到用户同意。
而AI时代,能靠“自主控制权”来分割“数据边界”似乎成为了一个悖论。
AI应用开发非常流行的一个概念叫“生活流” (Life Stream) 。“生活流”的意思是,用户佩戴类似智能眼镜这样的传感器, 让AI能够与用户同步获得生活中一切的视听信息,同步理解用户生活中的一切,从而训练出一个贴身的“AI助手”。
而这类产品好用与否的检验标准,就是减轻用户负担,让其自动化、智能化、通用化地去解决问题——这与不断询问用户“数据权限调用和管理”,本身就是矛盾的。
AI Agent (通常中文译作“智能体”) 进行工作流编排时,会调用三方接口功能和用户数据,这让服务生态变得复杂:涉及的主体 (数据、算法、服务提供方) 数量增加,各主体权责交叉,数据交互 (理想状态:AI Agent按需关联各种数据、功能信息) 愈发复杂。
越大量、越有效 (包括颗粒度低、多样化、贴近垂直场景等) 的数据投喂,生成结果往往越好,这是AI数据投喂的基本规则。 但是这样会让用户重新陷入一种“太好用了所以无法拒绝”的境地,而最终只能“把数据全部交给AI” ——你可以类比移动互联网时代已经发生的事情:多少人会对搜索上瘾,而又有多少人会对算法推荐上瘾。
这种AI应用的特性让传统隐私保护的“数据护栏”失效了——比如,过去用户将一张敏感照片放进私密相册,或使用无痕模式访问一个“难言之隐”的网页,而一个诊断皮肤病的“智能体医生”就恰好需要你“生活流”里的这些敏感数据。
与之适配的应该是一套全新隐私保护模式。
也许Apple Intelligence设想的模型架构是一个可能的答案: 在本地运行的基础模型;PCC,私有云计算;接入第三方。 简单来说,这是一个按Query难度 (查询请求的难度) 分发的分层模型策略。既要保证端和云之间的数据有效流转、访问、存储,最终目的是用户体验;又要保证数据安全。苹果实则设计了一套涉及到芯片、终端、云端、系统软件的安全机制。
“大收集时代”
第三层问题,是新时代的最令人兴奋和担忧的:一大批硬件厂商,正在打造“超越”智能手机的,更面向未来的AI硬件。
包括智能眼镜、录音笔等等,第一批原型产品已经面世。称之为“原型”,是因为这些产品的功能设计上还不够完善,性能也捉襟见肘,还达不到“好用”的程度, 但设计思路却不约而同地选择了“默认记录”。
还记得AI Pin么?别在胸口,摄像头默认对前方;也有录音笔设计得薄片一张,紧贴手机背后,随时启动收音 (据说有公司受此启发,要把员工工牌做成这样……) ;被设计成可日常配备,不会在社交中被“察觉”的智能眼镜更是如此。
单从硬件设计看,这些产品的设计并不新鲜。Google Glass在十几年前就问世了,更别说各种隐蔽的小型摄像机、录音笔,都早已走出了007电影。
但它们的新颖之处, 在于躯壳之内包裹的东西——这就从一个技术问题,演化为了一个社会问题。 隐蔽的录音录像设备一直有,只不过绝大多数普通人并没有理由去购买使用这些产品。
但AI赋予了这些硬件产品存在的理由 ,甚至可能将社会带入一个人人“佩戴摄像头、录音笔”的轨道,或许当下我们还很难武断地说,这会让社会陷入灾难,但它一定会带来非常深刻的改变。
十年前,谷歌眼镜刚刚交货的时候,即便数量稀少,也掀起了巨大争议。在当时的硅谷,因为常能碰到佩戴谷歌眼镜的顾客,导致很多酒吧餐馆都贴出了“禁止佩戴谷歌眼镜进店”的标识—— 这甚至成为了阻碍智能眼镜在那个时代普及的重要因素。
新时代,新硬件, 数据被收集和分析的主体,将会从设备使用者个人,变成使用者的周围一切 ——如果你是一个技术乐观主义者,你就更不该无视这些数据隐私的新问题。
本文来自微信公众号: 果壳 (ID:Guokr42) ,作者:Jesse,编辑:沈知涵