腾讯云TVP AI与安全高峰论坛圆满落幕,共探大模型时代的安全破局之道
DeepSeek的横空出世,标志中国在人工智能领域的重大技术突破,吸引全球的关注。与此同时,飞速发展的人工智能技术为安全行业带来新的思考题:如何利用AI赋能安全攻防,如何确保AI技术本身的安全性,均成为开发者和企业关注的焦点。大模型时代下,如何探索安全破局之道?
3月30日, 「大模型时代:安全如何洗牌」TVP AI与安全高峰论坛 在北京圆满落幕。本次论坛汇聚安全领域产学研的顶尖专家和行业领袖,聚焦大模型时代AI与安全的热点话题,从技术突破、产业实践到风险治理等多个维度,探讨AI与安全的新技术、新应用及新思考。论坛上半场围绕“AI赋能安全”,深入讨论AI如何推动安全能力升级,解析大模型带来的新机遇;下半场以“护航AI安全”为主题,面对AI自身的安全挑战,探讨AI安全发展方向,整体论坛为与会者提供从技术应用到风险治理的全景视角,这是一场解码 AI与安全融合发展的技术盛宴。
主持人开场
主持人赛博英杰 科技 创始人&CEO、腾讯云 TVP、CCF TF安全SIG主席 谭晓生 在开场时表示,在过去两年中,随着ChatGPT的推出,人工智能取得显著进展,在各行各业得到广泛应用,国内安全企业纷纷加大在AI领域的投入。然而,当大家在部署大模型应用的过程中,大模型自身的安全问题逐渐显现。这一现象与十年前大数据概念兴起时的经历相似:开发者和企业先是思考利用新技术提升安全能力,再来解决新技术本身的安全问题。我在安全行业深耕30多年,相信 AI将引发行业的重大洗牌。本次活动是一个难得的机会,我们邀请到业内顶尖专家共同研讨相关话题,以推动安全行业的进步与发展。
赛博英杰科技创始人&CEO、腾讯云 TVP、CCF TF安全SIG主席 谭晓生
开场致辞
会议伊始, 腾讯安全副总裁、云鼎实验室负责人 董志强 发表开场致辞。他指出,以GPT为代表的大模型技术为安全领域带来革命性的影响。攻击者利用大模型技术,使得攻击手段更加工业化且成本降低,但是防御方相对有些滞后,这种情况下可能会进一步加剧攻防不对称,增加防御难度。此外,在训练大模型时,数据脱敏等安全性问题不可小觑。在大模型的部署阶段,我们还需警惕越权访问、GPU资源滥用等潜在的安全隐患。针对以上问题,董志强建议使用小模型或专用安全模型以及加强合规管理措施。他表示,大模型正在重构网络安全战场,国外已有 创业 公司在探索AI驱动的安全产品,其中蕴藏无限的创新潜力与机遇,期待与大家共同交流与思想碰撞。
腾讯安全副总裁、云鼎实验室负责人 董志强
一、AI赋能的未来安全:创新趋势和实践探索
深信服科技AI安全业务总经理 张振礼
在上半场的主题演讲环节中, 深信服科技AI安全业务总经理 张振礼 发表《AI赋能的未来安全:创新趋势和实践探索》的报告。
张振礼先是分享对AI赋能安全的理解:第一, 安全本来就碎片化,不能每个安全GPT场景单独的模型分开部署,要统一规划 ,通过良好的架构设计实现各类大模型算力的统一调度和适配;第二,基础大模型持续进化, 安全大模型需要具备快速融合、集成、吸收优秀基础模型的知识和推理能力 ,智能体的元年开启,持续为安全场景带来体验和效果的改进;第三, 安全团队在AI时代要具备RAG、微调等技能 ;四是开放性,AI时代, 安全产品需具备适应性 以匹配不同行业的具体场景需求。
张振礼表示,网络安全是一个对检出率、准确率有极高追求的toB领域,将任何的开源基座大模型落地于安全领域,都绝非简单的接入、缝合,而是一个复杂的系统工程。比如DeepSeek在安全垂直领域 商业 落地,必须具有安全垂域大模型的实践数据、对基座模型的安全场景驯化经验、面向安全业务的AI系统工程,才能强化优势,应对挑战。我们需经过指令微调、预训练及强化学习三个阶段,并结合专业经验和安全语料进行优化,才能适应特定安全场景需求。张振礼将DeepSeek、GPT-4.5 等通用大模型比作安全“本科生”,通过安全指令微调和安全细分领域优化,这些模型成长为“硕士”,经过系统化的构建与实际应用验证,它们将成为“博士”或有经验的安全专家。
接着,张振礼分享深信服 AI 安全的落地实践。如团队开发基于AI的安全助手,不仅改善安全管理,还优化安全规范及日常沟通,实现从被动响应到主动审计的转变,并推动全面自动化。此外,团队还提供AI安全培训体系,以增强大家的安全能力和安全技能。
谈及未来,张振礼表示,从长远来看,随着多智能体协同技术的发展,安全行业将实现高度自动化,形成人监督机器等的新模式,释放更多人力资源去处理更有价值的任务。
二、AI智能体:从思考规划到落地执行的安全赋能之旅
安恒信息高级副总裁、研究院院长、腾讯云 TVP 王欣
安恒信息高级副总裁、研究院院长、腾讯云 TVP 王欣 在《AI智能体:从思考规划到落地执行的安全赋能之旅》中谈到,2025年被视为智能体元年,DeepSeek的兴起极大地推动公众对AI智能体的认知。
王欣详细介绍安恒信息在 AI 智能体的布局和发展历程。他表示, 智能体与网络安全体系的融合将是未来的发展趋势,而非孤立存在 。通过引入智能中台,将数据、知识、情报及安全产品整合为Agent的一部分,实现任务的调度与执行,来应对各类安全场景。预计在未来3-5年内,这种模式将成为面向客户侧的主要发展方向,提升整体安全效能和响应速度。
接着,王欣分享AI智能体给行业带来的变革:第一, Agent 的引入标志着安全运营从量变到质变的过程 ,技术发展需要一定的周期;第二, 智能体的出现使得业务专家从专才转变为超级个体 ,通过减少辅助工程和岗位,让专家的知识经验成为核心,未来逐步出现一人当岗、一人多能的情况,并利用编排系统将个人经验沉淀为平台经验,以完成更多任务。
最后,王欣回顾了过去一年对AI智能体在安全领域的八个预测,例如Agent将成为产业标配,AI native工具将成为Agent的手和脚;ASA架构将在AI智能体影响下升级等等,他指出,部分预测可能未能完全符合实际发展轨迹,并提出今年将重新审视相关趋势,依托更严谨的分析框架与数据支撑体系,结合对技术演进的深度洞察,探索实现类似AI级精准预测的可能性。
三、安全大模型发展路径洞察与实践
360集团首席科学家、360数字安全集团 CTO、腾讯云TVP、CCF 杰出工程师奖获得者 潘剑锋
360集团首席科学家、360数字安全集团CTO、腾讯云 TVP、CCF 杰出工程师奖获得者 潘剑锋 发表《安全大模型发展路径洞察与实践》的主题演讲。
潘剑锋先是讨论大模型的理解能力,引入“快慢思考”概念来评估当前大模型的能力。他表示目前大模型的价值是很好地模拟人脑的“快思考”,即大模型通过海量数据训练,做文字符号层面的统计处理,从数据中找出统计性规律,在概括的意义上掌握学习样本所反映的隐含知识,并以此为基础生成内容。而“慢思考”需要对事物具有本质性理解,需借助事实性知识,通过多步推理、反思,是“深思熟虑”的结晶。针对慢思考任务的场景中,当前可编排专家经验,整合安全大模型、知识库、工具库的能力,实现半自主的推理Agent。
当前,国内大模型赋能安全产品主要采用两种不同层次的方式:一是直接使用通用大模型的能力实现安全应用;二是应用安全垂直大模型。这两种方式之间的区别就像“一个博学的人拿着医科全书”与“主任医师”,前者虽然能够查到专业知识,但是不能够贯通运用;后者是具有丰富的临床实践经验。安全垂直大模型能够将专业的安全数据真正训练进入模型中。
潘剑锋分享如何基于以上理论进行落地实践,包括安全语料生产、模型分区训练和慢思考实现方式。高质量的安全语料被视为行业的护城河,360首创的CoE技术架构允许不同的安全专家分区训练各自的模型,有效减少多任务冲突、过拟合等问题,保证训练效果同时降低资源消耗。
潘剑锋目前基于推理时计算扩展的方法,在外延方面进行创新,还尝试做本质性理解的相关工作。通过团队的持续探索,有望进一步提升大模型在安全领域的效能与适用范围,寻找新的发展范式。
四、安全领域大模型构建范式与实践
腾讯安全副总裁、科恩实验室负责人 吴石
腾讯安全副总裁、科恩实验室负责人 吴石 做《安全领域大模型构建范式与实践》的主题演讲。
自2018年起,科恩实验室开始对AI+安全的研究,致力探索如何提升安全产品的智能化水平,落地相关产品,腾讯内部包含 QQ、 微信 在内的多个重要产品均在使用科恩实验室AI+安全的能力。
当前在利用大模型解决实际安全问题上仍面临一些挑战,主要原因在于大模型本身并不产生新的知识,对于安全领域的专业知识掌握有限,导致其输出的实际效用不高。对此,吴石分享了科恩实验室在这方面所开展的工作:一是建立安全语料库,通过从多源收集数据并利用关键词过滤和分列器进行初步筛选,经过一系列数据清洗步骤,最终完成数据质量评测,目前此安全语料已部分开源。二是开发针对大模型安全能力的评测体系,填补行业空白,并部分开源评测工具,显著提升行业标准。
吴石介绍腾讯内部如何落地大模型+安全:首先通过优化prompt提高提问质量,解决大部分基础问题;其次,利用外挂的知识库和数据库增强大模型的能力,实现快速反应;还有,开发Agent来提升处理复杂任务的能力。其中,科恩实验室自研 BinaryAI 可以模糊匹配开源库信息识别恶意代码,现日调用量超1亿次。基于RAG的Security-X助手广泛应用于URL处理、威胁情报检索等场景。总的来说,科恩实验室具备三大核心能力:优秀的安全攻防技术、全面的基础安全大数据以及自安全算法,这些为大模型的应用提供坚实基础,并推动通用大模型与小模型的有效结合。
吴石指出,大模型作为网络安全领域的重要技术力量,已显著提升了威胁检测效率与安全防护能力,尤其在复杂场景中展现出独特价值。然而,当前技术范式下仍需理性看待其局限性:大模型在处理低频威胁、对抗性样本防御及实时决策场景中仍存在性能瓶颈。他强调,安全工作的核心仍需回归对抗本质——通过构建高保真威胁情报体系与攻击成本动态评估机制,迫使攻击者在技术、资源与时间维度付出更高代价。
五、大模型的安全价值对齐
北京大学人工智能研究院助理教授、人工智能安全与治理中心执行主任、CCF 计算 经济 学组执行委员 杨耀东
在下午的论坛上, 北京大学人工智能研究院助理教授、人工智能安全与治理中心执行主任 杨耀东 发表《大模型的安全价值对齐》的主题演讲。
杨耀东从 ChatGPT 时代“Delve”一词被频繁使用开始讲起,提出现实中如何确保强大的大模型符合人们的价值观和意图,即大模型的安全价值对齐问题。当前的大模型对齐工作主要以强化学习为主,包括预训练、学习人类反馈以及强化学习人类反馈。
针对大模型能不能被对齐的问题,杨耀东表示, 大模型有非常强的抗拒对齐的表现, 大规模预训练已经让模型参数空间紧绷,进一步调整可能会导致性能下降或崩溃。杨耀东认为,大语言模型挺难被被对齐,但可以尝试让大模型变得更加安全。如在事前做Moderation,通过数据标记有害内容,增强模型鲁棒性;事中可以利用数据进一步做安全对齐,采用MAX MIN方法优化奖励与有害性平衡;事后引入后置对齐器修正答案,提升模型安全性。这样一来,在某种程度可以缓解模型的安全问题,但不能完全解决模型的安全问题。
面对多模态挑战,杨耀东团队尝试通过语言反馈合成偏好来解决不同模态间的对齐难题。此外,面对具身智能大模型对齐的问题,尤其是在将大模型应用于物理世界时,如何保证其行为安全成为关键问题。为此,需要构建一个可验证的安全框架,结合传统控制论的方法,确保机器人和其他智能体在与现实世界的互动中遵循安全规范。目前,杨耀东团队开展初期工作,如Safe VLA项目,通过明确的安全约束确保机器人在与物理世界交互时的安全性,已在仿真环境中取得积极成果。最后,杨耀东指出,面对具身智能模型的对齐问题,应从以人类反馈为基准的后训练对齐思路转向到构建事前可验证的 100% 价值安全体系,为未来智能无人系统与物理世界的安全交互奠定基础。
六、AI系统的安全风险和挑战
Certik 首席安全官、腾讯云TVP李康
Certik 首席安全官、腾讯云TVP李康 在《AI系统的安全风险和挑战》的主题演讲中,谈到目前AI安全讨论通常集中在抽象层面(如AI对人类社会的威胁)和算法层面,但忽略系统安全层面的重要性和紧迫性,如今,AI智能体的普及带来新的安全挑战,这些智能体带有执行环境,允许代码执行,这为攻击者提供机会。李康举例如何利用传统安全手段攻击AI智能体,通过简单的手段如命令注入、越权访问等,可轻易地对AI智能体进行攻击。
“ 攻击者并不一定针对AI的偏见或利用Prompt和幻觉进行攻击智能体,而是寻找有价值的目标,并用最简单的方式达成目的,当前AI的安全监管和检测尚未充分考虑这一点,未来需关注具体事件的爆发以应对这些潜在威胁。 ”李康提醒说。
随后,李康进一步分析物理世界中的AI Agent同样面临安全风险,阐述AI系统在现实世界中的安全隐患。李康表示,AI Agent 为安全研究带来机会与责任,既让我们重新审视和应用过去的安全手段进行防护,同时也要求我们在发现攻击路径和方法上进行创新,尤其是在面对真实场景时,不依赖传统的直接互动方式。
李康提醒道,AI 的普及不仅带来技术平权,也引入新的安全风险,希望安全从业者获得更多话语权和重视,尤其是在监管层面应更加关注底层安全问题。最后,李康呼吁更多人参与到AI安全的研究和实践中来。
七、AI模型的安全性分析与理解
中国科学院信息工程研究所主任、腾讯云 TVP、CCF 安全专委和系统软件常委、CCF-IEEE CS青年科学家奖获得者 陈恺
中国科学院信息工程研究所主任、腾讯云TVP、CCF 安全专委和系统软件常委、CCF-IEEE CS青年科学家奖获得者 陈恺 在《AI模型的安全性分析与理解》的报告中,展示AI模型安全性方面的多项研究成果,强调提升AI模型安全性的必要性。
陈恺的研究方向有人工智能赋能安全攻防(AI for Security)和人工智能技术本身的安全(Security for AI)。团队在2017、2018 年开始做模型对抗攻击的研究,如通过添加噪点误导分类模型识别物体,随后扩展到针对物理世界的研究,如让自动驾驶车辆误识路标或雷达系统忽视前方障碍物。
对此,陈恺团队探索了一些防御方法,包括使用自编码器自动过滤对抗补丁和自研“神经网络手术刀”技术。神经网络手术刀通过精确修复导致错误的小部分神经元,从而避免大规模调整模型带来的负面影响。此外,陈恺团队提出一种新的映射方法,通过利用模型后门将输入样本映射到不同的类别来抵御对抗样本攻击,由此降低攻击成功率并保持模型性能。
当前,针对大模型的安全性挑战层出不穷,例如越狱攻击,即通过特定提示词使模型输出有害的信息。对此,我们正在探索从模型分析角度入手解决此类问题。会上,陈恺讨论当前流行的可解释性工具存在的局限性及其改进方向,强调开发更有效的模型解释工具的重要性。
八、大模型应用落地的安全风险与防护实践
火山引擎大模型应用防火墙产品负责人 郑炎亭
火山引擎大模型应用防火墙产品负责人 郑炎亭 在《大模型应用落地的安全风险与防护实践》的分享中,探讨大模型应用在各行各业落地过程中面临的安全风险及相应的防护实践。
郑炎亭观察到,过去,不同行业在引入新技术时注重快速验证和部署,安全往往被视为次要考虑因素。随着DeepSeek等工具的普及,AI技术的成本降低、门槛变低,越来越多的企业开始重视AI应用的安全性,特别是在生产环境暴露面增大后带来的潜在威胁。
当前的安全挑战不仅包括传统的DDoS攻击、薅羊毛滥用等,还涉及大模型特有的风险,如提示词注入、模型幻觉等问题。以提示词注入为例,通过简单的拼接即可实现对模型的操控,使得攻击成本大幅降低,这对企业的数据安全构成严重威胁。
为应对这些挑战,郑炎亭提出一些实践思路:一是对提示词过滤与监控,对输入输出实施严格过滤,减少恶意利用的可能性。二是对运行环境做安全保障,使用加密技术和机密计算来保护敏感信息处理过程中的安全性。三是模型安全性测评,测试模型识别并拒绝执行恶意代码或生成有害内容。
郑炎亭谈到大模型的幻觉问题确实不易解决。大模型幻觉分为事实性幻觉和忠实性幻觉。对于不同的幻觉应设计不同的应对方案,郑炎亭介绍几种在推理端处理幻觉问题的方法,强调在推理端更具性价比且更可控。
九、AIGC内容安全治理趋势与实践
中国科学院计算技术研究所实验室主任、中科睿鉴创始人、腾讯云 TVP、曹娟
中国科学院计算技术研究所实验室主任、 中科睿鉴创始人、 腾讯云TVP曹娟 发表《AIGC内容安全治理趋势与实践》的主题演讲。
曹娟首先介绍为什么大模型时代的鉴伪如此重要,一是 AI 生成的数据越来越多,二是大模型已开始在各行各业落地应用,因此鉴伪也会覆盖各各业,三是国家层陆续推出多个法律法规,从模型层、应用层、数据层对 AI 生成做规范。然而当鉴伪工作真正落地时,由于各行业差别巨大,因此她建议每个行业指定自己的标准,如科技部禁止AI生成申报书,教育部禁止AI生成论文和配图等等。曹娟强调,这里需要产业界同心努力,尽快制定各自行业的标准,才能推动产业的发展。
曹娟表示,如今,中国人工智能安全治理已进入立法和执法的深水区。据 Gartner预测,到2028年,50%的企业将开始采用专门为解决虚假信息安全用例而设计的产品、服务或功能,目前这一比例还不到5%。目前,曹娟团队聚焦核心技术攻关,针对云端和终端均打造前沿鉴伪产品,来提升数字内容的安全性和可信度。
谈及未来AIGC内容安全治理的发展,曹娟阐述遇到的难点,如大模型的泛化,场景泛化等,美颜图片和造假图片是相同的技术,如何识别无害篡改和有害照片是非常难的。还有 手机 视频,针对录屏、截屏做到技术鉴伪等。
曹娟提醒道,AIGC 发展日新月异, 未来 互联网 可能是真相衰落的时代 。他们按自动驾驶将大模型分为L0到L5级,从全人工润色重写续写到全自动自主分不同的等级做了实验,发现到L3级后,大平台的推荐系统更倾向于推荐生成的内容,而不是人类产生的内容。他们将AIGC生产的内容给人看,80% 的人更愿意看生成的内容。未来互联网的模式将会发生翻天覆地的改变,她建议现在将人类生产的数据保护起来,如打标签保存等。
十、分组脑暴促交流,观点PK启新思
除了以上干货满满的主题演讲外,论坛注重交流和分享,特别设置分组讨论热点话题,观点PK环节,促进大家的思想交流,共同探索 AI 与安全共生发展的新模式。
在这一环节中,数十位专家被分为不同的小组,先是三个小组围绕主持人提出的热点问题展开讨论,由小组代表进行总结发言,分享讨论成果。
讨论问题:大模型时代,安全行业往何处去
第一组代表 腾讯云安全云鼎实验室总监、云安全技术专家 谢飞 表示,对于企业最担心的安全运营问题,他有一个深刻的感触:尽管 AI 能协助做告警分析,但其准确率和可信度还不够好。举例说如果依靠 AI 进行夜间无人值守,我们会担心 AI 的准确率问题,担心可能会错过真正的威胁,导致严重后果。AI对安全风险的研判准确率和权责问题,才是企业面临的痛点问题。
腾讯云安全云鼎实验室总监、云安全技术专家 谢飞
第二组代表 安恒信息首席安全官&高级副总裁、腾讯云 TVP 袁明坤 表示,不同企业对于人工智能在安全领域的应用需求各不相同。袁明坤通过铁匠师傅与徒弟的比喻,形象地描述人类专家像一位铁匠师傅,AI 像一位徒弟,人类如何指导和利用 AI 工具来提升工作效率和竞争力,打造出来的东西才更有竞争力。在细分行业中,关键在于找到行之有效的方法让 AI 发挥最大效能。
安恒信息首席安全官&高级副总裁、腾讯云 TVP 袁明坤
第三组代表 炼石网络创始人&CEO、腾讯云 TVP 白小勇 表示,对于第一个问题我们认为最迫切需要 AI 辅助的是D、F、H(调查闭环、数据分类分级以及编写报告)。企业在提升网络安全工作中,首先应评估哪些环节消耗大量的人工和成本,并选择合适的大模型来实现增效降本。而对于前三个和告警相关的选项,我们选择了B(告警辅助研判)。此外,我们认为文档撰写也是企业的一个迫切需求,占比应该超过50%。
针对第二个问题,我们最担心的是B(AIGC产生的内容的安全问题)。因为它可能导致一些严重问题,如生成内容涉及政治敏感信息等红线问题。A(数据安全与个人隐私保护问题)和C(提示词注入攻击与大模型越狱问题)之间我们存在分歧:A被视为更严重的不可逆转结果,而C是可恢复的过程。综合考虑,我们认为 B 是最担心的安全问题。
炼石网络创始人&CEO、腾讯云 TVP 白小勇
接下来,由四个小组进行辩论赛,分别从正反两方的角度来PK讨论热点话题,激发思维碰撞。现场讨论气氛浓厚,专家们你来我往,在交锋中深入探讨 AI 安全的未来,启发更多的深刻思考与全新见解,碰撞别样的思维火花。
辩题一:安全大模型应选择通用基座微调还是垂直领域原生训练?
支持通用基座的代表 鸿雪科技 CTO、腾讯云TVP 孙杰 提出小组的六点观点:第一,通用模型基座作为一种资源约束下的最优解,通过以20%的成本满足80%的需求,兼顾经济与技术的可行性,具备高效资源利用率和快速迭代能力,通用基模可以满足大部分的需求。第二,可以快速适应企业里面大多数任务。第三,通用基模泛化能力强,可以泛化到企业70-80%的场景。 第四,通用基模便于知识迁移,通过大模型的知识蒸馏为专业领域提供支持,为垂类模型提供能力帮助。第五,具备动态进化和安全免疫能力,能在不断变化的环境中自我进化,对抗样本攻击时表现出更强的鲁棒性。第六,通用基模在泛化能力和微调之间提供最佳平衡。
鸿雪科技 CTO、腾讯云TVP 孙杰
支持垂直领域原生训练的代表, 北京知其安科技有限公司CEO 郭威 表示,做方向性决策,应该按照终局思维,即最终期望的效果来分析。既然微调有诸多已知且天然无法解决的问题,毫无疑问应该选择基于原生的垂直领域训练。垂域模型解决安全问题的优势有:第一,专业语料构成的认知壁垒。模型从诞生起就基于安全语料,有效避免通用大模型常见的幻觉问题,这就如同博士生与高中生的差别。第二,架构灵活性与适配优势。更灵活,可以用更少的参数,更灵活的软硬件架构,能让用户自行开展模型治理,如数据对齐、解决污染问题。第三,数据主权可控性。特殊行业如军工等涉及敏感数据,无法使用通用大模型进行训练。第四,场景化成本优势。垂直领域模型所需的参数远少于通用大模型,例如工厂的缺陷检测场景,用到的 yolo 算法可以完全基于CPU运行,让训练、使用成本都更低。
北京知其安科技有限公司CEO 郭威
辨题二:隐私敏感场景下,是否应全面禁止大模型处理原始数据?
支持全面禁止的代表 雾帜智能 CTO、腾讯云TVP 傅奎 直接表示,不可控、不可逆和不接受,不能让大模型直接处理敏感数据。第一,随着技术的发展,个人隐私几乎不复存在。第二,技术永远存在局限性,即使是知名大模型厂商也曾出现信息泄露事件,这说明当前技术无法完全保障敏感数据的安全。第三,从伦理道德来看,个人敏感信息的泄露可能导致严重的社会后果。最后,傅奎指出在隐私敏感场景下有替代方案可供选择,直接让大模型处理原始数据风险极高,我们必须捍卫人类的隐私权。
雾帜智能 CTO、腾讯云TVP 傅奎
支持优先放开的代表 天融信科技集团专家 彭祯方 则认为,随着DeepSeek的横空出世,国家已发文鼓励各行业利用大模型,前提是需使用原始、隐私及业务数据。其次,我们对大模型的担心,可能源于其初期对安全措施不到位,但有了AI防火墙等新技术提供的安全保障,我们可以放心使用大模型。第三,根据数字安全法,只要获得用户同意,隐私数据即可被合法使用。第四,借助鉴伪技术,隐私数据泄露的风险进一步降低。最后,如果我们不敢使用原始数据,大模型如何赋能千行百业呢?因此,大家可以放心地将隐私数据用于大模型。
天融信科技集团专家 彭祯方
结语
在「大模型时代:安全如何洗牌」TVP AI与安全高峰论坛上,嘉宾们深入解析AI与安全融合的机遇、挑战与未来发展方向,分享一线实践经验、研究成果与真知灼见,为与会者带来深刻的启发与实践指导。
本次论坛聚焦大模型时代下AI与安全的热点话题,形式多元,通过这次技术盛会,我们凝聚行业智慧,共同为构建更加智能、安全的数字世界出谋划策。
腾讯云TVP
TVP,即腾讯云最具价值专家(Tencent Cloud Valuable Professional),是腾讯云授予云计算领域技术专家的一个奖项。TVP 致力打造与行业技术专家的交流平台,促进腾讯云与技术专家和用户之间的有效沟通,从而构建云计算技术生态,实现“用科技影响世界”的美好愿景。
中国计算机学会(CCF)
中国计算机学会(CCF)成立于1962年,全国性学会,独立社团法人,中国科学技术协会成员,秉承会员构成、会员治理和会员享有的理念。CCF每年举办千余场/次各种规模、层次的学术会议、产业与技术论坛和培训,开展评奖、竞赛、认证、科学普及、计算机术语审定等系列活动。
2017年5月,CCF针对企业一线工程师对技术的强烈需求,创办了TF技术前线。CCF TF创始委员由Intel、LinkedIn、Microsoft、爱奇艺、百度、滴滴、方正、瓜子、华为、京东、链家网、联想、蚂蚁金服、美团点评、摩拜、360集团、搜狗、曙光、腾讯、网易、微博、小米、携程、新浪、中兴等25家知名企业的技术团队负责人担任。目前组建了架构、安全、智能前端、知识图谱、数据科学、工程师文化、算法与AI、智能制造、智能设备与交互、数字化转型与企业架构、研发效能、质量工程等12个SIG(Special Interest Group) 。