AI版权全球治理观察

虎嗅网  •  扫码分享

AI版权治理当下备受全球关注,该议题涉及内容行业上下游主体间的利益平衡,各界对于新技术发展应用的预期,以及更深层次的国际产业竞争格局等核心关切。通过梳理欧盟、美国、日本等域外主要国家和地区关于AI版权治理的路径选择、规则倾向和背后考量,可以为我国未来相关探索提供有益的借鉴经验。


一、欧盟:风险把控下的规则先行与监管介入模式


政策主线:“版权指令”下的AI条款与“AI法案”中的版权条款


欧盟在AI版权领域的政策主线,可以概括为两部立法与一部正在制定的配套准则,分别是:2019年3月26日通过的《欧盟单一数字市场版权指令》;2024年8月1日生效的《欧盟人工智能法案》;以及2024年7月30日启动立法议程的《通用人工智能行为准则》。


第一,“版权指令”中的AI条款。“文本与数据挖掘,是指任何旨在分析数字形式文本和数据以生成包括但不限于模式、趋势和相关性信息的自动化分析技术”——“版权指令”的上述内容规定,一直被广泛认为是全球最具代表性的对标AI模型训练的版权立法规则。简单来讲,只要版权人没有以适当的方式表达对文本与数据挖掘行为的反对,该条款便可在欧盟境内为当下主流AI厂商提供一项版权责任豁免依据。


第二,“AI法案”中的版权条款。“AI法案”将生成式人工智能纳入到“通用人工智能模型”的规制范围,进而搭建起了AIGC厂商所需要履行的版权合规义务体系。一方面,创设了模型训练版权透明度义务,即AIGC厂商需要公开模型训练的语料信息,以便版权人行使他们退出模型训练的权利。另一方面,明确了文本与数据挖掘“例外情形”的遵守方式,即AIGC厂商需要制定规则以识别和尊重版权人享有的保留自身作品被模型训练的权利。


第三,“GPAI行为准则”则是“AI法案”中“通用人工智能模型”相关规则的配套“实施条例”。欧盟AI办公室主导“GPAI行为准则”的制定,核心目标是提供可落地的具体标准,作为AIGC厂商评估自身合规水平的依据。针对“AI法案”涉及的版权义务,欧盟AI办公室成立了专门的“透明度和与版权相关的规则”起草工作组。


内在逻辑:聚焦“版权透明度”遵从“AI法案”整体规制进路


“AI法案”将“通用人工智能模型”定义为“使用海量数据进行大规模监督训练的人工智能模型,无论该模型以何种方式投放市场,都具有显著的通用性,并能够胜任各种不同的任务,并可以被集成到不同类型的下游系统或应用中”。


一个简单的标准是,包括十亿以上参数并使用大规模语料数据加以训练的模型,便符合通用人工智能模型的要求。实践中,生成式人工智能模型一直被认为是通用人工智能模型的典型代表,可以灵活生成诸如文本、音频、图像或视频等多模态内容。


众所周知,“AI法案”最大的特点便是将“以风险为进路”的规制逻辑贯穿于整部法律之中,对于不同风险级别的AI产品进行差异化责任规制。不仅将一般性AI产品分为禁止性风险、高风险、有限风险和最小风险四类,同时也将通用AI产品按照是否存在系统风险 (界限是累计计算量大于10^25浮点运算) ,配置不同的合规义务。


“AI法案”明确了通用人工智能模型的四项核心义务:第一,向欧盟AI办公室和欧盟成员国提供包括自身模型训练、测试、评估等信息的技术文件;第二,向下游服务商提供自身模型能力、局限性等信息的技术文件;第三,公布自身模型训练语料基本情况摘要;第四,制定规则落实欧盟版权法“文本与数据挖掘”的要求。


预防和抑制风险一个有效的办法便是增加透明度。仔细思考不难发现“AI法案”对于通用人工智能模型四项义务的设计便是围绕“透明度”展开:前两项义务涉及“技术透明度”,通用人工智能模型厂商需要向欧盟监管机构以及部署自身模型的下游服务商进行必要的技术细节公开,以便监管和预防可能带来的风险;后两项义务则围绕“版权透明度”,在适当标准下公开训练语料信息,版权人可随之选择是否拒绝模型训练,预防和制止自身作品权益被损害的风险。


也即,“AI法案”对于版权问题的关注实际聚焦于对版权风险的把控。值得注意的是,“AI法案”对于版权风险的把控还有两方面的延伸性规定。第一,明确了开源通用人工智能模型虽然可以豁免技术透明度的要求,但仍然需要遵守版权透明度的要求。第二,明确了只要将模型部署在欧盟境内,不管AIGC厂商是否在欧盟境内进行模型训练,都需要遵守前述版权合规义务。目的是防止域外AIGC厂商借由低于欧盟规定的版权标准在欧盟市场上获得竞争优势。


治理特征:通过行政机构“介入式监管”直面版权争议深水区


同风险把控相对应的是执法监管,欧盟AI版权治理的强监管特征已经慢慢呈现。根据“AI法案”的规定,欧盟AI办公室作为法案的执行机构,将会直接参与到AI版权具体治理中。第一,监督职能,监督AIGC厂商是否制定遵守欧盟版权法的政策,并公布用于训练的语料摘要;第二,指导职能,拟定一份关于训练语料公开摘要的模板供AIGC厂商使用;第三,立法职能,即制定“AI法案”关于通用人工智能模型规定义务的具体落地标准。


欧盟通过立法的形式,明确要求AIGC厂商公开自身训练语料,并要求其制定规则来保障版权人享有退出模型训练的权利。应当说是当下各国实践中唯一的立法成例,并且欧盟AI版权领域的合规要求由行政机构监督执行而非单纯依靠私人诉讼,亦体现出欧盟对于AI版权风险把控的强监管思路。


因为欧盟在AI版权领域的立法规则在全球范围内具有开创性,且直面产业实操中的高度敏感问题,从而备受各界高度关注。目前欧盟AI办公室通过“GPAI行为准则”的起草工作,以“咨询问卷”的方式向各界征求前述AI版权合规义务的具体落地方案。


2024年11月14日,欧盟AI办公室正式发布了“GPAI行为准则”的第一版草稿。针对“文本和数据挖掘例外的限制”,该草案特别提到AIGC厂商:一方面,仅使用遵循Robots.txt协议的爬虫;另一方面,开发可互操作的机器可读标准,便于权利人表达其权利保留,便于自身识别和遵守此类权利保留;此外,采取合理措施,将盗版来源网站排除在其爬虫活动之外。


二、美国:被迫应对下的顺势而为与审慎评估模式


治理框架:行政、司法、立法三重路径并行推进下的治理模式


美国版权局承担着版权注册的职能,使得其不得不直面利用AIGC工具创作的内容能否加以版权登记的现实挑战。截至2024年9月,美国版权局共裁决了四起AIGC版权注册行政案件:包括2022年2月14日“最近的天堂入口”案、2023年2月21日“黎明的扎里亚”案、2023年9月5日“太空歌剧院”案、2023年12月11日“SURYAST”案,并均拒绝认定利用AIGC工具生成的内容具有可版权性。与此同时,为了系统性地回应AIGC对版权登记带来的挑战,美国版权局于2023年3月16日发布了《版权登记指南:包括人工智能生成材料的作品》。


自2022年11月3日,GitHub代码工程师起诉微软、OpenAI未经授权利用其代码训练AIGC产品Copilot以来,目前美国在AI版权领域发生了几十余起诉讼争议。原告主要包括两大类:一是个体版权人,例如开源代码作者、书籍作者、画家等;二是专业公司和机构,如视觉图片库、音乐出版商、新闻集团等。鉴于美国司法周期较长,生效判决短时间难以出台,因此不会直接对当下AI版权规则产生实质性影响。


美国国会众议院和参议院高度重视AI版权问题,通过召集听证会的方式,讨论大模型的发展应用对既有版权规则带来的冲击,进而评估后续修法的必要性。从2023年5月17日到2024年4月10日,美国国会众议院和参议院共召开了五场“知识产权和人工智能”听证会。


  • 2023年5月17日,众议院召开了第一场听证会“人工智能与知识产权:第一部分——人工智能与版权法的互操作性”;


  • 2023年6月7日,参议院召开了第一场听证会“人工智能与知识产权:第一部分——专利、创新与竞争”;


  • 2023年7月12日,参议院召开了第二场听证会“人工智能与知识产权:第二部分——版权”;


  • 2024年2月2日,众议院召开了第二场听证会“人工智能与知识产权:第二部分——人工智能时代的身份”;


  • 2024年4月10日,众议院召开了第三场听证会“人工智能和知识产权:第三部分——人工智能辅助发明和创意作品的知识产权保护”。


整体观察:产业实践下的“被迫应对”与治理逻辑上的“顺势而为”


虽然表面看来多少有些“被迫应对”的意味,但美国作为本轮AIGC技术变革的缘起地,对于AI版权问题的治理回应存在强烈的现实基础。首先,伴随ChatGPT、Midjourney等全球最早一批AIGC产品在美国上市应用,版权人也随即发起了针对AIGC厂商的版权侵权诉讼。


美国各州法院不得不回应模型训练阶段与内容输出阶段的相关版权侵权问题。其次,伴随AIGC产品的普及,越来越多的创作者将其应用到内容生产过程并向美国版权局提交作品登记。


一方面,不同于欧盟监管制度先行的逻辑,美国借助司法实践回应AI版权领域争议的思路,实际上是产业发展到达一定阶段后水到渠成的顺势而为。值得注意的是,美国版权案件的审判周期一般都比较长,因而诉讼事实争议与多方利益诉求可以得到充分沉淀,不至于司法判决过早出台对产业发展造成直接影响。与此同时,通过司法实践中众多AI版权案件的裁判,可以凝聚各界的共识,为后续立法规则的出台积累基础。


另一方面,美国版权局就AI版权问题的一系列应对举措,实际也体现出被迫应对下的顺势而为。相较于其他国家,在美国作品登记对于创作者群体来说是一个必备过程。因为根据美国版权法,登记是提起版权侵权诉讼的基础,并且是主张法定赔偿和律师费的前提条件。鉴于版权侵权赔偿证明的特殊性和困难性,在美国绝大多数原告都是请求法定赔偿。由此,涉及AIGC的创作内容被提交到美国版权局,被审查能否作为版权保护的作品加以登记。


此外,美国版权局于2023年8月30日公布了“关于版权和人工智能的调查通知”,将基于各界的反馈意见,发布官方的“版权和人工智能报告”,作为向国会提出立法建议及监管执法的依据。此次公开调查共收集到意见超过一万条,受众包括权利人群体 (作者、作曲家、画家、出版商等) 、科技公司以及学者、律师等。2024年7月31日和2025年1月29日,该报告第一部分和第二部分已发布。


倾向选择:“等等看”不失为各界共识难以短期内达成时的最优选择


全球AI领先地位的客观现实,一定程度表明美国现有的AI版权规则并未束缚其产业发展。一方面,这与美国极具包容性的版权法制度密切相关。合理使用“四要素分析法”的存在,至少在一定程度上使得模型训练在美国处于灰色而非黑色地带,无需迫切的制度修订而只需在司法实践中凝聚共识。


另一方面,除了发达的AI产业外,美国也有着强大的内容产业。因而,对于涉及技术方和内容方利益切割的版权政策,美国立法保持着一种高度谨慎的姿态。根据国际知识产权联盟相关报告数据,核心版权产业占美国整体经济的规模一度接近8%。


从美国参议院和众议院2023年至2024年的五场听证会所发布的内容来看,目前各方对于AI版权治理议题的观点态度冲突仍十分尖锐。在难以达成共识的前提下,或许美国国会所称的“尚未做好立法准备”和“无需立法修改”的回应,以及发言代表的“等等看”态度,也是一种偏向产业自治的最优选择。


例如2024年4月10日,众议院召开了第三场“人工智能和知识产权:第三部分——人工智能辅助发明和创意作品的知识产权保护”听证会,实际上对美国版权局前期一味否定利用AIGC创作内容的可版权性问题进行反思。听证会指出区分“AI自主生成的内容”和“AI作为工具增强人类创造力形成的作品”的重要性,并表示版权法不保护AI辅助创作的内容可能会破坏推动创新的内在激励结构。


三、日本:应用导向下的行政指导与规则细化模式


规则体系:以著作权法既有规定为基础出台一系列行政指导意见


从政策角度来看,日本《著作权法》的制定历史具有高度重视新技术应用与规制的传统。2018年2月,日本内阁会议通过了《著作权法》修正案,在第30条第4款设置了新的合理使用条款——“不以欣赏作品原有价值为目的的利用” (非欣赏性利用)


日本文化厅在解读文件中阐释了该条款的修法背景:日本希望通过出台政策方针来促进国内大数据、人工智能等与第四次产业革命相关的技术创新。日本国内认为AIGC模型训练可以适用上述“非欣赏性利用”的责任豁免,符合该条款列举的“用于信息分析的情形”和兜底性的“在电子计算机信息处理过程中对作品表达所进行的不被人类感知和识别的使用情形”两项要求。


伴随生成式人工智能的应用,日本社会各界对于开发和应用AIGC模型的相关行为是否会导致著作权人利益受到不当损害,表示出强烈的担忧。为此,日本文化厅自2023年7月26日至2024年2月29日之间,密集就“生成式人工智能与著作权相关问题”召开了7次讨论会,并梳理了各界对于AI版权议题的关注重点。


在“AI开发阶段”,著作权人的担忧主要是针对AIGC厂商“擅自将作品用于AI开发和学习”以及“学习盗版等违法上传的内容”;与之对应,AIGC厂商的担忧则主要是“进行模型开发学习时可以不经许可使用作品的范围不明确”。在“AI生成阶段”,使用者的担忧主要是“来自同行的讥讽,例如不投入智力创作就生成作品并推广传播”以及“担心AI生成内容无法成为著作权法保护的客体”。


围绕上述问题,日本版权行政机关发布了一系列指导意见,向各界阐释《著作权法》在AI领域的具体适用要求,相关指导意见主要包括,2024年3月,日本文化厅发布的《关于AI与著作权相关问题的意见》;2024年5月,日本内阁发布的《AI时代知识产权研讨会中期总结》;2024年7月,日本文化厅著作课发布的《关于人工智能与著作权的事项和指南》。


治理特征:依靠行政机关的细化指导以明确AI版权规则的落地适用


应当说,在AI版权治理领域日本相较于其他国家和地区,展示出了极大的规则勇气,是唯一在细化规则和落地执行层面给予明确性回应的国家。但日本明显不是借助于修改本国著作权法的方式来实现这一目标,而是通过行政机关出台指导性意见——阐释著作权法在AIGC技术背景下的适用来加以实现。


值得注意的是,日本新《著作权法》修正案于2023年5月17日通过参议院表决,但未对AIGC问题作新增回应,一定程度上说明日本对于AI版权治理的逻辑更倾向于依从现行著作权法的“解释论”而非变革现行著作权法的“立法论”。日本文化厅著作权课承担起对于AI版权细化规则的制定责任。


2024年3月15日,日本文化厅发布了《关于AI与著作权相关问题的意见》指出,基于AI产业中模型开发者、服务提供者以及使用者等各角色的行为及其关系逐渐明晰,以及各方主体目前都对AI版权领域行为的合规性表示担忧,有必要具体阐释著作权法应对AI问题的基本态度并为产业界提供明确的行为指引。


2024年7月31日,日本文化厅著作课发布《关于人工智能与版权的事项和指南》,从实操指引角度为AI相关方提供版权风险预防建议,并指导版权人如何有效保护自己的权利。它分为两部分:第一部分是针对AI开发、提供和使用者的合规指引;第二部分是为版权人提供的指引。


AI开发者,不应以输出作品的独创性表达为目的进行模型训练,也不应通过规避技术措施等手段获取他人商业化运营的语料数据库;而应采取措施防止模型生成与训练语料相似的内容,并向下游主体提供语料来源及防止侵权措施的信息,以降低侵权风险。


AI提供者,应采取技术措施避免自身产品输出与训练语料相似的内容,并说明产品服务的合规使用方法和语料来源等信息,帮助用户做出决策以避免侵权。AI使用者,应确认模型的内容生成机制、训练语料信息、使用条款要求等以预防侵权;若使用模型对现有作品内容进行加工处理,需要事前获得相关主体授权;生成内容的后续利用需要先确认是否与既有作品相似而构成侵权;生成内容的后续授权交易前需要确认其可版权性,并保存提示词等创作过程记录以预防未来有可能产生的争议。


侧重方向:明确各方行为预期以激励AIGC技术在内容产业的应用


观察日本在AI版权领域的政策规则,一个较为明显的趋势是高度关注AI在内容创意产业上下游中的应用。折射出的日本政策考量,一方面是通过对上下游主体行为预期的明确与保障,来促进AIGC技术本身的发展;另一方面,则是同日本作为全球内容大国的地位密不可分。日本的影视、游戏、动漫等文化艺术产业在世界范围内获得高度认可,不仅向海外持续输出日本文化影响,还成为拉动日本入境旅游需求持续提升的软实力。


2024年7月5日,日本经济产业省发布了《生成式人工智能在内容制作中的应用指南》,总结了日本在游戏、动漫、数字人等内容创作领域,应用AIGC的实际案例和涉及的法律关注。针对AIGC应用涉及的版权问题给出的合规建议是,在AI开发、学习阶段:


  • 第一,在获取和使用AI训练语料库时,需确认好语料库的服务条款、利用规约与知识产权保护规定;


  • 第二,在利用他人作品进行模型训练时尽量获得授权,或是利用超过保护期的作品;


  • 第三,如果未获得授权,则应当避免仅学习特定作者的作品。在AI利用的阶段:


  • 第四,对AI生成内容反复检索,检查有无剽窃的嫌疑,确认作品是否与他人著作物有相似性。


在此之前,2024年4月19日,日本总务省和经济产业省公布了《AI运营商指南1.0版》。指南提到随着对话型生成AI的兴起,知识产权侵权问题也受到各界关注。AIGC可能会加剧著作权侵权风险,例如生成与现有作品相似的内容。


指南建议,在AI开发过程中,开发者需要确保AIGC模型和算法的透明度,以便识别和解决可能的版权问题。AI提供者在提供服务时,需要向用户明确说明AI系统的能力和限制,包括可能涉及的版权问题。AI利用者在使用AI系统时,应评估使用AI系统可能带来的版权风险并采取相应的预防措施。


四、观察:域外AI核心版权问题的应对策略及考量


模型训练:数据时代既有版权政策的延续与更加关注“例外的例外”


目前,欧盟和日本是对AIGC模型训练版权问题进行制度回应的代表性法域。但不论是欧盟的“文本与数据挖掘规则”还是日本的“非欣赏性利用规则”,立法初衷都是针对此前大数据分析技术的法律修订动作,并非是本轮AIGC技术崛起后的制度回应。值得注意的是,对于“文本与数据挖掘”涉及的版权问题,作为判例法国家的美国实际已经通过司法裁判的方式进行了规则回应。


早在1996年欧盟便制定了《数据库保护指令》,创设了“数据库权”这一特殊权利,禁止他人未经许可地提取、复制数据库内容;2019年又通过“单一数字市场版权指令”,进一步明确了“文本与数据挖掘”行为的版权豁免边界。沿袭欧洲大陆成文法传统的日本,在2018年修改《著作权法》时,便因此增加了确认“用于信息情报分析的复制”属于“非欣赏性利用”侵权例外的30-4(ii)条款。


伴随大数据技术的应用,美国在司法实践中也遇到了“文本与数据挖掘”领域的行业争议。自2004年推出“Google Books project”以来,谷歌公司因未经许可扫描超过两千万本图书而引发了版权侵权诉讼。在与作家协会长达11年的纠纷中,谷歌不断调整其在线图书数据库的信息服务方式。直到2016年4月,美国最高法院拒绝受理原告作家协会的上诉,也最终明确复制作品到数据库但仅在网页搜索结果显示片段的行为——也即“文本与数据挖掘行为”属于合理使用。


目前,应当说各国对于“文本与数据挖掘”可以延展适用于AIGC模型训练存在初步共识。但正如日本文化厅在“生成式人工智能与著作权相关问题”听证会收到的意见反馈所称,AIGC技术的发展与影响已经远超当时新增“非欣赏性利用”时的立法预期,需要审慎思考在新技术背景下如何避免对版权人利益的过度损害。


因此,在AIGC模型训练阶段的版权问题上,当下欧盟和日本等制度先发国家和地区的关注重点,都转向了通过明确和细化“例外的例外”这一规则限制,来防止“文本与数据挖掘”的负面溢出效应打破内容上下游的利益平衡。


日本文化厅通过发布行政指导意见的方式,积极阐释版权法中对于“非欣赏性利用规则”限制条件——“不得超过必要限度”与“避免不当损害著作权人利益”的具体情形,明确“不得采取技术规避手段获取训练语料”“不得利用盗版内容”“不得未经授权利用专门的商业语料库”“不得利用模型输出和被训练语料作品相同、相似的内容”等。欧盟目前正在推进《通用人工智能行为准则》的起草,聚焦于要求AIGC厂商创设平台规则和采取技术手段,保障“单一数字市场版权指令”赋予版权人的拒绝被模型训练的权利。


内容生成:AIGC可版权性并非全新议题且既有制度能够加以回应


关于人工智能生成内容能否构成作品、受到版权保护这一问题,在全球各国的讨论由来已久。当下对于AIGC可版权性的探讨虽然已成为显学,但实际上只是机器 (或者说计算机) 生成内容对版权客体制度挑战的延续。


整体来看,各国对于AIGC可版权性问题存在较高的共识:一方面,在AIGC内容作品属性认定上需要区分“AI自动生成”和“AI辅助创作”;另一方面,至少在当下的技术节点,现行版权法客体制度仍能够对利用AIGC工具创作的内容加以涵摄,而无需额外的立法调整。


世界知识产权组织 (WIPO) 早在2020年5月29日发布的《经修订的关于知识产权政策和人工智能问题的议题文件》中,便已经阐释自动生成和辅助创作的划分是解决这个问题的前提。文件表明,“人工智能生成”与“人工智能自动生成”是可以互替使用的术语,系指在没有人类干预的情况下由人工智能生成产出。要与“人工智能辅助完成的”产出加以区分,后者需要大量人类干预或引导。


早在20世纪70年代,美国便开始关注计算技术对版权制度的影响,并专门成立了国家版权作品新技术使用委员会。该委员会的一项重要职能便是研究“通过应用机器系统创造新内容带来的版权问题”。正如该委员会的解释,“任何作品受版权保护的资格并不取决于创作过程中使用的设备或装置,而是取决于在作品产生时至少存在最低限度的人类创造性贡献。”


此后,无论是司法层面针对照相机等机器设备生成的内容 (1884年美国联邦最高法院判决的“Burrow-Giles诉Sarony”案) ,还是普通计算机软件生成的内容 (2014年美国版权局裁决的MK公司“絮状物分析仪样本图像”版权注册案) 的行政裁决,亦或行政层面美国版权局目前针对AI模型生成内容的四起版权注册案件,都秉持着美国版权法“只保护人类作者身份,不对纯机器生成内容加以保护”的基本立场。


目前,欧盟对于AIGC可版权性问题尚未有官方层面的明确表态。此外,无论是已经颁布的《人工智能法案》,亦或是正在制定的《通用人工智能行为准则》均未涉及AI生成内容的作品属性认定问题,也从侧面印证了欧盟认为现行版权法客体制度仍能够应对AI带来的冲击挑战。


从本轮生成式人工智能技术变革后,欧盟各成员国涉及AIGC可版权的相关判决,也可以观察出欧盟在该问题上的基本判断——即版权法保护的作品必须体现自然人的创作贡献,无论是否借助于AI工具或其他机器设备。


2023年1月16日,意大利最高法院在“The scent of the night案”中表示,在图像生成过程中使用软件,这一事实本身并不足以排除作品创作属性,而是需要更严格地判断是否存在一定程度的独创性,因此需要法院去评估对工具的使用是否、以及在多大程度上反映了使用者的独创性贡献。


2023年10月11日,捷克布拉格法院在“S.Š.诉TAUBEL LEGAL案”中也表示,提示词的设计者是否可以被作为图像作者,需要视具体情况而定:如果输入的提示词是作者独特的创作行为,对生成的图像有很大程度的贡献,那么在这种情况下,设计出提示词的人可以被视为该图像的作者,满足版权法规定的主体要件。


早在上世纪90年代,日本文化厅在《著作权审议会第9小委员会报告书》中指出,人类为了创造性地表达思想感情,在创作过程中将计算机系统作为道具使用,由此创作出的内容,其可版权性应予以肯定。计算机系统是否被用作道具,取决于人类是否具有“创作意图” (指将思想感情以外在表达的形式呈现出来的目的) 以及为了得到具体内容是否实施了具有“创造性贡献”的行为。面对本轮生成式AI技术对版权客体制度带来的影响,日本文化厅在2024年3月15日发布《关于AI与著作权相关问题的意见》予以阐释。


在使用生成式AI的场景下,如果人类仅仅是按下“生成”键而没有给出任何指令或者给出的指令过于简单,此时的生成内容不属于作品;但在人类为了创造性地表达思想感情而将AI作为道具进行使用时,人工智能生成物便可以构成作品,作者是使用AI进行内容创作的用户。


“指令的具体性”是影响可版权性认定的因素之一,具体需要结合提示词的量和内容 (即用户输入的指令对生成内容的独创性表达是否具有创造性贡献) 、用户进行内容生成的尝试次数、是否从多个生成内容中进行了选择等综合考量。人类创作的部分和AI生成的部分应当被分别评价,即使生成物中的部分内容经过人类调整从而具有了独创性,也不能使其中完全由AI生成的部分被认定为作品。


侵权传播:主体间责任分配存在初步共识但平台义务边界尚难框定


在当前阶段,面向公众的AIGC产品存在输出版权侵权内容的现实可能性,这或是基于训练语料和模型参数本身引发的侵权问题,亦或是基于用户的不当操作行为 (例如输入诱导性侵权提示词或直接要求加工未经授权的侵权内容) 导致的侵权结果。


目前来看,在输出内容存在版权侵权问题时,域外各国均倾向于认定由AIGC产品的使用者 (即用户) 承担版权直接侵权责任,而由AIGC平台承担间接责任。但对于AIGC平台应负有的版权注意义务程度和边界,目前尚未形成明确的共识,即是否应当在事前采取措施避免侵权内容的输出亦或是继续适用网络版权领域传统的“避风港制度”,在版权人通知后承担采取制止侵权必要措施的义务。


梳理美国目前在诉的AIGC版权侵权案件,可以发现在内容输出阶段,版权侵权争议主要围绕直接侵权和间接侵权两大领域展开。一方面,版权人会指控AIGC产品使用者构成版权直接侵权,涉及复制权、演绎权、信网权等领域的侵权行为。因为在实践中,AI领域版权侵权情形的发生,基本都是由使用者将版权人姓名或作品名称作为提示词,生成与版权人作品相同或相似的内容并加以传播。


另一方面,版权人会指控AI厂商对于使用者的直接侵权行为承担版权法上的侵权替代责任 (版权间接侵权责任的一种) 。因为AI厂商在提供服务时,知道并放任了自身产品具备可以被使用者生成侵权内容的功能。


日本文化厅在2024年3月15日发布的《关于AI与著作权相关问题的意见》中,阐释了AIGC输出领域的版权侵权责任分配的基本判定。对于AI生成侵害物的行为,用户自身承担责任的同时,AI厂商也可能会作为著作权侵权的主体被追究责任,因为其忽视了自身产品可能输出侵权内容的现实。


2024年7月31日,日本文化厅发布了《关于人工智能与著作权的事项和指南》,对于降低AI厂商被追究著作权侵权责任风险的问题,给出了具体应对举措。“事项和指南”建议,AI厂商应采取措施防止模型生成与训练语料相似的内容,并提供语料来源、模型服务的合规使用方法以及防止侵权措施的信息,帮助模型使用者做出决策避免版权侵权风险的发生。


目前,欧盟在AIGC版权侵权责任领域尚未有明确的立法政策和司法裁判指引,但通过《人工智能法案》明确了AI厂商版权领域的行政责任及配套罚则。《人工智能法案》第53条规定AI厂商需要履行两项核心版权强制性义务:


“(C)制定遵守欧盟版权法的政策,特别是确定和遵守,包括通过最先进的技术,根据(欧盟)2019/790号指令第4(3)条表达的权利保留 (即拒绝自身作品被模型训练的权利) ;(D)根据人工智能办公室提供的模板,起草并公开用于训练通用人工智能模型语料内容的足够详细的摘要。”


在第101条“对通用人工智能模型提供者的罚款”中进一步指出,未能遵守通用人工智能责任规定的行为将处以高达1500万欧元或全球集团营业额3% (以较高者为准) 的罚款。


五、思考:国内AI版权治理的既有探索与未来思考


既有探索:“AIGC暂行办法”及国内AI版权司法裁判


我国于2023年8月15日施行的《生成式人工智能服务管理暂行办法》,是世界上首部以生成式人工智能为对象的正式立法。“暂行办法”对生成式人工智能的技术、服务规范进行了系统性规定,除原则性指出“不得侵害他人依法享有的知识产权”外,还明确了模型训练领域AIGC服务提供者的基本行为规范,“生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动,遵守以下规定:……使用具有合法来源的数据和基础模型……”。


此后伴随生成式人工智能前沿技术和商业服务在国内的应用普及和深入发展,围绕AIGC内容可版权性、服务提供者版权注意义务以及模型训练版权责任等问题关注,北京互联网法院、广州互联网法院、杭州互联网法院、江苏省常熟市人民法院、武汉东湖高新区法院、秦皇岛山海关法院、北京知识产权法院、苏州市中级人民法院等做出了系列案件裁判,为AI版权领域各主体的行为规范提供了相关的指引参照。


就AIGC内容可版权性问题,2023年11月,北京互联网法院对“国内首例AI文生图案”做出判决,认定原告利用开源AI软件Stable Diffusion创作的图片“春风送来了温柔”构成版权法保护的作品。此后国内陆续又公开了多起相关案件,基本都是延续北京互联网法院依据《著作权法》项下作品定义,从涉案作品本身特征、创作过程等角度,结合案情具体分析的裁判思路。


值得关注,2025年4月,苏州市中级人民法院就原告利用Midjourney等AI工具生成的“蝴蝶椅图片”作出“不构成作品”的二审裁定,但依据在于原告出现了事实上的举证不能——“在创作过程无原始记录佐证的情形下,原告所作的选择和修改缺乏证据支撑,难以体现其进行的智力投入”。


对于AIGC内容可版权性的法律认定逻辑,该案件与前述判决具有高度一致性——“对于主要由人工智能绘图软件自动生成的内容,不应当认定构成作品;但使用者如果将人工智能绘图软件作为工具,体现人的独创性智力投入即使是人工智能生成物,亦应当作为作品受著作权法保护”。


就AIGC服务提供者注意义务问题,目前国内重点案件有二:第一起案件,在2024年2月由广州互联网法院一审判决并生效;第二起案件,由2024年9月杭州互联网法院一审、2024年12月杭州市中级人民法院二审生效。


从目前两起案件裁判来看,一方面划定AIGC服务提供者注意义务的范畴边界:若用户利用平台服务生成及发布内容,平台对于内容侵权与否并不当然负有事先审查的义务。另一方面也明确了现阶段的AIGC服务提供者责任的判定标准:事前的“红旗规则”+“必要注意义务”和事后的“通知-必要措施规则”。


第一,就“红旗规则”而言,法院会依据“平台行为+侵权作品”的具体情况,判断平台对于用户生成的侵权内容是否存在“明知”进而认定是否成立“帮助侵权”。具体情况包括:平台是否向用户收取增值服务费,平台是否在首页等显著位置推介侵权内容,被诉侵权事实的明显程度(特定IP侵权是否反复、大量发生),被侵权作品的知名度等等。


第二,“必要注意义务”则主要有三项基本要求:一,建立健全投诉、举报机制,设置便捷的投诉、举报入口,公布处理流程和反馈时限,及时受理、处理公众投诉举报并反馈处理结果;二,以服务协议等方式提示用户不得从事侵权行为;三,对生成内容进行显著标识,方便权利人根据标识追溯到特定平台,进而采取针对性的维权措施。


第三,就“通知-必要措施规则”而言,则要求平台收到版权人侵权通知后,采取对相关侵权内容进行关键词等屏蔽过滤并在后台进行知识产权审核等举措。


未来思考:关涉多方核心权益需要更加审慎的制度考量


第一,针对“模型训练阶段的版权责任豁免议题”,各界仍存在较大争议,立法层面对该问题加以回应调整的制度节点尚未成熟。


一方面,域外各国对此议题持高度审慎的立法态度。自2022年底生成式人工智能广泛应用以来,除一贯“产业滞后、制度先行”的欧盟外,其他主要国家并没有完成实质性的立法和司法动作。但不论是欧盟的“文本域数据挖掘条款”还是日本的“非欣赏性利用条款”都是在此前2019年、2018年出台,最初并非完全对标模型训练版权问题。


值得关注,英国自2022年启动模型训练版权立法修订工作,但直到现在仍在反复调整、难以出台。美国参众两院至今召开多场听证会但也没有具体立法动作;此外美国几十余起涉及模型训练的版权案件也均因担心对于版权和AI产业带来难以预见的影响而没有判决。


另一方面,目前国内对此是否存在迫切的制度需求也存疑。一方面,在没有豁免制度下,现行版权法到底有没有影响大模型产业发展,以及一旦出台“数据挖掘合理使用相关条款”对于版权产业和内容创新可能带来的不利影响,都值得认真思考。在目前模型训练领域无明确版权规则的情形下,2025年1月国内AIGC产品DeepSeek依旧震撼发布,7天用户数增长1亿,各项性能表现追平国外头部厂商Open Al的领先产品。


另一方面,我国司法领域目前存在的相关指导意见 (2011年12月20日,最高人民法院发布《关于充分发挥知识产权审判职能作用推动社会主义文化大发展大繁荣和促进经济自主协调发展若干问题的意见》在具体审判实践中引入了合理使用四要素分析法) ,可以应对模型训练相关问题争议。


第二,针对“利用AIGC工具创作内容的可版权性议题”,现行版权法客体规则能够有效加以涵摄,无需过于激进的制度变革。


一方面,生成式人工智能在当下发展阶段仍仅是人类的辅助创作工具,远没有达到突破“主客体、人物二分”的技术临界点。对于人类利用AIGC工具创作的内容在版权法框架下加以妥当保护,可以实现版权法“激励自然人创作”的内在制度目标。因为人类利用AIGC工作创作的作品,在表现形式上和外观呈现上和此前作品并无本质差异,只是人类使用的创作工具不同而已,所以不宜采取版权法上过于激进的制度变革举措,否则不论是新增作品类型还是新增邻接权客体类型,都无法避免与既有作品类型发生外观重合的问题。


另一方面,需要认识到若不对人类利用AIGC工具创作的内容加以版权法层面的妥当保护,则会带来一系列负面影响。缺乏版权层面必要的保护,不仅会影响利用AIGC工具创作内容后续的“IP授权和维权”的权利稳定性,进而损害全社会文化内容的创作和传播;还会导致对利用AIGC工具创作的内容不经授权的任意侵权利用,这将引发作品创作秩序、版权交易规则的混乱,并带来额外的社会治理成本。


第三,“AIGC服务提供者版权注意义务”的规则厘定,仍需通过司法实践加以持续探索沉淀。


一方面,生成式人工智能技术目前仍处于持续演进之中,与此对应的平台责任边界认定问题也在不断面临挑战,从最初简单的API接入模式提供服务的责任问题,到用户借助平台服务训练agent智能体、lora模型时的平台责任,再到通过检索增强技术 (RAG) 提供服务的平台责任等,都是全新的议题。但立法天然具有原则性和滞后性,AIGC服务提供者注意义务的边界,难以通过立法规则“一言以蔽之”,只能经由司法个案先定纷止至,然后从大量的类案共识中梳理总结司法裁判指引和行业行为准则。


另一方面,平台责任问题虽然说是一个法律问题,但实际上是一个行业实操和技术能力的评判问题。对于AIGC服务提供者注意义务边界的设定,既不能强人所难,也不能鼓励故意懈怠者,而是需要借助于司法实践中个案认定,对平台技术可行能力和合理经济成本综合加以考量评估。目前来看,传统“避风港制度”下的“红旗规则”和“通知-必要措施规则”仍然具有可适用性,但需要根据AIGC平台商业模式的演进和技术的变化加以不断调试和完善。


(原文《生成式AI版权治理的全球观察与本土思考》发表于《版权理论与实务》2025年第2期,由于篇幅限制,对于内容格式有所调整并隐去脚注。)

随意打赏

提交建议
微信扫一扫,分享给好友吧。