聚焦AI伦理 万兴科技、Adobe等推进合规发展
随着AI技术的飞速发展,AI训练数据的合规性、伦理和安全问题日益受到社会各界的广泛关注。
近日,国内《人工智能法示范法2.0(专家建议稿)》(以下简称“《示范法》2.0”)发布,进一步明晰开源激励、版权风险治理机制,更好护航人工智能安全发展。在美国,近期一份名为《生成式AI版权披露法案》(以下简称“《法案》2.0”)的提案同样在国会被推出,旨在迫使人工智能公司披露其生成AI模型所使用的受版权保护的材料。
国内外同时在AI规范发展方面出台相关规定,意味着AI正在巨大潜力与道德准则、法律规范和产业发展的迫切需求之间找到平衡。作为人工智能发展的主体,以万兴 科技 Adobe等为代表的AI公司正努力通过构建全生命周期的科技伦理审查体系建设、采购合法合规的训练数据,确保走在AI发展的科技向善道路上,打造可审核、可监督、可追溯、可信赖的人工智能技术。
万兴科技等 AI公司 积极成立 科技伦理审查委员会
《示范法》2.0在构建知识产权创新规则方面,在研发环节对训练数据、个人信息的使用作出专门安排,并针对人工智能生成物的成果保护与侵权认定进行规定,平衡好人工智能发展与安全之间的关系。
事实上,作为人工智能发展的主体,不少人工智能公司早已迅速行动,以国内AIGC软件A股龙头公司万兴科技为例,其在4月10日成功获得湖南省人工智能领域第一批科技伦理审查机构登记证书,获得人工智能科技伦理审查机构登记备案,一同获得登记备案的视旅科技、芒果融创等。
公开资料显示,万兴科技是中国数字创意软件领域产品覆盖面广、营收体量大、全球化程度高的A股上市公司,也是国内AIGC行业龙头,业务覆盖200多个国家和地区,全球累计用户超15亿,月活近1亿,被视为“中国版Adobe”。
面对AIGC时代,万兴科技深化布局,今年一月,万兴科技推出中国首个音视频多 媒体 创作垂类大模型万兴“天幕”,聚焦数字创意垂类创作场景,基于15亿用户行为及百亿本土化高质量音视频数据沉淀,打造基于大模型架构的AIGC应用基础底座,全链路赋能全球创作者,推进大模型进入2.0时代。据悉,该大模型当前已成功通过中央网信办备案,即将于4月28日开放公测。
万兴科技相关负责人介绍,公司高度重视人工智能科技伦理工作,在湖南省科技厅的指导下,成立万兴科技(湖南)人工智能科技伦理审查委员会,起草并通过科技厅审核各类规章制度和SOP数十项,帮助公司对AI项目的伦理风险进行评估和管理,提升科技伦理审查水平。通过对大模型研发及其应用方面进行全生命周期的科技伦理审查体系建设,为公司在AI领域的研发和应用系上安全带。
在各省科技伦理委员会的指导和牵引下,各人工智能公司在落实推动人工智能伦理规范发展主体责任方面正起着不可替代的指导作用。
在湖南,省科技厅专门成立人工智能科技伦理服务专班,开展人工智能科技伦理服务需求调研,指导人工智能科研机构成立科技伦理审查机构,专门组织人工智能领域科技伦理业务能力提升培训等,推动人工智能科技创新和科技伦理互动良性发展。
无独有偶,今年1月,浙江省发布《关于加快人工智能产业发展的指导意见》,提出加强省科技伦理委员会的作用,加强人工智能伦理安全规范、社会治理实践研究,面向重点领域开展伦理审查和安全评估;推动相关高校院所、企业等按规定设立人工智能伦理(审查)委员会,持续强化科技伦理对科技创新主体的正向引导。
Adobe采购视频资源训练AI模型规避版权争议
近期,美国《法案》的提案引起科技界广泛关注。该法案要求AI公司在使用受版权保护的作品进行模型训练时,必须进行披露。这一要求意味着AI企业需要对其训练数据的来源和使用情况进行透明化管理,确保数据使用的合法性和合规性。目前该法案已获得包括美国唱片业协会、职业摄影师协会、导演协会和电视广播艺人协会等多个娱乐行业组织和工会的支持。
在国际上,Adobe公司正积极采购视频资源以训练其AI模型。业内人士认为,Adobe作为全球知名的创意软件公司,其对AI技术的投入和应用一直处于行业前沿。通过购买视频资源,Adobe不仅能够为其AI模型提供高质量的训练数据,还能够确保数据的合法来源,避免潜在的版权纠纷。
与此同时,Adobe还警告称,不要提供受版权保护的材料、裸体或其他“冒犯性内容”,Adobe的清单内容还突出了构建AI模型所需的大量数据,并表示这些数据将用来为人工智能训练提供算料资料,加快开发文生视频技术。
与Adobe公司采取购买训练数据不同,最早推出文生视频模型Sora的OpenAI则正面临训练数据来源的压力。
OpenAI首席技术长Mira Murati在3月接受采访时表示,她不确定Sora是否接受过YouTube、Facebook和Instagram用户生成的视频用于培训。
Mira Murati的含糊其辞引发业界对Open AI训练数据来源的质疑。YouTube首席执行官Neal Mohan公开表示,虽然没有直接证据证明Open AI利用YouTube视频训练Sora,但如果事实确实如此,那OpenAI就“明显违反”YouTube的使用条款。
相比之下,Adobe所寻求的直接付费向摄影师和艺术家们采购视频的做法,被认为更为合规,AI模型训练数据来源显然更为安全。除了视频资源,它还为提交大量用于人工智能训练的照片的贡献者提供报酬。
《法案》提案和《示范法》2.0,以及国内外企业的实践表明,AI行业正在逐步建立起一套完善的数据管理和披露机制,以确保数据使用的合法性和伦理规范。这对于推动AI行业的健康发展,知识产权保护,以及维护社会公共利益显然具有重要意义。
未来,随着相关AI法律法规的不断完善和行业标准的逐步建立,AI企业在数据合规和伦理安全方面的表现也有望成为衡量其在社会责任、企业信誉的重要指标,成为AI企业软性竞争力的关键一环。