网络著作权的司法保护
主持人语
最高人民法院民事审判第三庭庭长 李 剑
党的二十大报告提出,要建设数字中国,加快发展数字经济。网络数字技术的蓬勃发展为经济社会发展注入新动能,也给现行知识产权保护制度带来了前所未有的挑战,受影响最大的当属著作权法。互联网出现前,作品固定的形态大多以人类可以直接感知的形式存在,且复制件与原件存在差异,普通民众不具有大规模复制作品的能力。互联网出现后,网络用户可以对数字化的作品进行无限次的复制和传播,使得公众接近作品非常方便,相应的,网络著作权侵权行为频发多发。网络数字化的传播和使用方式又深刻反哺了作品的创作,新业态新模式相继涌现,从而催生了新的著作权司法保护需求。
2024年,人民法院新收网络著作权案件127229件,占全部著作权案件的48.94%,占全部知识产权案件的24.03%,比2014年增加了1030.12%。案件数量的大幅攀升,带来的新型疑难法律问题层出不穷,全新的法律课题摆在广大学者和法官面前。NFT数字藏品作为利用区块链技术生成的数字化产品,是“元宇宙”概念的构成因素。数字藏品属于著作权法应当保护的作品吗?其销售属于发行吗?网络著作权侵权情形下,平台通常主张适用“避风港规则”免责。但随着巨型互联网平台的兴起,算法、过滤等技术越发先进,网络服务提供者的注意义务标准是否需要调整?2025年,开源且免费的DeepSeek火爆出圈,借助人工智能大模型,人人都可变身创作者。人工智能为创作创新提供了更加广阔空间和更加丰富手段的同时,也给著作权保护带来全新的难题,著作权侵权行为愈加“便利”、低成本化。如果用户使用生成式人工智能生成了与他人作品构成实质性相似的内容,但并未向外传播,用户是否侵犯著作权?生成式人工智能服务提供者在著作权法上如何定位,其侵权责任应当如何界定?
本次主题圆桌分别邀请了著名知识产权学者和经验丰富的法官,从不同视角切入,系统探讨了数字藏品交易、网络服务提供者责任边界、人工智能生成物侵权责任界定等前沿法律问题,以扎实的案例分析、前沿的法理探讨和务实的对策建议,为网络著作权新业态新模式司法保护规则的构建提供重要参考。
网络著作权的司法保护
主持人:李剑 (最高人民法院民事审判第三庭庭长 )
与谈人:吴汉东(中南财经政法大学文澜资深教授,知识产权研究中心名誉主任 )、许惠春 (浙江省高级人民法院副院长 )、 王晓明 (广东省高级人民法院民事审判第三庭庭长)、 张吉豫 (中国人民大学法学院副教授,未来法治研究院执行院长)
01李剑:数字藏品及新型数字作品是数字经济与区块链技术深度融合的产物,近年来发展迅速,并逐步渗透至文化、艺术、游戏等多个领域,也引发了诸多法律问题。例如,网络平台中的NFT数字藏品交易在著作权法下应当如何定性?
吴汉东:我们通常认为,NFT(Non-Fungible-Token),即非同质化通证,是一种基于区块链技术的数字资产,作为一种新兴技术,正在不断拓展其应用场景。NFT数字藏品交易,就是一种由区块链技术与智能合约技术共同衍生出的新型商业模式。NFT具有不可篡改性、唯一性、可溯源性等特征,可以与数字作品绑定,实现数字作品的溯源、防伪与确权,助力提高数字作品的交易效率、降低交易成本、保证交易安全。然而,由于技术上目前无法有效监管未经授权擅自将他人作品铸造为非同质化代币并进行出售的行为,NFT交易平台和NFT数字作品购买者承担了较大的交易风险。著作权法律制度如何有效规制该行为,不但涉及对著作权传统理论的解构,更关系到NFT数字作品产业的未来发展。
奇某公司诉某科技公司侵害作品信息网络传播权纠纷案,作为“国内NFT侵权第一案”,率先对NFT的法律属性和相应交易模式下的行为性质作出了界定。法院认为,NFT的法律性质是网络虚拟财产,可被视为一种财产性权益,NFT数字作品交易行为的法律后果是财产性利益在民事主体之间的转移,而非物权的转移。因此,NFT数字作品交易行为不属于著作权法意义上的发行行为,而应受信息网络传播权规制。随后,北京互联网法院在范某诉某网络科技有限公司著作权纠纷案中作出了相同裁判,被告软件将美术作品复制件上传至服务器,使涉案美术作品处于公开状态,构成对原告信息网络传播权的侵害。不过,该案判决并未对NFT的法律属性作出界定。
NFT侵权第一案一审判决以来,学者们对NFT的法律性质以及NFT数字作品交易行为的规制路径讨论不断。其中,尤为引人注目的观点认为,NFT的所有权凭证属性使得NFT交易能够实现与“转移作品有形载体所有权”同样的效果,这决定了其交易行为应受发行权规制。这一观点突破了发行权即“有形载体所有权转移”的传统要件,但其合理性仍有待讨论。
从NFT的法律属性来看,可以将NFT类比成访问作品的网络链接,NFT实质上是访问权利凭证。在技术层面,NFT与网络链接有着高度的相似性与同质性,均可实现访问功能。在法律层面,大部分NFT持有者仅获得了对特定数字作品复制件的访问许可,而非对作品复制件排他性的支配权,故NFT应当被视为访问权利凭证。基于此,销售NFT的过程实质上就是提供作品复制件网络链接的过程,NFT数字作品交易实现了作品面向公众的交互式传播,落入了信息网络传播权的权能范围。如果销售者出售未经著作权人许可铸造的NFT数字作品,其作为普通链接的提供者,应承担间接侵权责任。此外,由于普通链接的提供者并没有直接提供作品,若其出售的NFT数字作品是著作权人或其合法授权人铸造的,那么无论是在该NFT数字作品的首次交易还是后续流转中,都不存在直接侵权行为,间接侵权行为的说法更是无稽之谈。可见,信息网络传播权规制路径同样可以实现“发行权用尽”制度的核心目的——保障交易自由。
总的来说,NFT是一种具有创新性的技术,为数字资产的权利表征及其交易过程提供了新的解决方案,但也需要在技术应用和法律适用方面不断完善。
许惠春:近年来,数字藏品作为一种兼具文化价值和收藏价值的新型数字出版物,逐渐成为风靡全球的潮流风向标,同时也给数字化作品的知识产权保护带来了全新挑战。以NFT数字藏品为例,随着其背后全新的技术逻辑以及独特的交易方式对传统著作权理论带来的冲击,引发了理论和实务界对NFT数字藏品交易的著作权定性问题的热烈讨论,我们在司法实践中也对此进行了积极探索。比如,吴汉东教授提到的NFT侵权第一案就是杭州法院2022年审结的。
NFT数字藏品是使用区块链技术进行唯一标识的特定数字化作品,其交易流程通常涉及铸造、上架发布、出售转让三个阶段,各阶段所涉及的行为具有不同的著作权法意义,需要予以区分看待。
其一,铸造阶段。NFT数字藏品的“铸造”系网络用户将存储在终端设备中的数字化作品复制到NFT数字作品交易平台的中心化服务器上,从而形成一个新的作品复制件。这种行为虽与传统的印刷、复印、拓印等方式不同,但其以数字化方式将作品制作成一份的形式,可以形成稳定的存储作品信息,亦形成了一个可以相对稳定、持久固定作品信息的有形物质载体,同时也具备作为信息源向其他载体进行信息传播的能力,应当认为仍属于受复制权规制的复制行为。当然,从NFT数字藏品的整体交易流程来看,铸造阶段的复制行为只是网络传播的一个必备步骤,其最终目的在于以互联网方式向社会公众提供作品,故该行为本身给权利人造成的损害已经被信息网络传播给权利人造成的损害后果所吸收,司法一般不再予以单独评价。
其二,上架发布阶段。该阶段铸造者(发布者)通过将NFT数字藏品在交易平台上架发布的形式,使公众可以在选定的时间和地点获得该作品。此种获得,既可以是不以受让为条件的在线浏览,也可以是在线受让之后的下载、浏览等方式。该种提供上传作品的公开浏览,属于受信息网络传播权规制的交互式传播行为。
其三,出售转让阶段。该阶段采用智能合约技术,交易双方完成NFT数字藏品对价的支付和收取,区块链中与之对应的NFT作相应的变更记录,买方即刻成为平台上公开显示的该藏品的所有者。这一阶段的行为定性一直是理论和实务界争议最大的问题。一方面,从购买者获得和感知作品的效果而言,此过程更接近于信息网络传播;另一方面,交易流程更接近于向公众提供一个作品的复制件的行为,属于发行权的规制范畴。因此,产生了发行权、信息网络传播权之争以及后续是否可适用权利用尽规则的讨论。我们倾向于认为,NFT数字作品属于网络虚拟财产,此阶段的交易过程是一种针对数字商品的出售行为,不涉及复制行为,也不涉及信息网络传播行为。同时,该行为也未进入现行法律下发行权的涵摄范围,其仅是在不同的民事主体之间移转财产性权益,并未实现发行权所要求的作品原件和复制件上物权移转的效果,故难以适用发行权予以规制,自然也就缺乏适用权利用尽规则的前提和基础。至于未来能否将“发行权用尽”原则扩张解释至数字网络空间,仍需立法智慧的权衡考量,在综合考虑数字作品上传的合法性审查、稳定可靠的交易规则、所有权的形式要件等因素的基础上确立认定标准。
王晓明:NFT数字藏品作为非同质化代币,其表现形式为区块链上的数字代码,交易内容是基于区块链技术生成的唯一性数字凭证,并通过智能合约记录权利归属,其价值主要体现在区块链记录的排他性控制权,可见其具有虚拟性、财产性、可支配性等特征。NFT数字藏品的法律属性相较于传统物权和债权有一定区别:一方面,NFT数字藏品有别于传统物权涵摄的有体物等权利客体,难以涵盖铸造NFT数字藏品的底层资产相关知识产权权益;另一方面,NFT数字藏品交易交付又有别于一般债权的形成,虽加入智能合约,但受限于债权相对性,若将NFT数字藏品定义为债权会在相当程度上阻碍其交易流通。NFT数字藏品更符合网络虚拟财产的特征,是一种新型的财产性权益。《民法典》第127条明确了虚拟财产受法律保护,但该条引致性规定并未明确虚拟财产的法律属性和保护方式。司法实践中,对于NFT数字藏品可结合知识产权部门法,通过细化NFT数字藏品各阶段来界定相关行为的法律性质。
许惠春副院长将NFT数字藏品的交易流程分为铸造、上架发布、出售转让三个阶段,有助于厘清各阶段行为的特征,因此分阶段进行讨论很有必要。铸造和上架发布阶段的法律属性的意见比较统一:NFT数字藏品以数字化方式铸造,形成新的复制件,受著作权法复制权规制;铸造者或其他发布者将形成的NFT数字藏品上架发布,供公众在线浏览和获取,该阶段的行为符合交互式传播行为的特点,属于信息网络传播权的控制范围。此外,该阶段还可能触发作品的发表权和展览权。
对于出售阶段的法律属性,理论界和实务界尚存争议。NFT数字藏品无论是首次出售还是后续转售,交易的都是数字凭证,并不涉及对作品的再次复制、交互式传播,因此不属于复制权、信息网络传播权控制范围。该交易行为在行为外观上与作品的有体物复制件的交易类似,若效仿有体物复制件的交易,将NFT数字藏品的首次出售定性为发行,后续转售适用“发行权用尽”规则,似乎是合理的,且还能避免著作权人无限制地向后续购买者主张权利、影响数字藏品有序流通。但是,我国《著作权法》明确规定发行权是“以出售或者赠与方式向公众提供作品的原件或者复制件的权利”,如前所述,NFT数字藏品向公众提供的既不是有体物,也不是复制件,仅是可供访问的数字凭证,故不符合发行权的前述定义。倘若为了囊括NFT数字藏品交易而对发行行为作扩张性解释,会导致NFT数字藏品交易与其他数字作品交易的定性(信息网络传播行为)及规则适用的不统一,引发其他问题。因此,在现行著作权法下,不宜将首次出售定性为发行行为以及在后续转售中适用“发行权用尽”规则。
NFT数字藏品作为一种新型藏品,有交易就有市场价值。《民法典》明确虚拟财产受法律保护,为维护交易安全、稳定行为预期,在司法保护中确有必要探寻优化救济路径。NFT数字藏品虽不同于传统物权,但转售阶段可探索性参照“善意取得”制度,保障善意购买者的合法权益,有利于后续交易中转售各参与主体的交易安全和稳定性。同时,由于NFT数字藏品的底层资产存在知识产权相关权利,后续交易中参照物权制度中的“善意取得”,有利于消除购买者关于著作权侵权风险的顾虑。
目前已经发生的涉NFT数字藏品知识产权纠纷均在著作权法的控制范围,但我们也可以合理预见,随着数字技术日新月异的发展和更广泛的应用,在新型数字作品领域亦有可能出现商标侵权、不正当竞争乃至专利侵权纠纷,给知识产权司法审判和相关法律制度的完善带来新的挑战。对于NFT数字藏品等新型数字作品,司法实践需在现有法律框架下不断进行有益探索,促进数字作品在交易市场有序流通,助力相关产业的未来发展。
张吉豫:NFT是区块链技术的一个应用场景,主要是存储在区块链中的带有时间戳的数据,即指向特定数字内容的标识符。在著作权视域下,其往往是保存了某个数字作品的哈希值,也可以包括该数字作品的存储空间地址。NFT可以应用于体育、游戏、艺术收藏品、数字音乐、社交娱乐等领域,包括NFT数字藏品、NFT游戏资产与NFT虚拟现实资产等不同类型。我国对基于NFT的数字藏品交易的标的,即NFT所指向的数字藏品的相关权益,通常是通过“平台规则”“平台服务协议”或“产品说明”等合同条款来确定的。消费者购买NFT数字藏品后,往往可以访问承载了作品的数据,进行学习、欣赏和收藏等,但也不一定获得了更进一步的复制、演绎、向公众传播等方面的著作权许可,也未必可以转售。消费者需要仔细阅读具体条款,来确定自己通过NFT交易究竟可以获得何种权益。此外,消费者也需要关注发行数量。很多作品不只发行了一件NFT数字藏品,此种情况下消费者不可能通过NFT交易就获得著作权转让或排他性许可。
一些NFT平台的合同条款语焉不详,使得消费者对究竟获得了何种权益并不清晰。一些海外第三方NFT交易平台支持网络用户发行NFT,并支持发行用户自己描述购买NFT所能够获得的权益。但发行用户本身的描述往往并不是严谨的法律用语,也为合同解释带来了模糊性。加密猫(CryptoKitties)等NFT发行方编写了NFT许可证并欢迎更多发行方使用该许可证。在加密猫的NFT许可证2.0中,授予NFT购买者对于非商业性使用的关于复制、展示等的许可,以及在每年相关总收入不超过10万美元的情况下的商业性使用、复制、展示等。这些许可都是非排他性的、不可转让的许可。在发布许可证的同时,发行方还编写了对于合同理解的问答,来帮助普通消费者理解其获得的权益。随着技术和商业模式的发展,NFT数字藏品市场可能迎来新的发展契机,而市场交易规范有序的重要基础即在于,应当通过明确的合同条款约定具体权益,并通过宣传、提示、解释等多元方式,让社会公众更充分地理解NFT数字藏品交易的实质。
02 李剑:网络服务提供者的过滤义务是网络安全和内容管理的重要组成部分,涉及法律、技术和伦理等各方面。在知识产权领域,网络服务提供者的过滤业务已从被动“通知—删除”转向预防治理。请问网络服务提供者在何种情况下应负有采取措施过滤侵权内容的注意义务?
吴汉东:这一问题的本质是,算法过滤技术的发展,是否使得网络服务提供者具有了更高的注意义务。由此,我们需要分析传统的网络服务提供者具有何种注意义务,以及其注意义务衡量的标准。在传统网络著作权侵权中,如果网络服务提供者直接提供内容,其当然负有不上传侵权内容的义务。但如果网络服务提供者并未提供内容而仅处于中立地位,则不负有主动审查内容的义务,仅在收到侵权通知或者侵权内容像“红旗”一样明显时,才具有采取必要措施移除侵权内容的义务。这是因为,如果网络服务提供者未尽到发现侵权内容的注意义务,或者在发现侵权内容后未尽到采取合理措施控制侵权内容的义务,便具有了可归责的事由。因此,关于网络服务提供者是否负有过滤侵权内容的注意义务,其问题的展开包含三个维度。
一是技术中立价值取向的判定。“处于中立地位”是网络服务提供者不具有主动审查义务的根据。当网络服务提供者突破技术中立地位,批量向用户直接发布内容时,其负有采取包括人工审查和算法过滤在内的所有措施以防止侵权内容传播的义务。2019年欧盟颁布的《数字化单一市场版权指令》第17条,在事实上强制平台承担内容过滤义务,其出发点即是假定算法推荐行为已构成直接传播。关于短视频等算法分发平台是否已突破技术中立的地位,目前尚存争议。但需要强调的是,算法过滤等新技术措施的运用,并不会使本未直接发布内容的网络服务提供者转变为内容提供者。有一种观点认为,有些主体虽然没有物理上实施侵害著作权的行为,但若在商业实践中深度参与了侵权行为,则具有被认定为侵权行为主体的必要性。我认为,利用算法技术深度参与信息传播过程,并不能使并未提供侵权内容的网络服务提供者异化为直接侵权人,只是可能涉及对处于中立地位的网络服务提供者具备何种侵权信息管理能力的判断。
二是侵权内容识别能力的判定。“收到侵权通知或者侵权像红旗一样明显”,是对网络服务提供者侵权内容识别能力的衡量。当处于中立地位的网络服务提供者具有更高的侵权内容识别能力时,其应当负有更高的注意义务。但过滤技术的应用并不会使网络服务提供者以更低的成本发现版权侵权内容,反而可能增加误删合法内容的概率。这区别于安全内容审查——对于涉及暴力、血腥等违法信息,算法自动识别技术可以较为精确地清除和过滤;而对于可能侵犯著作权的内容,在人工审查的情况下,尚且准确率有限,更难以依靠算法自动辨别用户上传内容的侵权属性。以YouTube的Content ID过滤机制为例,已有实证表明,其并不能准确识别合法使用还是侵权使用的行为。在现有技术水平下,对网络服务提供者加以过重的过滤义务,可能迫使其为实现合规而采取激进的过滤手段,从而阻碍表达的自由。因此,在算法过滤技术并未显著提升侵权识别能力时,网络服务提供者依然仅在获得用户侵权通知或者侵权内容像“红旗”一样明显时,才可能负有采取措施过滤侵权内容的注意义务。
三是侵权内容控制能力的判定。“采取必要措施”是对网络服务提供者侵权内容管理能力的考察。在发现侵权内容后,网络服务提供者是否负有过滤侵权内容的注意义务,取决于算法过滤技术是否使网络服务提供者得以较为有效地控制侵权内容,而不过分增加其运营成本。与传统的删除措施相比,算法过滤技术使得网络服务提供者得以较低的成本持续地阻止后续相同侵权行为的发生,很大程度上降低了网络服务提供者应对侵权通知的成本。当然,鉴于目前算法过滤技术尚处于发展阶段,并为了防止出现“算法垄断”的壁垒,对于接到通知后或者针对明显侵权内容采取算法过滤的效果,应当采取相对宽松的标准,不宜要求网络服务提供者实现对未来侵权内容的绝对过滤,而应当通过加强算法披露义务,以考察网络服务提供者是否已尽到合理的算法过滤义务。
许惠春:与“通知—删除”规则强调的事后责任不同,网络服务提供者过滤义务更侧重于对其事先审查、监控侵权内容的要求。原则上,考虑到技术中立性和网络技术发展的需求,网络服务提供者对网络上的海量信息是否侵害信息网络传播权并没有主动监控的义务,若对其提出过高的注意义务,既不现实也不利于产业发展。正因如此,现行法律并未规定网络服务提供者对网络用户的侵权行为负有主动审查义务,《最高人民法院关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》第8条第2款更是明确指出:“网络服务提供者未对网络用户侵害信息网络传播权的行为主动进行审查的,人民法院不应据此认定其具有过错。”然而,随着产业蓬勃发展,互联网技术更新迭代,包括算法推荐在内的新型网络服务引流效果更好、经济获益更多、技术能力更强,侵权内容识别、过滤技术的可行性也逐步提高,不管从权责一致角度,还是从侵权防范成本角度,网络服务提供者应承担的义务和责任都应适度提高,而不是局限于遵守“通知—删除”规则。
当然,对网络服务提供者课以过滤义务的要求本身是一项平衡的艺术,如过于宽松,平台内侵权视频广泛存在,网络服务提供者“事不关己”坐收渔翁之利,权利人疲于发送侵权通知,不利于对权利人权益的充分维护;如过于严格,可能不合理地加重网络服务提供者的运营成本,不能实现社会整体收益的最大化。理想的状态是,适度增加网络服务提供者的注意义务后可实现“平台以合理成本调整其算法或自动处理的流程,并降低侵权风险”的目标。具体到司法实践中,网络服务提供者负有何种程度的过滤义务,主要体现为裁判者对网络服务提供者“应知”过错的判断。总体来说,网络服务提供者是否“应知”,可从平台的管理信息能力,是否采取合理的预防、治理及反馈措施,算法推荐中平台的干预程度,被推荐内容状况,被侵权内容状况,平台获利的方式和程度等多方面综合考量。
对于使用算法推荐技术的平台而言,使用该技术的事实并不意味着平台必然知道侵权信息,不同的算法推荐方式可能影响裁判者对于平台是否“应知”的认定。譬如,在杭州互联网法院审理的涉《美味奇缘》侵害信息网络传播权案中,法院认为,算法推荐主要分为初始结构化类和内容结构化类。前者将信息内容根据场景进行区分,使得信息内容能够被快速检索、便捷定位、符合需求,是对庞大信息内容进行结构化区分的通常模式。在网络服务提供者履行了“通知—删除”义务后,不应再苛责其就侵权行为承担帮助侵权责任。后者是在对基本信息内容进行区分后根据一定的算法模型以整合、前置或其他特定的方式对信息内容予以呈现,体现了算法设计者对于内容信息的传递方式和呈现结果的逻辑架设。此时,应当结合具体的内容呈现,考虑是否包含了算法设计者或平台的算法推荐行为演绎。当算法推荐的内容呈现效果反映了平台主动而为、基于平台特定功能而进行的推荐、并不单纯依赖用户习惯时,应当认为平台运用的算法推荐对于内容呈现起到了实质作用,从而认定平台构成“应知”。
在涉及算法推荐的案件中,判断网络服务提供者的“应知”与否,还可以根据其获知侵权内容信息的不同阶段进行判断:一是在算法推荐之前,平台有无进行实质性人工内容审核;二是在算法推荐过程中,有无插入针对内容要素或内容整体合规性的审核;三是在实现算法推荐的系统演算过程中是否包括实质性的内容语义识别;四是在推荐完成后有无根据用户举报反馈提供复核的机制;五是侵权内容是否已经如“红旗”一般显而易见。
王晓明:近年来,新的互联网经营模式使得作品的传播源头由集中发布转变为分散发布,针对具体侵权事实采取“定向删除”的事后规制模式已经不能有效制止侵权作品在互联网蔓延,探索更为有力的侵权规制手段成为知识产权领域的新命题。算法技术的发展,促使对尚未进入互联网渠道的作品进行普遍“拦截、过滤”的事先规制模式具有现实可能性。总结已有的司法案例,目前关于网络服务提供者过滤义务问题的争议主要集中在以下三方面。
其一,过滤机制启动的一般性条件。单纯的网络服务提供者,原则上不负有对用户上传作品事先进行主动审查的义务。因此,著作权人要求网络服务提供者采取制止侵权的措施,应该是网络服务提供者已经明知或者应知争议作品在其经营的网络空间、网络平台被侵害。过滤措施作为网络服务提供者所采取的制止侵权措施,亦概莫能外。故其可称为“过滤机制启动的一般性条件”。“红旗标准”“通知”则是用于推定网络服务提供者已经明知或者应知的通常情形。对于该一般性条件,当事人争议集中在:一是诉争作品的知名度、播放量是否足以达到“红旗标准”的认定程度;二是权利人在作品未上映甚至未制作之前广泛发布的“预警函”,能否视为侵权警告的“通知”,进而推定网络服务提供者已经明知、应知;三是算法推荐应否有别于人工推荐,从而不作为认定网络服务提供者已经明知、应知的考量因素。对于网络服务提供者是否已经“明知、应知”,应结合具体情况进行个案判断,无法一概而论。但可以确定的是,该明知、应知的对象,不再是传统“红旗标准”“通知—删除”规则下的具体侵权事实,而是“过滤”机制下的概括性侵权事实。例如,百度网盘案中所认定的其他用户所实施的与已经被证明的侵权行为相同的侵权行为,以及所有用户将来可能实施的与已经被证明的侵权行为相同的行为,均可归于尚未被证实但可能已经存在或者尚未发生但将来可能发生的“概括性侵权事实”。
其二,过滤机制启动的特定性条件。过滤机制一旦启动,网络服务提供者将对符合预设条件的所有拟上传作品无差别地“通杀”,其对用户利益以及网络服务提供者自身利益的影响远超“通知—删除”规则下的定向处理。如过滤不当,不仅可能引发新的知识产权纠纷,还可能涉嫌限制用户的言论自由权利。鉴于此,过滤机制的启动条件必须较“通知—删除”规则更为严格。进一步而言,启动过滤机制,除应具备前述一般性条件外,还应具备特定性条件。对于该特定性条件,目前尚无立法或者司法解释作出明确规定。司法实践普遍认为,在侵权行为频发、多发、重复、反复,“通知—删除”沦为“打地鼠游戏”,无法真正救济著作权人合法权利时才可以考虑启动过滤机制。但是,即便旗帜鲜明支持网络服务提供者负有过滤义务的欧洲,在制定《数字单一市场版权指令》时亦是几经波折、多次易稿,在最终通过的指令中还采取了多种措施,以平衡该制度可能造成的利益失衡。在国内的司法实践中,采取过滤措施是否超出必要、合理限度,是该类案件的被告最为常见的抗辩理由。不少学者提出,此时应引入“比例原则”进行评判。但“比例原则”本身过于抽象,具体到案件中,何种情形是符合该原则的、何种情形又是违背该原则的,仍需经过严密的法律推理与复杂的法律论证。该问题的最终解决方案,仍有待知识产权实务界与理论界进一步探索。
其三,过滤机制的精细化设计。过滤机制的功效发挥,与其设计是否足够精细化息息相关。目前司法实践的重心均放在网络服务提供者是否应采取过滤、拦截措施上,而极少关注网络服务提供者应采取的过滤机制具体如何设计。事实上,即便应承担过滤义务的网络服务提供者,如其过滤机制设计不合理,亦可能导致义务的履行结果偏离审判预期。网络服务提供者的过滤机制滥用甚至过滤权力寻租现象,在欧美的互联网行业已经出现。随着我国判令网络服务提供者承担过滤义务的案例逐步增长,对过滤机制精细化设计问题开展研究也已迫在眉睫。该问题属于开放性问题,答案可以有多方面。就目前而言,精细化的过滤机制可以考虑从以下方面着手:第一,尊重科学规律与技术原理,充分考虑各类内容识别方式的优劣,针对不同类型的权利作品,允许采用不同类型的内容识别方式进行拦截、过滤。第二,为避免“滥杀无辜”,应谨慎预设拟过滤的内容范围。在设定过滤范围时,可以考虑正向纳入条件与反向排除条件并行,尽量避免将不构成侵权的内容过滤、拦截在互联网之外;也可以依据拟拦截、过滤作品的类型设置不同的过滤条件。第三,为救济被错误拦截、过滤的用户,网络服务提供者应设置相应的过滤标准、过滤内容告知程序以及对错误过滤的申诉、更正程序,让被错误拦截、过滤的用户知道其拟传播的内容未能成功上传到互联网的原因并可以通过快捷方式救济自己的合法权利。
张吉豫:以“通知—删除”为核心的“避风港规则”,推动了著作权人和网络服务提供者在防控侵犯著作权方面的积极合作,但对于网络服务提供者知道或应知侵权的情况,并不能援引“避风港规则”来进行免责。对于是否构成应知,需要综合相关因素进行判断。关于审理侵害信息网络传播权民事纠纷案件的司法解释确立的相关规则在今天仍然可以很好地适用。《最高人民法院关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》首先在第8条中否定了网络服务提供者具有一般意义上的审查义务。同时,在第9条中规定,网络服务提供者是否对侵权行为构成应知,应综合考虑网络服务情况、作品情况、积极行为、消极行为和当前技术水平等多维因素,如网络服务提供者提供服务的性质、方式及其引发侵权的可能性大小,应当具备的管理信息的能力,以及网络服务提供者是否积极采取了预防侵权的合理措施等。
综合各因素对于是否构成应知进行判断,即判断网络服务提供者的注意义务,实际上是在网络服务提供者和权利人之间对侵权行为的风险预防和制止责任进行划分。汉德公式等基础模型关注预防措施的成本与所产生的收益的比较,常常被用于分析如何设置一个最优等级的、具备经济合理性(B<pl)的注意义务。
对于合理的过滤措施的要求,需要进行个案分析。举例而言,首先,不同作品的“收益—时间”曲线不同,一些作品的收益具有一定的时间敏感性。我国版权局在发布的重点作品版权保护预警名单中,列举的主要是院线电影、处于最初播放周期的电视剧、热门体育赛事等,这些作品恰恰都是收益具有一定时间敏感性的作品。对于此类作品,由于价值相对较高、被侵权可能性较大,如果在其热映期间网络上有替代性的盗版复制件存在,往往对著作权人收益造成较大损害,用户量巨大的大型平台上侵权行为引起的损失通常相较小平台而言更为严重。
其次,在预防侵权的措施方面,对于完整或者长时间片段的复制、连续性视频切片等情况,可能形成市场替代,对权利人收益影响明显,但随着过滤技术的发展,对于有限数量作品的直接复制的检测准确率较高,成本也相对可控。因此,对于用户上传了正上映的院线电影的大量完整片段的侵权行为,可以判定网络服务提供者具有更高的注意义务,应当结合著作权人的通知,根据当前技术水平采取一定的过滤措施。但对于混剪类二创短视频,一方面,有更大可能性构成合理使用,识别侵权的难度显著增大,如果出现了本来是合理使用但是错误识别为侵权(假阳性)进行了过滤的情况,可能抑制社会文化创作发展,也有损于公共利益;另一方面,此类短视频通常不会构成市场替代,反而有可能增加观众兴趣,带来更多的收益,因此对于著作权人的影响有限,甚至可能对其收益有积极影响。在这种情况下,可以看到侵权损害小,而过滤措施成本更高,因此不宜要求对此类混剪内容实施过滤。
03李剑:生成式人工智能与著作权的关系是当前法律与技术交叉领域的前沿议题,涉及创作主体认定权利归属、侵权责任等多个复杂问题。如果用户使用生成式人工智能生成了与他人作品构成实质性相似的内容,但并未向外传播,用户是否侵犯著作权?
吴汉东:用户是否侵犯著作权,依其行为是否落入著作权权能控制范围,以及是否符合著作权法上的侵权免责事由而定。必须强调的是,如果用户仅仅发出生成指令,尚不满足著作权侵权的构成要件;但即便用户并未对外传播生成内容,也并不意味着著作权侵权的可能性被完全排除。对此问题不能一概而论,需针对用户使用生成式人工智能的具体行为进行类型化分析。
第一种情形,用户发起生成指令后,只在线浏览与他人作品实质性相似的生成内容,未将该内容下载至本地计算机中形成永久性复制件。这类似于用户使用网络搜索引擎搜索盗版电影后在线观看,用户行为并未触及复制权的控制范围,不侵犯著作权。
第二种情形,用户在使用生成式人工智能的过程中,对他人作品进行私人复制。私人复制是否构成合理使用颇具争议,呈现出明显的国别立场差异,亦需分情况讨论。最常见的复制行为是用户将生成内容下载至本地计算机。此外还包括:用户将生成式人工智能当作类似于Photoshop软件的绘画工具,通过输入多回合提示词指令的方式,事无巨细地完成与他人作品实质性相似的整幅构图;或者,用户先向大模型投喂特定作者的作品,再让经过用户训练和调整的大模型生成与该作者作品实质性相似的内容;以及,用户将需要翻译的文献上传至AIGC (Artificial Intelligence Generated Content, 指利用人工智能技术来生成内容, 如 AI 绘画、 AI 写作)平台的网络服务器,并要求生成式人工智能生成翻译结果等。美国法院在Napster案中认为,出于个人欣赏目的下载音乐不能通过“四要素法”,因此不构成合理使用。我国司法则倾向于肯定此类行为属于《著作权法》第24条第1款第1项规定的个人学习、研究、欣赏型合理使用。在我国第二起AIGC平台版权侵权案件中,杭州互联网法院就认为,用户可以出于学习、研究、欣赏的目的,对自己存储在平台中的相关生成图片进行不对外传播的合理使用。说到底,生成式人工智能场合下的私人复制合法性判定,需回归“三步检验法”。部分观点建议,对恶意诱导生成侵权内容的用户施加直接侵权责任。对此,我们必须看到:首先,《著作权法》第24条只对合理使用作品的目的作出框定,并未当然将主观状态纳入考量范围。其次,虽然通过大模型获取侵权复制件的成本较低,大量用户发出大量生成指令可能产生集聚效应,但生成结果并未影响原作品的正常使用,也尚难以对原作品产生市场替代,其后果与利用P2P技术下载侵权作品行为造成的严重后果并不相当。最后,用户的主观状态和复制行为很难从公开渠道被发现,故严格提高合理使用成立标准的实际作用有限。平台依据用户协议对恶意用户采取限制访问、封禁账号等措施,才是更为妥适的规制方案。
第三种情形,用户明知AIGC平台将自动在平台内传播生成内容,却仍发出生成与他人作品实质性相似内容的指令。此时,可以依据《民法典》第1169条,要求用户与生成式人工智能提供者承担连带侵权责任。
总的来说,目前研究主要集中在生成式人工智能服务提供者的版权侵权责任方面,而忽视了规范用户行为对于规制版权侵权的积极意义。建议注意两个问题:一是包括以用户协议为核心的合同法方面的治理;二是以类型化思路处置用户行为的侵权法方面的治理。合理设定生成式人工智能服务提供者的版权注意义务,涉及提供者、部署者与用户间的互动关系,同样离不开对用户责任的清晰定位。
许惠春:本问题所涉及的情形在实践中发生侵权纠纷的可能性较小,主要原因在于程序上对被诉侵权事实的取证、举证通常难以完成。用户使用生成式人工智能生成了与他人作品实质性相似的内容但并未传播的情况下,权利人难以接触、获得被诉侵权内容,无法实现取证。人工智能服务提供者亦不可能对用户的生成行为提起诉讼。
就该行为本身的合法性评价而言,涉及对著作权合理使用边界的认定。总体而言,司法应合理平衡创作者、传播者和社会公众之间的利益,即将私人使用行为界定为合理使用,将大部分私人复制行为排除在作品复制权、改编权等规制范畴之外,避免阻碍信息流动和知识积累。对于人工智能生成物的侵权判定,应采用输入和训练阶段从宽、输出和使用阶段从严的标准,以保证技术的发展和权利保护的双向平衡。具体而言,题述行为实践中可能存在两种不同的形态,需要分别予以分析。
一是用户通过发布指令的形式生成与权利作品实质性相似的内容。通过向人工智能发布指令从而生成成果,其本质与关键词搜索类似,利用人工智能进行深度思考,也不必在海量的资料文献中反复“寻找答案”,而是基于AI的深度分析和思考能力直接“给出答案”,并进行联网搜索、答案反馈、生成结果动态调整等,所生成的内容本身可能脱离用户预期的结果。在此过程中,用户更多的是以人工智能为工具,减少基础性工作,从而有利于实现更多创作性的成果。应当认为,这本身就属于技术发展与效率提升的应然结果,不宜对此种行为作出否定性评价,否则会违背技术创新的本义,无益于社会公共利益。
二是用户以他人已发表的内容为语料,针对人工智能发布指令要求进行再创作或改写,从而生成与他人作品构成实质性相似的内容。该行为涉及是否侵害复制权、改编权的问题。复制权是著作财产权的核心内容,但理论和实践普遍认为,真正具有法律可责性的对象主要是公开传播行为,而非无传播属性的私人复制,无论是互联网中的复制还是传统的拓印、复写,都应当在一定程度上被容忍,以促进信息流动和知识积累。这种事实上而非法定的合理使用,维持了信息流动与著作权之间的平衡。在生成式人工智能这一语境下,将他人的作品进行改写、训练生成新的内容,确有洗稿之嫌,但如果并未发生实际的传播、使用,与传统的对他人作品进行私人化的参考、学习、研究并无本质区别。对于此类行为,如果没有发生后续的公开传播,未影响权利作品的正常使用,亦未损害著作权人之利益,司法无需对其给予否定性评价。
王晓明:随着生成式人工智能(如ChatGPT、Midjourney、DeepSeek等)的普及,用户通过输入提示词即可生成文本、图像甚至视频内容。若生成内容与他人受著作权保护的作品构成“实质性相似”,但未对外公开传播,则不存在侵犯著作权中传播权的可能,此时,需要讨论是否构成侵犯著作权中复制权、改编权的问题。根据《著作权法》的规定,“复制”是指以印刷、复印、录音、录像、翻拍、数字化等方式将作品制作成一份或多份的行为。其核心在于将作品的表达形式进行固定和再现,使作品能够被人们感知和利用。在传统意义上,复制通常要求对作品进行较为直接和明显的再现。然而,随着技术的发展,复制的形式和手段也在不断演变。数字时代,复制可能表现为对作品进行数字化处理、存储和传输等行为。AIGC之所以与既有作品相同或相似,可能源于以下两个阶段的“学习”或“模仿”。
一是人工智能模型训练阶段“学习”了受版权保护的数据(包括作品)。人工智能模型在训练过程中,会使用大量的数据进行训练,这些数据可能包括受版权保护的作品。人工智能模型训练阶段使用了受版权保护的作品,是用户能够通过输入指令生成与他人作品实质相似内容的重要前提,因为模型得自己先“学习”这些作品。模型通过对这些数据的学习,提取其中的特征、模式和规律,从而形成自己的知识和能力。一般来说,这种“学习”过程并非著作权法意义上的复制,而是一种对数据的分析、处理和转化。模型并没有直接复制作品的具体表达,而是将作品中的某些元素和特征融入自己的参数和结构中,但在学习时将作品下载存储到服务器中的除外。例如,在训练一个绘画生成模型时,会输入大量的绘画作品。模型学习这些作品的色彩搭配、线条运用、构图方式等,但并不会逐像素地复制某一幅具体的作品。也就是说,模型训练使用数据属于“非表达性使用”,仅提取作品中的规律性特征(如文字组合概率、图像色彩分布),未利用独创性表达。从这个角度看,模型训练阶段的“学习”并不构成著作权法意义上的“复制”。即使认为AI训练过程中对作品的数字化解析属于“临时复制”,但目前我国立法和司法中通常也将“临时复制”排除出复制权控制范围。当然,以上主要讨论的是人工智能模型开发者是否侵权的问题,不过也有助于我们更全面考虑用户是否侵权(或与模型开发者共同侵权)的问题。
二是人工智能模型输出内容阶段“模仿”他人作品。当用户使用人工智能模型生成内容时,模型会根据输入的提示词和自身的知识结构,生成与用户需求相匹配的内容。根据生成式人工智能的技术原理,模型通过训练数据学习创作规律,若训练数据中包含原作品,如文本类模型中输出与原作品相同的语句(常见于短文本生成场景),或者绘画类模型通过学习特定艺术家风格生成近似作品(如模仿梵高风格生成图片)。在这个过程中,生成的内容可能与某些原作品构成实质性相似。这种相似性可能是由于模型在训练时接触过类似作品,从而在根据提示词生成内容时受到了这些作品的影响。然而,这种行为与传统意义上的复制显然有所区别,更多地体现为一种创造性的转化和再利用,而非对原作品的直接再现。生成的内容虽然与原作品相似,但其是模型基于算法等多种因素综合考虑后经过计算的输出结果。事实上,起码在目前阶段,用户输入的提示词与AIGC之间并非总是一对一的映射关系,不是用户直接表达或创作出相关内容。因此,不宜简单地将这种行为认定为著作权法意义上的“复制”或“改编”。退一步而言,即使AIGC与他人作品实质性相似或“像素级”相似,只要没有对外传播或商业化使用,而是用于个人欣赏、研究,对作品权利人的利益几乎不产生负面影响,就不宜轻易认定为侵权。
张吉豫:使用人工智能来生成内容的用户是否侵犯著作权,这一问题需要结合具体场景和行为,对是否可能存在侵权以及是否符合合理使用等免责条件进行讨论。一般而言,如果用户将生成的内容向外传播,其行为可能侵害复制权、信息网络传播权等权利,但本问题聚焦于生成阶段本身。用户使用生成式人工智能的方式多种多样,有时用户只是进行一般性的知识性提问,有时用户输入提示词进行“创作”,有时用户明确要求生成式人工智能输出某作品(甚至采用诱导攻击、聊天机器人越狱攻击等较难监测的复杂诱导方式),有时用户自己输入作品,让生成式人工智能进行翻译、摘要、优化等。我认为,可以根据用户对输出与他人版权作品构成实质性相似的合理预期和控制力情况,以及用户对于输出该内容是否有合法理据等要素综合判断。
首先,对于用户自己输入某一项或多项作品,让生成式人工智能进行翻译、摘要、优化等情况,用户行为与对原作品的演绎行为几乎无异。但如果用户是对于其合法获得的作品进行翻译、摘要、优化等行为,且并不对外传播,则可归类于著作权法中规定的为个人学习、研究或者欣赏而使用,且通常可以满足合理使用“三步检验法”,在此情况下,应当认定为属于合理使用,不侵犯著作权。当前很多学生和研究者,会借助生成式人工智能帮助自己生成文献的翻译和摘要,法律也应当对此类能够提高知识获取和利用效率,且不会影响作品的正常使用,也不会不合理地损害著作权人合法权益的行为予以肯定评价。
其次,对于用户通过诱导、聊天机器人越狱等复杂诱导方式诱导输出他人作品或其演绎作品的情况,如果一般理性人均能合理预期输出与他人作品实质相似的内容,则应当初步认定为落入著作权范围。但如能证明构成合理使用,例如,证明本人拥有该作品的复制件或合法访问方式、诱导行为仅为个人好奇而探索使用等,不会不合理地损害著作权人的合法权益,也可以据以免责。
最后,对于用户一般性的知识性提问,或者输入一般性的创作提示词进行内容生成,且仅自用,则不宜认定为构成复制、演绎、传播等侵权行为。
04李剑:生成式人工智能服务提供者在著作权法上应当如何定位?是内容提供者,还是服务提供者?抑或跳出“内容—服务”二元框架进行认定?
吴汉东:生成式人工智能服务打破了传统的网络分层治理框架,模糊了法律主体的界限。2023年,美国《纽约时报》向微软与OpenAI公司提起诉讼,主张被告作为生成式人工智能服务提供者,应对生成著作权侵权内容的行为承担直接侵权责任,并对帮助用户侵权的行为承担间接侵权责任。无独有偶,2024年我国发生的两起AIGC平台版权侵权案件均是关于生成式人工智能服务提供者生成侵权图片的案件,并引发了不同的司法观点:有的认为生成式人工智能服务提供者应承担直接侵权责任,有的则否定直接侵权成立。两起案件的裁判焦点可以归纳为生成式人工智能服务提供者的法律定位问题:生成式人工智能服务提供者是内容提供者,还是服务提供者?这将直接导致法院适用不同的著作权责任规则。
该问题的复杂之处,在于相较于传统网络服务提供者,生成式人工智能服务提供者具有一些新特点。我国网络服务提供者的著作权规则见诸《信息网络传播权保护条例》和《民法典》,均以“技术中立”为价值取向,以“网络环境”和“用户侵权”为适用要件。但是,人工智能生成服务至少具有以下新发展:兼具内容提供与技术服务的外观,可在离线状态下运行,未必存在用户侵权行为。有观点甚至认为,传统的直接侵权与间接侵权界分的二元框架已然失灵,应将生成式人工智能服务提供者定位为侵权法上的特殊责任主体。
我认为,生成式人工智能服务提供者的法律定性之疑,是伴随技术创新和媒介革新而生的新问题。著作权法主体制度应当对这些新特征予以关注和回应,但目前还无需动摇著作权侵权责任认定的法律根基。事实上,20世纪末“避风港规则”诞生以来,著作权法史上已多次面对新技术平台版权侵权的冲击,并进行了自我调适和更新,其因应路径亦清晰可见:新类型平台的法律定性,取决于其技术服务在侵权中的作用以及对侵权内容的信息管理能力。内容提供者和服务提供者的区分,关键在于平台是否实际提供了侵权作品,以及对侵权内容是否有充分的管控能力。
就生成式人工智能服务提供者而言,其生成服务的技术特点和信息管理能力不能一概而论,需关注其内部分野。如果生成式人工智能服务提供者自行部署生成服务,其具备一定的数据选择(数据训练)和控制生成(内容过滤)的能力,直接向用户提供生成内容,则应当被认定为内容提供者。如果生成式人工智能服务提供者只是调用上游技术提供者的生成式人工智能来部署生成服务,且对流经平台的生成内容无控制能力,仅起到被动传输源于第三方生成式人工智能的生成内容的作用,则应当被认定为服务提供者,此时上游技术提供者才是内容提供者。
许惠春:在涉人工智能著作权侵权纠纷中,界定生成式人工智能服务提供者的主体地位,是确定对其采取何种归责原则、判定其承担何种侵权责任的前提。内容提供者和服务提供者这两类主体身份是理论界和实务界长期以来形成的分类标准,在现行法律法规下,两类主体所需承担的注意义务和侵权责任有所不同:网络服务提供者一般可以通过适用“通知—删除”规则豁免一定的责任,并适用过错责任判定其是否构成帮助侵权行为;内容提供者则可能构成著作权侵权中的直接侵权行为。从行为外观来看,生成式人工智能服务提供者向用户提供AI生成技术,用户利用AI生成技术进行内容创作,并进一步对AI生成内容进行使用、传播。在这个过程中,生成式人工智能服务提供者提供的主要是技术支持,似乎更符合网络服务提供者的角色定位。但AI技术有其自身的特殊性,AI平台根据用户的指令、利用AI技术生成相应的内容,在生成内容的过程中,究竟是AI本身的贡献更大还是用户的贡献更大,在不同场景中不完全相同。有的观点认为,用户的提示词仅是一种“创意”,生成的具体内容实际上仍由AI决定。按照这种逻辑,似乎将生成式人工智能服务提供者界定为内容提供者更为恰当。但是,进一步剖析AI技术的生成原理会发现,AI平台对于生成内容的控制力往往不强。AI生成的内容具有随机性,连续两次输入同样的指令,可能生成截然不同的内容。生成式人工智能服务提供者对于侵权内容缺乏控制力,侵权内容也并非事先完整地存储在AI服务器中。况且,如果没有用户的指令输入,AI本身不会生成侵权内容,生成式人工智能服务提供者不能单独完成侵权内容的提供。因此,从应用场景和技术逻辑本身来看,难以将生成式人工智能服务提供者简单地认定为服务提供者或内容提供者。
这种定位上的纠结在法律法规中也有所体现。《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)第22条第2项规定:“生成式人工智能服务提供者,是指利用生成式人工智能技术提供生成式人工智能服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、个人。”以文义来看,该规定似乎仅将生成式人工智能服务提供者界定为技术服务提供者,但在该办法第9条中又认为生成式人工智能服务提供者应当依法承担网络信息内容生产者责任。复杂的技术背景和模糊的法律定义,给法院审理涉生成式人工智能服务提供者纠纷带来了挑战。从司法实践来看,杭州法院审结的涉生成式人工智能服务提供者侵害信息网络传播权案给我们提供了一种新的思路,即跳出“内容—服务”二元框架,不再采用非此即彼的认定思路,而是将生成式人工智能服务提供者界定为兼具内容提供和技术服务双重身份的新型网络主体,在审理过程中进行个案判断,分析不同案件中其在具体内容生成时所发挥的作用大小,审慎把握其特殊法律地位带来的对于适用现有法律规则的困难与挑战。
王晓明:传统区分内容提供者还是服务提供者的内在逻辑在于:内容提供者是内容的上传者,其客观上对所呈现的内容具有完全可控制能力,因此可以对内容进行事前审查,发生侵权后,也可以进行事后删除;而服务提供者,仅是提供信息网络、技术等服务,对于实际使用者发布的内容不具有控制力,故无法事前审查,一般可适用“避风港规则”。因此,“可控制性”被普遍认为区分二元主体的重要标准。我认为,在具体判断时,还应兼顾技术迭代、应用场景化等因素,对生成式人工智能服务提供者的主体地位的法律定性,应建立在具体应用场景下其行为特点的基础上,根据上述逻辑进行具体场景化的行为判断。
具体而言,生成式人工智能经过预训练、微调和应用部署三个阶段,形成基础模型研发、垂直领域优化和用户交互应用的全产业链,形成“数据训练—模型开发—用户生成”的链式架构。因此,根据具体的应用场景及司法实践,生成式人工智能服务提供者主要可以分为以下三种类型。
第一种是基础模型提供者,其主要实施的是开发人工智能模型、收集训练数据、使用数据集训练大模型等行为。基于“技术中立”原则,开发、收集、训练行为属于技术行为,将其视为提供的是一种技术服务争议不大,争议较大的是人工智能同时向使用者输出内容,是否构成内容提供者。从人工智能的运行逻辑基础来看,人工智能所谓的“思考”“决策”,实质上是通过使用者对其进行数据“投喂”后,利用数据计算、算法运算而生成的概率性结果,客观上来说,生成式人工智能服务提供者对该生成内容难以控制。实际上,司法实践中对于服务提供者的认定也早已超出仅提供物理性内容的范畴,如搜索服务提供者通过“算法自动补充”或利用算法对检索到的内容进行总结、自动生成摘要等,虽然最终呈现的内容是搜索服务提供者提供的,但司法上普遍认为这些补足的内容或者摘要的内容源于第三方或者用户的输入,搜索服务提供者进行补足或摘要仍是其提供的正常服务之一。同理,基础模型提供者只是在技术进一步发展的前提下,对被灌输的“语料”进行深度学习、思考(根据权重、参数计算等),使得其所提供的服务更具有深度价值及符合个性化需求而已。
第二种是专业模型提供者,即在研发者开发的基础模型或预训练模式的基础上,对模型进行微调或二次训练后,形成新的模型并进行部署后,才向用户提供。通过算法优化、数据筛选、输入特定数据等方式对基础模型进行微调、二次训练,使得大模型在通常情形下输出的内容具有某种倾向性。此时,模型提供者已深度介入了内容的生产,其不再限于技术层面提供技术服务,还会对生成内容具有一定的控制力,则根据可控制性与义务相匹配的判断原则,其应负更高的注意义务。随着人工智能技术的发展及与产业的深度融合,可能出现部分专业模型提供者通过算法优化、数据筛选或收益分成等深度参与内容生成的情形,此时根据其对生成过程的参与程度、对生成内容的控制程度等,其是否会被认定为内容的直接提供者或共同提供者,仍有较大的讨论空间。
第三种是大模型调用者,即实践中常见的通过应用程序编程接口(API)等方式直接调用他人已经部署好的大模型,向公众提供人工智能服务的中间平台。其实际起到的是连接人工智能大模型与最终用户的“桥梁”作用,平台仅提供基础模型且未干预内容生成。这与传统的信息网络服务提供者并无本质区别,仍宜定性为服务提供者,而非直接的内容提供者。
实践中,生成式人工智能服务提供者可能兼具不同的身份,但是仍可根据个案中其实际实施的行为性质、特点,而分别确定其主体性质,此时并不妨碍其就不同的行为,被定义为不同的主体地位,进而承担不同的义务和责任。当通过法律解释方法及弹性适用现有侵权规则,已足以对生成式人工智能服务提供者的行为及相应的责任进行规制时,则无超越现行“内容—服务”的二元划分体系而创设一种全新的责任主体的必要,从而避免增加法律适用的不稳定性及社会经济活动的不确定性。
张吉豫:内容提供者和服务提供者二分是确定网络平台侵权责任的通常规则,前者构成直接侵权,后者则可能构成帮助或教唆侵权。随着互联网和数字科技的进一步发展,一方面,网络平台有了更多种多样的经营模式,也呈现出一部分行为属于提供内容、一部分行为属于提供服务的混合形态;另一方面,一些地区也在法律规则上进行重塑,如欧盟《单一数字市场版权指令》第17条规定,在线内容分享服务提供者允许公众访问其用户上传的版权作品或其他受保护内容的,属于实施了向公众传播或向公众提供的行为。尽管该规则富有争议,但也体现了立法机构对责任划分的积极探索。
生成式人工智能服务是这三年发展起来的一种新型服务。生成式人工智能服务提供者与传统的网络内容提供者和网络服务提供者均有区别,难以简单归为典型意义下的内容提供者或服务提供者,需要根据具体行为和情景进行确定,特别是考虑提供者是否对于形成或传播侵权内容具有高度的预见性和控制力。
对于针对特定作品训练模型、对输出特定侵权内容有高度预见性和控制力的提供者而言,可能构成直接侵权。例如,在杭州奥特曼案的证据中,可以看到用户用几张奥特曼图片就训练好一个叠加的LoRA (Low-Rank Adaptation)模型,并提供给其他用户使用;其他用户选用一个基础大模型,再叠加上这一LoRA模型,就可以生成众多奥特曼的图片。我认为,类似这种专门针对奥特曼训练的LoRA模型的提供者,相当于将图片中的奥特曼相关表达信息进行变形复制存储,并可以预见在之后服务中能够基于这一模型将奥特曼图片输出给用户,处在以最小成本最佳防范风险的地位,可以认定为内容提供者。如果有证据证明此类LoRA模型就是平台自身提供的,该平台就构成直接侵权。
对于普通的预训练大模型或者说基础模型的服务提供者而言,大模型存储的往往是海量内容中的统计性规律,服务提供者对于用户如何使用、输出内容情况的预见性很小,目前而言可以采取一些防控侵权的措施,但控制力仍然有限,与典型的内容提供者有很大区别,宜认定为服务提供者,在帮助、教唆侵权的框架下考虑其侵权责任。
05李剑:生成式人工智能服务提供者的侵权责任应当如何界定?
吴汉东:目前认定生成式人工智能服务提供者侵权责任的直接依据,是《暂行办法》第9条,要求生成式人工智能服务提供者承担网络信息内容生产者责任。但是,该条款对界定生成式人工智能服务提供者侵权责任的意义有限:一是因为《暂行办法》颁布已近两年,其对生成式人工智能服务提供者的定义可能与当下的人工智能产业实践有所脱节;二是因为《暂行办法》属于公法规范,“内容生产者责任”所含的私法后果并不明确。或许是出于这样的考虑,我国两起AIGC平台版权侵权案的判决虽然都将被告认定为《暂行办法》中规定的生成式人工智能服务提供者,但都未援引第9条来判定被告的侵权责任。
生成式人工智能的技术提供者和部署者同属于生成式人工智能服务提供者,但可能分属不同主体,因此应遵循类型化思路分析各自应承担的版权侵权责任。由于生成式人工智能只有通过部署才能与用户进行交互,根据技术提供者和部署者结合的不同方式,可以将生成式人工智能服务提供者分为“人工智能提供者平台”“人工智能接入平台”以及“人工智能训练参与平台”三类。其中,“人工智能提供者平台”意味着生成式人工智能的研发者自行部署生成服务,相应需为生成与他人作品实质性相似的内容而承担版权直接侵权责任。如果“人工智能提供者平台”尽到了行业平均水平的防范义务,则能够主张无主观过错而豁免损害赔偿责任。“人工智能接入平台”指平台通过API调用第三方生成式人工智能。此类平台提供的生成式人工智能接入服务具有中立属性,仅被动传输源于第三方生成式人工智能的生成内容,因此仅在违反注意义务时承担版权间接侵权责任。注意义务的合理设定,除参考《暂行办法》对生成式人工智能服务提供者施加的公法义务外,更须结合平台对侵权内容的信息管理能力,实现版权人利益与新技术、新产业发展之间的平衡。“人工智能训练参与平台”指平台虽然通过调用第三方生成式人工智能提供内容生成服务,但亦参与了生成式人工智能的训练、微调或对齐。此时责任主体趋于复杂,需具体考察技术提供者所提供的基础模型以及“人工智能训练参与平台”对生成式人工智能的训练、微调或对齐行为与侵权结果输出之间的因果关系。“人工智能训练参与平台”可能单独承担版权直接侵权责任,也可能与生成式人工智能的技术提供者一起承担共同侵权责任,还可能像“人工智能接入平台”那样仅承担版权间接侵权责任。
延续上述类型化思路,生成式人工智能服务提供者停止侵害的责任承担方式,也应避免张冠李戴。例如,不应将技术提供者的停止侵害方式适用于部署者,以免造成权利与义务的失衡。两起AIGC平台版权侵权案的判决均要求被告采取“提示词”过滤措施,以达到完全的屏蔽效果,使涉案侵权内容无法被再次生成。值得注意的是,“人工智能接入平台”对侵权内容的信息管理能力有限,即便是生成式人工智能的技术提供者,也无法保证不被恶意用户诱导后生成侵权内容。因此,要注意避免给生成式人工智能服务提供者施加过重的注意义务,否则有悖于民事责任承担的比例原则。
许惠春:对于生成式人工智能服务提供者的侵权责任判定,如前所述,首先需个案判断其在具体侵权行为中的主体地位,并确定对其适用的归责原则。若其系内容提供者,则适用过错推定的归责原则,承担直接侵权的法律责任;若其系服务提供者,则适用过错责任的归责原则,根据被诉侵权事实中的注意义务判定其是否应当承担侵权责任,以及需要承担的侵权责任范围。关于过错责任的适用,实际上就是对于生成式人工智能服务提供者注意义务的确定。对此,理论界存在不同的看法。有学者主张,若生成式人工智能服务提供者按照侵权发生时的技术水平,能够预知和防止侵权行为的发生,但怠于采取相关必要措施,则应当认定为存在过错。有学者认为,应当对生成式人工智能服务提供者适用安全保障义务,这种观点在我国目前出台的针对人工智能的法规中有所体现,主要涉及个人信息保护、内容管控等方面。类似的,在广州互联网法院审理的涉生成式人工智能平台侵权案中,该院援引《暂行办法》《生成式人工智能服务安全基本要求》等规定,要求生成式人工智能服务平台承担设立投诉举报机制、潜在风险提示和显著标识三项义务,若未尽以上三项义务,则可能存在过错。
然而,技术的发展总是存在诸多“意想不到”,偏重某一方面的规则限定可能陷入一种思维定式,使裁判者产生随时被技术追赶超越的危机感。我们必须充分认识到,生成式人工智能技术具有更新迭代快、应用场景多的特点,只有在具体案件中结合技术的应用场景、运行原理等因素动态调整生成式人工智能服务提供者的注意义务限度,才能真正平衡好技术进步、产业发展与著作权人利益间的关系。因此,在审理涉生成式人工智能服务提供者侵权责任案件中,不应简单套用既有的法律规定,而是要秉持系统思维,充分考量各方面因素,构建弹性的注意义务判断机制,审慎把握法律干预的尺度,让裁判真正实现法律效果、政治效果和社会效果的统一。譬如,在前述首例涉生成式人工智能服务提供者侵害信息网络传播权案中,法院综合考量了生成式人工智能服务的性质、人工智能技术的发展水平、被诉侵权事实的明显程度、平台盈利模式、可能引发的侵权后果、可以采取的必要措施及其效果、侵权责任承担对行业的影响等因素,将平台注意义务确定在与其信息管理能力相适应的程度,在充分保障著作权人利益的同时,有限度地判决生成式人工智能服务提供者承担相应的过错责任,推动其完善相关技术措施以预防侵权行为发生,促进产业向上向善发展,最终实现激励创新与权利保护的有机统一。
王晓明:根据法律适用逻辑,生成式人工智能服务提供者的行为性质决定了其主体定性,主体定性决定责任规则。生成式人工智能服务提供者在不同情况下可能被认定为不同的法律主体,但仍在服务提供者、内容提供者的二元划分体系内,分别承担间接的平台责任或直接的侵权责任。但是,在具体确定其法律义务、责任的内涵及范围时,应注意考虑技术迭代的复杂性、现实技术可能性、成本与损益相匹配的比例原则等,并探索适用相关的责任豁免机制,构建兼具灵活性与确定性的法律框架。
对于生成式人工智能服务提供者的责任,我认为,应区分输入端、输出端不同阶段,对其注意义务及责任加以不同程度的规制。从输入端来看,由于其收集、输入的数据往往具有海量性的特点,要求其对所有数据均进行事前审查,在我国目前的数据量现状下,难度很大,这也会大大增加人工智能开发者的运营成本,阻碍产业的发展。针对训练行为,主要存在三种责任豁免的观点:一是非作品性使用。数据训练属于“非表达性使用”,仅提取作品中的规律性特征(如文字组合概率、图像色彩分布),未利用独创性表达。二是临时复制。根据我国《著作权法》,复制权规制的对象是“持久性复制件”,训练过程中内存缓存等“临时复制”行为,因不形成稳定载体,可能不构成侵权。三是合理使用。训练行为既不与作品的正常使用相冲突,也不至于不合理地损害作者的正当利益,可以认定为合理使用。虽然上述观点采取的路径不一样,但最终的目的是相同的,即单纯地收集数据、使用数据训练的行为能够得到一定程度的责任豁免。这与当前人工智能发展现状相符,也有利于促进人工智能产业的进一步发展。
但需要注意,一定程度的豁免并不意味着所有训练数据都对模型开发者无条件开放,模型开发者可以任意使用、不受任何限制。实际上,现行的通用大模型不约而同地体现了在防止歧视、人类伦理、政治立场方面的约束,而这些约束、限制并不会因为微调、使用者输入特定提示词等而轻易改变。故对于某些特定领域的、特征明显的有害信息,基础大模型在初始数据收集、训练阶段即可进行有效的过滤。还有,如果一些数据资源持有者已对数据资源和数据作品采取了技术保护措施,收集数据过程中采取了破解技术保护措施的手段,那么其获取方式的非法性可能直接影响后续训练行为的正当性,而落入侵权或不正当竞争的规制。
对于模型数据训练行为的合法性问题,开源或闭源也可能对侵权责任的认定产生影响。例如,在判断是否构成合理使用的过程中,大模型是否商用、是否具有重要公共利益等因素可能被重点考虑。以TR公司诉ROSS公司一案为例,法院就认为以盈利为目的的商业性使用不满足“合理使用”的条件。如果模型开源,符合促进技术发展、增加公共知识、增进公众和社会福祉的“合理使用”目的,则结论可能完全不一样。再如,在平台作为人工智能服务提供者是否构成帮助侵权的判断中,模型代码、训练方法乃至训练数据的开源是否足以减轻大模型平台的注意义务,进而使得开源大模型的提供者免于承担著作权侵权责任,同样值得进一步研究。
从输出端来看,人工智能大模型对生成内容实现规模化生产,内容来源往往难以回溯,且模型开发者对于生成的内容不具有控制力,即使有也可能十分微弱,故适用事后的“通知”规则更为合理,并规定强制标注义务。我国法律规定服务提供者在接到通知后应当采取“必要措施”,传统网络服务提供者的必要措施包括删除、屏蔽、断开链接等必要措施,而《暂行办法》规定了停止生成、停止传输、消除等处置措施,以及模型优化训练等措施。对于已生成的侵权内容进行删除,是停止传输、消除影响的应有之义,如生成的内容存储于模型提供者的服务器内,在具体执行上没有障碍,但删除是否还包括训练数据库中的数据,则存在较大的争议。对于海量的数据库内容,如何准确定位侵权的数据内容,并从已训练的模型中解除学习,不管是从成本上来看还是从技术上来看,难度均极高。“停止生成”要求避免侵权内容的再次生成,属于预防性措施,但由于人工智能服务提供者对生成内容的不可控性及生成内容的量级式生成,服务提供者能否以合理成本且准确性较高的技术来准确避免侵权内容的再次生成,不无疑问。因此,对于“停止生成”责任的认定,应当遵循审慎、合理的原则,其责任边界需要根据个案具体的模型运行模式(开源还是闭源、免费还是商用)、侵害的权利性质、侵权行为、技术可能性,以及人工智能技术的发展状况等因素综合判断。
当前全球人工智能发展正处于从技术突破向规模化应用转化的关键过渡时期,对于人工智能注意义务的确定可能随着行业的发展、技术的进步而弹性变化,除了考虑技术可能性标准外,还应注意人工智能对于数字时代关键信息基础设施建设的重要性,根据时代发展需要动态调整其责任范畴,以实现权利保护与鼓励创新的平衡。
张吉豫:对于输出端的侵权责任问题,可以针对具体行为确定。对于界定为提供内容的情形,可以推定过错、认定直接侵权,可判令停止侵害,并结合证据情况赔偿损失。生成式人工智能服务提供者具体应当如何停止侵害,需要根据具体情况来确定。例如,对于服务提供者提供自己针对某一作品训练的LoRA模型、该模型主要是用于输出侵权内容的情况,可以考虑要求其移除模型或重新训练,或者获得著作权许可。
对于界定为提供服务的情形,则可以判断网络服务提供者是否构成应知。可以首先参照关于审理侵害信息网络传播权民事纠纷案件的司法解释中列举的判断应知时应考虑的因素,分析合理的注意义务分配。一般而言,对于基础大模型服务提供者,可以重点考察是否采用比较明显的方式提示了用户要尊重知识产权,采取了一定的对于诸如“输出作品内容”等提示词的过滤或采取了适当的价值对齐的微调等合理的技术措施,设置了用户通知问题的便捷渠道等方面。一些企业正在制定《生成式人工智能知识产权合规指南》团体标准,并征求公众意见,未来也可予以参考,以证明和了解可能采用的技术发展情况。但是,需要注意团体标准并非强制性标准或国家推荐性标准,企业并非一定要参照进行技术设计。
如果生成式人工智能服务中,可以让用户选择一些其他用户训练的非常聚焦的协同模型或垂类模型,并且在主页、模块主页、热门榜单等位置或列表中有明显侵权的可选模型或生成内容,在正常经营者基本的审查能力范围之内,则通常倾向于认定为应知有侵权内容存在。
对于不构成应知的情况,如果在接受著作权人通知后,在合理时间内采取了必要措施来停止侵害、消除危险,则无需承担损害赔偿责任。必要措施的判断,仍然可以结合可能发生侵权的概率和损害、在当前技术发展阶段可能采取的措施的效果和成本,来进行确定。应当在尊重技术规律、经济规律的基础上,以“数字向善”为原则来合理界定生成式人工智能服务提供者的注意义务,考虑其在推荐系统设计及运行中是否对著作权的影响进行了积极考虑,并在技术和经济可行范围内采取了合理措施以预防损害的发生。真实服务场景的需求是技术研发和改进的重要动力来源。司法中对于合理注意义务的界定将立足于行业技术实际情况,不断推动数字技术的向善发展和运用,为智能时代权利保护提供有力支撑。
(为方便阅读,省却注释,全文参见《数字法治》2025年第2期)
