时间:2024-07-27 04:05:02来源:界面新闻
游云庭补充称,如果平台将作品用于AI训练,需要跟作者单独协商达成新协议。如果单方面改变协议内容,或在更新时强制签署协议,就违反了现有合同,法院不会认可新合同的效力。
其次,如果平台声称AI训练只是为了提升服务质量,而非商业盈利,这在法律上是站不住脚的,因为平台提升商业服务质量也是为了盈利,法院不会认可企业的抗辩。
平台普遍在进行的“AI训练”更进一步引发了创作者对私有内容泄露的担忧。近日,有网友称,WPS疑似把作者未公开内容“喂”给抖音豆包AI,因在该AI上问出了相应内容。
对此,字节跳动称相关传言完全不实,豆包上部分书目信息来源于公开信息;豆包与WPS在AI训练层面并未开展任何形式的合作,也没有使用任何用户未公开的私人数据进行训练。而WPS官方也回应称,相关问题完全失实。
不过,今年4月北京互联网法院一审开庭宣判的全国首例AI生成声音人格权侵权案,可以为内容创作者们维权提供一种借鉴。在该案中,配音师殷某发现,某软件公司将其配音制作的作品AI化处理后出售给相关平台,该作品在多个知名App广泛流传。
法院经审理认定,遭告文化传媒公司对录音制品享有著作权等权利,但不包括授权他人对原告声音进行AI化使用的权利,其在未经原告本人知情同意的情况下,授权软件公司AI化使用原告声音的行为无合法权利来源。法院判决相关遭告向原告赔礼道歉,并赔偿损失共计25万元。
法院指出,即使合法获得了作品授权,也并不意味着有权将其进行AI训练。这表明相关权利人、创作者对其作品等应有相应的控制权,仅凭模糊的授权条款,而不另行支付对价,不能保证平台可以进行AI训练。
我国已于去年开始实施的《生成式人工智能服务管理暂行办法》(下称《办法》)规定,在提供和使用生成式人工智能服务的过程中,应尊重知识产权、商业道德等,不得利用算法、数据、平台等优势实施垄断和不正当竞争行为。
《办法》还对生成式人工智能服务提供者提出了一系列规定,包括依法开展训练数据处理活动、承担网络信息内容生产者责任和个人信息处理者责任、明确服务的适用人群等。
然而,要判定生成式AI侵权存在一定难度,包括侵权对象的界定、生成内容的独创性判断、证据收集和技术分析、法律适用的不落实性等问题。
其次,生成式AI的生成内容是向特定用户提供的,本身不具有直接公开性,不会出现大规模的直接侵权现象,这与传统的网络侵权有所不同。
AI技术的不断进步,也对法律的“思想-表达二分法”造成冲击,传统上“接触+相似”的侵权判断标准不再完全适用。生成式AI可以快速学习人类作品并生成不同的表达结果,导致“思想与表达”难以清晰“二分”,从而增加了侵权认定的难度。
整体而言,现有的法律规定难以完全涵盖AI的应用场景和生成形式的所有情况。为了应对这些困难,法律界需要不断探索和完善相关法律规定和侵权认定标准,综合考虑技术特点、社会影响等多方面因素,以实现对生成式AI侵权行为的合理判定和有效规制。
(应受访者要求,羊羊、平平为化名)