人工智能、计算机软件

吉卜力(Studio Ghibli)头像,如果吉卜力起诉我呢?

Ghibli.png

Summary

最近在网络上稍微浏览一下,就能看到的热门话题之一便是“吉卜力(Studio Ghibli)头像”。人们利用OpenAI的ChatGPT提供的“图像生成工具”功能,把自己的照片转换成“吉卜力工作室”动画的作画风格,并将其作为头像使用,这已经像是一种流行趋势在扩散开来。我前几天翻KakaoTalk的头像更新时也吓了一跳,朋友们的头像中十有八九都换成了这种画风生成的图像。看上去确实很神奇、很可爱,但与此同时我也产生了这样的想法:“这真的没问题吗?吉卜力会怎么想呢?” AI学习并模仿有原作者的画风,然后我们随意使用这种现象,从著作权法的角度看是否存在问题呢?本专栏将介绍并分析“吉卜力头像”,以及在生成AI产出物的过程中,从用户角度可能产生的法律与伦理问题。

包含ChatGPT 在内的生成式AI模型(Generative AI Model)服务中,要获得类似“吉卜力头像”这样的结果物,大致需要两个步骤。

  1. 训练(Training)阶段:利用训练数据对模型进行训练,使生成式AI模型能够生成与现实相似的数据

  2. 推理(Inference)阶段:利用已训练好的模型生成与现实相似的结果物

下面我们先来探讨一下在训练能够生成“吉卜力头像”的模型过程中,可能会出现哪些问题。

 

 

AI模型训练阶段可能会出现的问题

 

为了训练出能够像人一样对话的AI聊天机器人,需要将大量由人类生成的“对话”作为训练数据输入模型中。在此过程中,训练数据集中可能会包含受著作权法保护的作品。就能够生成“吉卜力头像”的训练模型而言,不难推测“吉卜力工作室的动画作画”可能已被纳入训练数据集中。

 

在构建用于训练生成式AI模型的训练数据集过程中,必然会伴随对训练数据中所含作品(如吉卜力工作室的动画作画)的复制(数据拷贝)等行为。而这种未经原作者同意的“数据复制”,原则上极有可能构成对原作者复制权(韩国著作权法第16条)侵权。

 

第三十五条第五款(著作物的合理使用)

① 除第二十三条至第三十五条第四款、第一百零一条第三款至第一百另一条第五款的情形以外,只要不与著作物的一般性利用方式相冲突,且不不当损害著作权人的正当利益的情况下,可以利用著作物。<2016年3月22日修订,2019年11月26日修订,2023年8月8日修订>

② 在判断著作物利用行为是否属于第1款所规定的情形时,应当考虑以下各项因素:

  1. 利用的目的及性质

  2. 著作物的种类及用途

  3. 被利用部分在整个著作物中所占的比重及其重要性

  4. 著作物的利用对该著作物的现有市场或价值、或潜在市场或价值所产生的影响

 

不过,包括韩国在内的许多国家的法制都设有各种类型的免责条款,以允许对著作物的利用。
例如,出于教育目的的利用(第二十五条)、出于时事报道目的的利用(第二十六条)、非营利性的私人复制(第三十条)等情形下,即使未经原著作权人同意,利用著作物也不构成著作权侵权。

 

此外,不仅限于这些列举的事由,在“不与著作物的一般性利用方式相冲突,且不不当损害著作权人的正当利益的范围”内,也承认具有包容性的合理使用(第三十五条第五款)。
那么,未经原著作权人同意而将著作物用于AI模型训练的行为,是否属于合理使用呢?

 

关于这一点,目前在国内并不存在直接的判例。
不过在 2025 年 2 月,美国在 “Ross Intelligence” 与 “Thomson Reuters” 之间的法律纠纷中,美国法院认定,Ross Intelligence 为了构建人工智能法律平台而复制竞争对手 Thomson Reuters 内容的行为,不属于合理使用,即构成著作权侵权。该判决是美国法院就训练数据相关著作权侵权问题作出的首例判决,预计将会对韩国著作权法的修订方向以及正在进行中的诉讼产生影响。

 

除了法律责任之外,还可能会面临伦理责任。2024 年 4 月,OpenAI在其服务 ChatGPT 中引入语音生成功能时,公开了名为 “Sky” 的语音模型。由于 Sky 生成的声音与演员 Scarlett Johansson 的声音相似,引发了争议。OpenAI辩称在训练该模型时并未使用 Scarlett Johansson 的数据,但 Scarlett Johansson 一方表示将采取法律行动。最终,OpenAI以停止使用 Sky 的声音而告终。

 

因此,对于希望利用生成式AI的人工智能相关企业来说,即便是出于AI训练目的,也最好事先通过向著作权人支付适当报酬等方式,获得合法的使用权,以防止法律/伦理问题的发生。
或者,也可以考虑使用著作权保护期已满、或任何人均可自由复制、修改、传播、商业使用的自由利用著作物(Public Domain),或者公共著作物作为训练数据。关于自由利用著作物和公共著作物,将会通过单独的专栏进行详细说明。

 

需要注意的是,在AI模型训练过程中,与著作物利用相关的法律责任归根结底属于提供AI模型相关服务的“服务提供者”,而并非该服务的个别使用者的责任

 

AI模型推理(生成)阶段可能会出现的问题

 

如果用户利用已训练好的生成式AI模型所生成的AI产出物,被认为与现有著作物相同或相似,那么该AI产出物是否会被视为侵犯该著作物的著作权呢?

 

首先需要指出的是,绘画的“风格”、“画风”并不是著作权法所保护的对象。因此,即使模仿吉卜力工作室动画的“风格”来创作某种图像,也不太可能构成著作权侵权。

 

但是,如果不仅仅是“风格”,而是生成的图像本身偶然与吉卜力工作室制作的某部动画中的“特定画面”高度相似,那么这种情况下是否构成著作权侵权呢?
在这种情况下,要认定侵权成立,需要考察AI产出物是否是基于对既有著作物的认识而创作的(依据性),以及AI产出物是否可被认为与既有著作物相同或相似(实质相似性)。若满足依据性与实质相似性两个要件,则该AI产出物有可能构成对原著作物的著作权侵权。

 

不过,在大多数情况下,为了生成所谓“吉卜力头像”,用户通常需要输入自己的照片,并发出生成吉卜力风格图像的请求。因此,一般情况下,生成的图像与输入照片具有相似的构图,这类情况被认定为著作权侵权的可能性较低

 

参考而言,关于在何种情况下认定依据性,目前尚无判例给出明确的判断标准。

 

不过,日本文化厅最近出版的《有关AI与著作权的考察》中(link),就依据性提出了以下判断标准:

  • 用户明确指定特定作品名称(例如《千与千寻》),或者向AI输入原著作物的图像(动画中特定时刻的截图)并据此获得结果的,认定存在依据性;

  • 用户虽未意识到,但AI已经学习过该著作物的,推定存在依据性;

AI 未进行学习,且用户也未意识到的,否定依据性。

 

除了“吉卜力头像”之外,我们也来看一个其他的例子。近年来,利用学习了特定人声音的 AI 模型生成的声乐数据,并与伴奏数据结合而成的“AI翻唱曲”正在流行。对于伴奏数据而言,如果翻唱曲所用的伴奏与原曲的伴奏完全相同,那么将该 AI 翻唱曲发布到 SNS 等平台的行为,可以被认定为对“该音乐或唱片”的复制或传播行为,从而构成著作权及邻接权侵权。即便翻唱曲所用伴奏与原曲的伴奏并非完全相同,也可能被认定为侵犯了著作权人的改编权。对于声乐数据而言,AI 模型生成的声乐数据本身并不属于著作物,且只要声音的主人未亲自制作并发表相同的翻唱曲,就很可能不会被认定为著作权侵权。不过,声音超越著作权的范畴,属于个人的固有特性,因此从声音权利人的“人格权”角度,可能会产生其它问题。

 

 

作为可供参考的案例,最近在中国曾发生过这样一起事件:原告为一名声优,其主张被告媒体公司及软件开发者在未经许可的情况下使用其声音制作有声书,构成了对其人格权侵权,并请求损害赔偿。2024年4月24日,中国法院认定原告的声音与该有声书之间存在相似性,并判定被告应对人格权侵权承担损害赔偿责任(赔偿金额为25万元人民币)。该判例是首次承认因AI生成的声音而构成人格权侵权的先例性案例。当前,随着利用AI的语音生成技术的广泛传播,可以预见该案例将成为今后各国法院在处理类似案件时的重要参考。

 

综上所述,正如前文所分析的,除非是有意生成与特定对象(图像)相似的数据,否则利用生成型 AI 模型生成数据的个别用户,很难被认定为侵犯他人著作权。然而,除了著作权之外,仍然存在因人格权侵权而承担法律责任,乃至承担伦理责任的可能性,因此在使用过程中始终保持谨慎是明智的做法。

 

结论

 

本专栏探讨了在生成 AI 产出物的过程中可能侵犯他人合法权利的情形。目前,围绕AI产出物,各国正展开多方向、广泛而积极的讨论,与立法相关的活动也在如火如荼地进行。以韩国为例,文化体育观光部计划于 2025 年在著作权法中新增与AI训练数据相关的条款,并推动制定与“公开权”(Publicity)相关法律(link)。

 

因此,与该主题相关的最终结论随时都有可能发生变化。为了掌握最新业界动态,有必要持续追踪海外的先例性判例以及国内的立法修订方向。感谢您的阅读。

计算机软件著作权知识产权教育分析趋势

第一作者与共同作者

"你有问题想咨询吗?"

"你有问题想咨询吗?"