Sora2に高まる懸念:業界団体が求める「オプトイン原則」


著者がSora 2で作成した画像。簡単なプロンプトで、ここまでの完成度になることに驚きました。

誰もが手軽に生成AIを使用できるようになり、著作権侵害の問題が取りざたされて久しいですが、9月30日(米国時間)にOpenAIが動画生成モデル「Sora2」の提供を開始してから、世界中で一層この問題への懸念が高まっています。

こうした中、日本では、内閣府が10月6日付けでOpenAIに対し著作権侵害行為を行わないよう要請したほか、17の出版社と一般社団法人日本動画協会、公益社団法人日本漫画家協会が、10月31日付けで「生成AI時代の創作と権利のあり方に関する共同声明」を発表しました。

共同声明では、Sora2でAIの学習データ利用方法に「オプトアウト」方式を採用していることが特に問題視されています。

  • オプトアウト方式の問題点: 著作権者から利用拒否の意思表示がない限り、AI学習のために著作物を利用できるというものです。
  • 国際条約との対比: 世界194ヵ国が加盟するWIPO(世界知的所有権機関)の著作権条約や日本の著作権法に基づけば、著作物の利用は原則として著作者の事前の許諾がなければ認められません(オプトイン)。

オプトアウト方式に則ると、著作者が自ら著作物の利用を差し止めなければならず、権利保護が弱くなり、事実上の無断使用を認めているような結果になります。

このため、業界の共同声明では、日本のコンテンツ文化を保護するため、3つのことをAI事業者に求めました。

  1. 事前許諾の原則徹底
    • 学習段階と生成・公表段階の両方で、著作権法の原則に基づき、権利者から必要な許諾を得ること。
  2. 学習データの透明性
    • 著作物が学習に用いられたかどうかの開示を求め、透明性を担保すること。
  3. 適正な対価還元
    • 権利を許諾した場合、適正な対価が権利者に還元される仕組みを確立すること。

こうした業界からの猛反発を受けて、OpenAIの経営者個人(アルトマン氏)はオプトイン方式に転換すると表明しています。

海外でも、大手タレントエージェンシーのCAAや、俳優組合のSAG-AFTRAからの要請を受けて、OpenAIがディープフェイク対策を開始し、特に俳優の顔や声をSora2で使用する場合は原則オプトインとせざるを得なくなったことなどが報道されています。

参考


PAGE TOP