生成的人工知能

プロンプトに応答してコンテンツを生成できるAI ウィキペディアから

生成的人工知能

生成的人工知能(せいせいてきじんこうちのう、: generative artificial intelligence)または生成AI(せいせいエーアイ、: GenAI)は、文字などの入力(プロンプト)に対してテキスト画像、または他のメディアを応答として生成する人工知能システムの一種である[5][6]ジェネレーティブAIジェネラティブAIともよばれる。

Thumb
スペース・オペラ・シアター(Théâtre d'Opéra Spatial)、Midjourneyによって作成された画像

生成的人工知能モデルは、訓練データの規則性や構造を訓練において学習することで、訓練データに含まれない新しいデータを生成することができる[7][8]

著名な生成AIシステムとして、OpenAIGPT-3GPT-4大規模言語モデル[9]を使用して構築したチャットボットChatGPT(および別形のBing Chat)や、GoogleLaMDA基盤モデルに構築したチャットボットBardがある[10]。その他の生成AIモデルとして、Stable DiffusionDALL-Eなどの人工知能アートシステムがあげられる[11]

生成AIは、アート、執筆、ソフトウェア開発、ヘルスケア、金融、ゲーム、マーケティング、ファッションなど、幅広い業界で応用できる可能性があるとされている[12][13]。生成AIへの投資は2020年代初頭に急増し、Microsoft、Google、Baiduなどの大企業だけでなく、多数の中小企業も生成AIモデルを開発している[5][14][15]。しかし、生成AIを訓練する目的での著作物の野放図な利用や人をだましたり操作したりするフェイクニュースディープフェイクの作成など、生成AIの悪用の可能性も懸念されており[16][17][18]欧州連合における人工知能法など法規制の議論も進んでいる[19][20]。また、効果的加速主義などの技術思想との関係も指摘されている[21]

歴史

機械学習の分野では、その誕生以来、データをモデル化し予測することを目的として、統計的モデルを使用してきた。2000年代初め頃、ディープラーニング(深層学習)の登場により、画像や動画処理、テキスト分析、音声認識などのタスクで進化と研究が進んできた。しかし、ほとんどのディープニューラルネットワークは識別的モデルとして、画像認識 (en:英語版) のような分類タスクを実行していた。

2014年、変分オートエンコーダ敵対的生成ネットワークなどの進歩により、画像のような複雑なデータの生成的モデルを学習し、生成することができる実用的なディープニューラルネットワークが登場した。

2017年、Transformerネットワークはより大規模な生成的モデルの実現を可能にし、2018年に最初の生成的事前学習トランスフォーマー(GPT)が開発された[22]。2019年、GPT-2がこれに続き、基盤モデルとして教師なし学習を多くの異なるタスクに汎化する能力を実証した[23]

2024年、映像生成AIの実用化の成功は、イラスト生成AIの成功が人間の仕事の質を超えるのと同じようになると専門家は予想している[24]

2025年、生成AI検索はMITが発表した世界のブレークスルー技術ランキングで2位にランクインし[25]、従来のGoogle検索は生成人工知能検索に取って代わられると予測されている[26][27]

これ以降の応用面における進化については次節のモダリティを参照のこと。

モダリティ

要約
視点

生成AIシステムは、教師なしまたは自己教師あり機械学習を、データセットに適用することにより構築される。生成AIシステムの能力は、訓練に使用するデータセットのモダリティ種類英語版によって異なる。

生成AIは、ユニモーダルシステムとマルチモーダルシステム英語版に大分でき、ユニモーダルは1種類の入力(例:テキスト)しか受け入れないのに対し、マルチモーダルは複数種類の入力(例:テキストと画像)を受け入れることができる[28]。たとえば、OpenAIのGPT-4はテキストと画像の両方の入力を受け入れる[28]

  • テキスト
    単語や単語トークンで訓練された生成AIシステムには、GPT-3、LaMDA、LLaMABLOOM英語版、GPT-4などがある(を参照)。これらは自然言語処理機械翻訳自然言語生成が可能であり、他のタスクの基盤モデルとして使用することができる[29]。データセットとして、BookCorpusWikipediaなどがある(テキストコーパスの一覧英語版を参照)。
  • コンピュータープログラム
    自然言語のテキストに加えて、プログラミング言語のテキストを大規模な言語モデルに訓練することで、新しいコンピュータプログラムソースコードを生成することができる[30]。たとえば、OpenAI Codexがある。
  • 画像
    説明文英語版付きの画像セットで訓練された生成AIシステムには、Imagen英語版DALL-EMidjourneyStable Diffusionなどがある。これらは、テキストからの画像生成英語版ニューラルスタイル変換英語版によく使われる[31]。データセットにはLAION-5Bなどがある(コンピュータビジョンにおけるデータセット)。
  • 分子
    生成AIシステムは、アミノ酸の配列や、DNAタンパク質を表すSMILESなどの分子表現で訓練することができる。AlphaFoldのようなこれらのシステムは、タンパク質の構造予測創薬に利用されている[32]。データセットには、さまざまな生物学的データセット英語版が含まれる。
  • 音楽
    MusicLMのような生成AIシステムは、レコード音楽のオーディオ波形とテキスト注釈をともに訓練することで、たとえば「歪んだギターリフに乗った落ち着きのあるバイオリンのメロディ」といったテキスト記述に基づいて、新しい音楽サンプルを生成することができる[33]
  • 動画
    注釈付き動画で訓練された生成AIは、時間的に一貫性のあるビデオクリップを生成することができる。システムの例として、RunwayMLのGen1や[34]Meta PlatformsのMake-A-Videoがあげられる[35]
  • ロボット制御
    ロボットシステムの動きを学習させた生成AIは、モーションプランニング英語版のために新しい軌道を生成することができる。たとえば、Google ResearchのUniPiは、「青いボウルを取る」や「黄色のスポンジで皿を拭く」といったプロンプトを使用して、ロボットアームの動きを制御する[36]

課題

要約
視点

生成的人工知能のリスクに対して多くの懸念の声がある。これまでに生成AIに対する懸念を表明した人物として、ローマ教皇フランシスコ[37]アントニオ・グテーレス国連事務総長[38]、元ビートルズポール・マッカートニー[39]エルトン・ジョン[40]ダロン・アセモグルサイモン・ジョンソン[41]ノーム・チョムスキー[42]テッド・チャン[43]ナオミ・クライン[44]ジェフリー・ヒントン[45]スティーブ・ウォズニアックヨシュア・ベンジオスチュアート・ラッセルゲイリー・マーカス[46][47][48]森永卓郎[49]荒木飛呂彦[50]山寺宏一梶裕貴中尾隆聖池水通洋上田燿司甲斐田裕子片岡富枝かないみかくじら阪口周平坂本千夏咲野俊介佐々木優子島田敏嶋村侑新垣樽助関俊彦竹内良太東地宏樹中田譲治浪川大輔朴璐美深見梨加福山潤宝亀克寿宮本充などが挙げられる[51]

その中で、抗議活動や訴訟、人工知能開発の一時停止の要求が行われている。また、各国政府は規制を検討するなどしている。

2023年5月に開催されたG7広島サミットでは広島AIプロセスが採択され、その中では安全、安心、信頼できるAIの実現に向けてAIライフサイクル全体の関係者それぞれが異なる責任を持つ目的でリスクの低減などの方針を定める「全てのAI関係者向けの広島プロセス国際指針」を整理した。[52]

失業

Thumb
2023年のSAG-AFTRAストライキ英語版において「生成AIの利用の制限」は要求の1つだった。[53]

AI開発の初期の頃より、どのような仕事がコンピュータによって実行可能であり、実行させるべきかであるかの議論がELIZAの開発者であるジョセフ・ワイゼンバウムらによって進められてきた[54]

生成的人工知能によるイラストレータや俳優、声優、アナウンサーなどの失業が懸念されている[55][56][57]。2023年4月の時点で画像生成AIにより中国のイラストレーターの仕事の70%が失われていると報告されている[58][59]。2023年7月には生成AIの開発が2023年のハリウッド労働争議英語版の一因となった。映画俳優組合の会長フラン・ドレッシャーは、2023年のSAG-AFTRAストライキ英語版中に「人工知能はクリエイティブな職業に存続の脅威をもたらす」と宣言した[60]。 音声生成AIは、声優業界への潜在的な脅威とみなされている[61][62]

フェイク情報の作成

Thumb
エリオット・ヒギンズ英語版がMidjourneyを用いて生成したドナルド・トランプが逮捕される様子を描いたディープフェイク画像(2023)

これまでも古典的な画像処理技術などでフェイク情報は作成されてきたが、生成的人工知能によって画像や映像、音声、文章などの生成がより高精度に且つ容易になるため、詐欺世論操作プロパガンダ名誉毀損等に悪用される可能性があるとされている。国内外において、政治家の顔を入れ替えたり、発言の捏造などの世論操作や、災害に関するデマゴーグ、ニュース番組になりすました広告やフェイクポルノ等の事例が起こっている。

悪用事例以外にも、ニュース記事の生成や日本赤十字社による関東大震災の体験記の生成[63]などの生成的人工知能の活用を目指した取り組みに関してもその情報の信頼性と信憑性、歴史的記録の捏造など様々な課題が指摘されている[64]

音声でも有名人や公人の物議を醸す発言をしている音声を生成する例などがある[65][66][67][68][69][70]

2024年、日本の有名声優26名が、本人に無断で学習・生成されるAI音声や映像に反対する有志の会として『NOMORE 無断生成AI』を結成し、啓発動画を公開した。声明文では「やった覚えのない朗読や歌、そして声そのものが、ネット上に公開され、時に販売」される現状への強い懸念が表明され、「平和的な認識のすり合わせのための議論を有識者も交えて行い、文化的なルール作り」を行うことを提言した。メンバーとして、山寺宏一梶裕貴中尾隆聖池水通洋上田燿司甲斐田裕子片岡富枝かないみかくじら阪口周平坂本千夏咲野俊介佐々木優子島田敏嶋村侑新垣樽助関俊彦竹内良太東地宏樹中田譲治浪川大輔朴璐美深見梨加福山潤宝亀克寿宮本充らが参加した[71]

これに対して、ユーザーの身元確認を通じて潜在的な悪用の軽減に取り組むシステム整備を行うほかに[72]、技術的にディープフェイクへの対策のための研究が進められている[73]

報道分野

韓国、中国、台湾、インド、クウェート、ギリシャのニュース放送局は、生成的人工知能をナレーションに活用しニュースを伝えており、ニュースの信頼性に関する懸念が呈されている[55][56][57]。AIによるナレーションはISILによっても利用されている[74]

2023年4月、ドイツのタブロイド紙Die Aktuelleは、スキー事故で脳挫傷を負って、2013年以来公の場に姿を見せていなかった元レーシングドライバーのミハエル・シューマッハとの偽のインタビューを生成的人工知能で作成して掲載した。この記事は表紙に「欺瞞的に本物」という一文を明記し、インタビューの最後に生成的人工知能によるものであることが明記されたものだったが、論争を巻き起こした後、編集長は解雇された[75]

2023年、Googleは報道機関に対し、「時事問題の詳細」などの入力データに基づいて「ニュース記事を作成する」とされるツールを売り込んだと報じられた。この売り込みを受け報道機関側は、このツールを「正確で手の込んだニュースを作成するための努力を軽視している」と評した[76]

2025年1月、Appleが提供するApple Intelligenceが提供するニュース記事の要約機能で誤情報の提供が相次いだため、提供を一時停止する事態になった[77]

2025年2月、NHKが提供するネット配信ニュースのAI自動翻訳サービスで、中国が領有権を主張する沖縄県尖閣諸島を「釣魚島」(同諸島の中国名)と誤翻訳する事故が発生し、NHKは同サービスを廃止した[78]

個人情報・機密情報の流出

生成AIにユーザーが入力したデータは生成AI提供事業者のサーバに送信されるため、AIの学習データに利用される可能性がある。特に個人情報や機密情報を入力すると、生成AIの提供事業者や第三者に情報が流出する危険性がある。具体的には、技術情報や営業秘密、会議の議事録などを要約しようと、プロンプトとして入力することで流出するケースが考えられる[79][80][81]

サムスン電子AppleAmazonなど一部の企業では情報漏洩の懸念から、生成AIの利用を一部または全面的に禁止している[80][81][82][83]

学習機能をオフにするオプトアウト申請を行った場合でも、入力情報は生成AI提供事業者のサーバに保存されることになるために注意が必要である[84]

サイバー犯罪

生成的人工知能の出現以前からディープフェイクは既にフィッシング詐欺を含むさまざまな種類のサイバー犯罪に悪用されている[85]。生成的人工知能によるテキスト生成AIはECサイト上で高評価の偽レビューを量産するために大規模に行うことなど可能にした[86]。ほかにもWormGPTやFraudGPTなどサイバー犯罪を目的とした大規模言語モデルが作成された例もある[87]

グーグルでクリック詐欺の対策に従事していたシュマン・ゴーセマジュムダー英語版は、当初メディアを騒がせたディープフェイク動画はすぐに一般的となり、その結果より危険なものになるだろうと予測している[88]。2023年の研究では脱獄や逆心理学などを使った攻撃でChatGPTに掛けられた保護を回避して有害情報を抽出する脆弱性を確認した。同研究ではChatGPTのソーシャルエンジニアリングフィッシング詐欺への悪用の潜在的リスクを指摘しており、一方で、生成的人工知能を活用することでサイバーセキュリティを改善できる可能性を指摘している[89]

ハルシネーション (幻覚)、作話

生成的人工知能によって生成されたコンテンツにはもっともらしく聞こえる嘘や偽情報がランダムに出現する。この現象はハルシネーション(hallucination、幻覚)と呼ばれ[90][91]、研究者はChatGPTに用いる大規模言語モデル(LLM)などでは最大27%の確率でハルシネーション (幻覚)を起こし[92]、46%に事実関係の誤りが存在すると推定している[93]

大規模言語モデルはもっともらしい文章を生成できるものの、処理対象の言語の意味を理解してはいないという意味では確率的オウムという言葉が用いられる[94][95]。この用語は2021年にティムニット・ゲブルマーガレット・ミッチェル (科学者)英語版らによって発表された論文「On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜 」(日本語: 確率的オウムの危険性について: 言語モデルは大きすぎるか?)において、広く知られるようになった[96][97]

2023年にはアメリカ合衆国ニューヨーク州の弁護士が審理中の民事訴訟の資料作成にChatGPTを利用した結果、存在しない判例の「引用」を6件行い、罰金を課せられるという事例も発生している[98][99]

ハルシネーションを軽減するための研究が行われているが[100]、ハルシネーションは避けられないものであり、大規模言語モデルの本質的な限界である可能性が指摘されている[101]。また、大規模言語モデルは問題を軽減するように設計されたものであっても、かえってハルシネーションを増幅させることがあることが指摘されている[102]

生成的人工知能が医療教育現場で推奨されることもある現在[103]、生成的人工知能によるこうしたハルシネーション(作り話)を見抜く批判的思考が一層求められている[104]

人種的、ジェンダーバイアスの強化

生成的人工知能が訓練データに含まれる文化的偏見を反映し、増幅する可能性が懸念されている。例えば、医師、エンジニア、教師など社会的地位が高いとされる職業を男性に、秘書や料理人、売春婦など社会的地位が低いとされる職業を女性に与える傾向がある場合 [105]、「CEOの写真」から白人男性の画像を不釣り合いに多く生成される場合などが挙げられている[106]。入力プロンプトの変更[107]や訓練データの再重み付けなど、バイアスを軽減する手法が研究されている[108]

ビッグテックへの依存

最先端のAIモデルの訓練には膨大な計算能力が必要であり、十分な資金力を持っている大手テクノロジー企業に依存することが多い。GoogleMicrosoftのようなビッグテックが所有する計算資源への依存や寡占が懸念される[109]

エネルギーと環境問題

生成的人工知能の地球環境面への悪影響が指摘されている。特に、データセンターの運営に際する冷却水への淡水の使用[110][111]、電力消費[112][113][114]、それに際する温室効果ガスの排出[115][112][116]などが懸念されている。例えば、ChatGPTによる検索には、Google検索の10倍の電力が必要と指摘されており[117]、生成的人工知能に依存するアプリケーションの普及、あるいはモデルの訓練の増加による地球環境への負担が懸念されている[113][111]

提案されている対策として、モデル開発やデータ収集の前に潜在的な環境コストを考慮すること[115]、データセンターのエネルギー効率を高めること[112][116][110][111][113][114]、より効率的な機械学習モデルを構築すること[112][110][111]、モデルの再訓練回数を最小限に抑えること[116]、これらのモデルの環境影響を監査するための政府主導の枠組みを開発すること[110][116]、これらのモデルの透明性を担保する法規制を講じること[116]、エネルギーと水の浪費を規制すること[110]、研究者にAIモデルの温室効果ガス排出量に関するデータを公開するよう奨励すること[116][113]、機械学習と環境科学の両方に通じる専門家の数を増やすことなどが提案されている[116]

低品質なコンテンツの増加

Thumb
撤回済みの論文に掲載されていた科学的には出鱈目であるイラスト。画像生成AIのMidjourneyで作成されていたことが判明している[118]

スロップ(英:slop)と呼ばれる用語は人工知能によって粗製濫造されるスパムに似たコンテンツに対して使用される。ニューヨークタイムズによれば、スロップとは「ソーシャルメディア、アート、書籍、検索結果に表示される粗悪な、または望ましくないAIコンテンツ」である[119]

生成AIによって新たに生じる問題として指摘されているのは、ソーシャルメディア上の低品質な生成AIコンテンツに対するモデレーション[120]、金銭を得る目的で低品質なコンテンツを投稿する悪質なユーザーの増加[120][121]、政治的な偽情報[121]、スパム的に投稿される科学論文[122]、インターネット上で高品質あるいは求めるコンテンツを見つけるための時間と労力の増加[123]、検索エンジン上の生成コンテンツの増加[124]などがあり、ジャーナリズムの存続自体への懸念も表明されている[125]

生成AIの普及に伴ってニンテンドーeショップPlayStation Storeなどのゲームのマーケットプレイスでは、濫造された粗悪なゲームが氾濫して問題視されている。このようなゲームは「eSlop」と呼ばれ、人気作との混同を狙った作品名やAI生成画像の多用、同じゲームシステムにアセットをすり替えただけ(アセットフリップ)などの特徴を持つ。これに対し、ソニー・インタラクティブエンタテインメントなどの運営会社は該当作の削除などの対応を進めている[126][127]

Amazon Web Services AI Labsの研究者らが発表した論文によると、ウェブページのスナップショットであるCommon Crawlの60億以上の文章のサンプルのうち、57%以上の文章が機械翻訳されていた。これらの自動翻訳の多くは、特に3つ以上の言語に翻訳された文章については、品質が低いとみなされた。リソースの少ない言語(例:ウォロフ語コサ語)の多くは、リソースの多い言語(例:英語フランス語)よりも多くの言語に翻訳されていた[128][129]

AI技術の発展により、複数の領域でAIに生成されたコンテンツ増加した。ユニヴァーシティ・カレッジ・ロンドンの調査では、2023年には6万件以上の学術論文(全出版物の1%以上)がLLMの支援を受けて執筆される可能性が高いと推定されている[130]スタンフォード大学の人間中心AI研究所によると、現在、新たに出版された情報科学分野の論文の約17.5%と査読文の16.9%に、LLMによって生成されたコンテンツが組み込まれているとしている[131]

視覚的なコンテンツも同様の傾向を示している。 ストック写真検索サービスEverypixelの統計によれば、2022年にDALL-Eが一般公開されて以来、毎日平均3400万枚の画像が作成されたと推定されている。2023年8月時点で、150億枚以上の画像がテキストプロンプトを使用して生成されており、そのうち80%はStable Diffusionに基づくモデルによって作成されていると推定されている[132]

生成AIモデルの訓練データにAI生成コンテンツが含まれる場合、そのモデルに欠陥が生じる可能性がある[133]。生成AIモデルを別の生成AIモデルの出力のみでトレーニングすると、品質の低いモデルが生成されるため、訓練を繰り返す毎に徐々に品質が低下し、最終的には「モデル崩壊」につながる[134]。これに関しては手書き文字のパターン認識と人間の顔写真を使ったテストが実施されている[135]

一方、生成AIによって合成されたデータは、現実のデータの代替としてよく使用される。このようなデータは、ユーザーのプライバシーを保護しながら、数学モデルの検証や機械学習モデルの訓練に利用できる[136]。構造化データの場合も同様である[137]。このアプローチはテキスト生成に限定されず、画像生成やコンピュータービジョンモデルの訓練に使用されている[138]

法規制

アメリカではOpenAIAlphabetMetaを含む企業が2023年7月にホワイトハウスとの間でAI生成物に電子透かしを入れる自主協定を締結した[139]。 2023年10月、大統領令14110により国防生産法が適用され、すべての米国企業に対し、大規模AIモデルを訓練する際に連邦政府に報告することが義務付けられた[140]。トランプ大統領はバイデン政権のAI安全規制を撤廃した。[141]

欧州連合人工知能法には生成AIシステムの訓練に使用される著作権保護の対象となるデータを開示すること、およびAI生成物にラベル付けを義務付ける要件が含まれた[142][143]

中国では、政府のサイバースペース管理局が導入した生成AIサービス管理のための暫定措置により、生成AIが規制対象となっている。これには、生成された画像やビデオに透かしを入れるための要件、訓練データとラベルの品質に関する規制、個人データの収集に関する制限、生成AIが「社会主義の中核的価値観を遵守」しなければならないというガイドラインが含まれている[144][145]

著作権

要約
視点

訓練データの著作権

Thumb Thumb
拡散モデルでは訓練データ類似度の高い出力をする場合がある。(左)Stable Diffusionの訓練データセットに含まれるアン・グラハム・ロッツの肖像(右)Stable Diffusionに「Ann Graham Lotz」のプロンプトを入力して得られた生成画像[148]

生成的人工知能を含む機械学習一般に関して、訓練する際に使用するデータセットに含まれる著作物に関して、著作権法の解釈が議論されている[149]

著作物を機械学習の訓練目的で利用することについては国や地域によって著作物の利用についての法規制は異なっており、各国の法理において機械学習での著作物の利用が認められる範囲に関して広範な論争が為されている。欧州ではDSM指令によって学術目的以外ではオプトアウトにより著作物の利用が制限される[150][151]。これは著作権者がDSM指令の規定に基づく「機械可読な形式」で無断データ収集を拒否する意思表明をした場合、AIのデータセット収集や提供が著作権侵害になりうるものとなる[152][153][154]

アメリカではフェアユース規定において、どの程度まで機械学習の訓練が適法になるか議論の的になっている[151][155]。2025年2月には、トムソン・ロイターがAI企業による著作物の無許諾利用を訴えた裁判で、フェアユースを認めず著作権侵害を認定する判決が出された[156]。この判決は無許諾で著作物を訓練データとして利用することへのフェアユースの成立を難しくするものとされ、生成AI事業者への打撃になるものであると考えられている[157]

日本においては学習段階で行われる著作物の複製に関して著作権法30条の4で複製権の権利制限をしている[158]。また、ベルヌ条約におけるスリーステップテスト等の国際条約との関係も議論されている[159]

2024年、中国の裁判所広州インターネット法院は、「ウルトラマン」に類似した画像が生成できる生成AIを提供していた事業者に著作権侵害を認め、損害賠償を命じる判決を出した。同法院は「生成した画像はウルトラマンの独創的表現を部分的または完全に複製したもの」と著作権侵害を認め、損害賠償と同キャラクターの生成停止を命じた[160]

生成的人工知能に関する著作権議論

Thumb
シカゴ大学の開発したNightshadeはアーティストが生成AI事業者に対抗する手段として、同大学の研究者によりリリースされた)[161][162]

ChatGPTMidjourneyなどの生成AIモデルは、著作権で保護された著作物を含む大規模な公開データセットをベースに訓練されている。AI開発者側は、フェアユース法理を根拠に訓練の合法性を主張しているが、著作権者側は権利侵害を主張している[149]。AI開発者側は、変容的な利用であり、著作物の複製を一般に公開するものではないと主張している[149]。しかし、著作権者側からはMidjourneyなどの画像生成AIは、著作権で保護された画像の一部とほぼ同じ出力が得られるとしており[163]、生成AIモデルは、元の訓練データと競合すると指摘している[164]

生成AIの訓練に使用される著名なデータセットの1つとして、LAION-5Bが挙げられる。これはインターネットからスクレイピングして収集した画像と説明文のペアからなる巨大なデータセットを公開したものであり、Stable DiffusionMidjourneyNovelAIなど有名なtext-to-imageモデル英語版の基盤データとして用いられている。このデータセットはAI開発者に重宝される一方で、著作権保護の対象となっている画像が含まれており、基本的に権利者の同意なく収集されていることや児童ポルノなどの違法なコンテンツが含まれていることなどから、広く問題視されている[165][166][167][168][169]

訓練に用いるデータセットに著作物が使われる事例に対して、出版社やクリエイターを中心として懸念が広がっており、米国ではニューヨークタイムズマイクロソフトOpenAIへの訴訟、ユニバーサル・ミュージックAnthropicへの訴訟など著作者や著作権管理団体によるAIの開発、提供事業者への訴訟が提起されている[170][171]

ワシントンポストは、ニュース記事を要約するLlama3を基盤とするチャットボットであるMetaAIが、直接の出典なしに記事から文章をコピーし、オンラインニュースメディアのトラフィックを減少させる可能性があると指摘した[172]

フランスの競争委員会(日本における公正取引委員会)は報道記事の使用料に関してメディアとの交渉を十分に行わなかったため21年に制裁金をGoogleに課したが、その際にGoogleが約束した報酬算出の情報開示などが不十分であったとして2億5000万ユーロ(約410億円)の制裁金を課した。またこの際に、同社のチャットボットAI「Gemini」の開発に際して「メディアや競争委員会に知らせず報道機関や出版社のコンテンツを利用していた」と批判した[173]

日本

日本の著作権法30条4では、『思想又は感情の享受を目的としない場合』かつ『著作権者の利益を不当に害することとならない場合』には原則として著作権者の許諾なく著作物の利用を行うことが可能である[174]

日本政府の見解として文化庁は、生成AIの開発学習段階における情報解析は「享受」を目的としない行為としている。一方で、ファインチューニング等によって学習データ(データ群)に対して意図的に「作風などを越えた創作的表現の共通したもの」を生成することを目的とする場合は「享受」の目的が併存すると考えられるとしている。著作権者の利益を不当に害するかどうかは「著作権者の著作物の利用市場と衝突するか」・「将来における著作物の潜在的販路を阻害するか」という観点から「技術の進展」・「著作物の利用態様の変化」等の諸般の事情を総合的に考慮して検討することが必要であるとしている。有償提供されているデータベース著作物(著作権法12条の2創作性の認められる選択方法や体系化がなされているデータベース)を有償で利用することなく情報解析で利用する行為は明確に抵触しえるとしている[174]

また文化庁は、生成AIを用いたAI生成物の生成・利用の段階に関しては通常の著作物と同様に、既存著作物との依拠性、類似性によって著作権の侵害の有無を判断するとしている[174]

事例

2025年1月、生成AIで「ヱヴァンゲリヲン新劇場版」「遊☆戯☆王」などの女性キャラクターのわいせつ画像を作成し、印刷したポスターをネットオークションで無断販売したとして、著作権法違反の容疑で、会社員の男(36)、自営業の男(40)が書類送検された[175]

イギリス

2025年1月現在、英国著作権法では、AI学習のために利用できる権利制限条項が存在せず、AIの学習のための著作物の利用は原則違法と考えられている。英国政府はAI開発の促進のため、オプトアウト申請されていないインターネット上のコンテンツをAIの訓練に利用できるようにする著作権法改正を検討中である[176][39]

英国政府の改正案に対しては、個人の作家やアーティストが無数のAI提供事業者に自身の作品のオプトアウトの意思を通知し、インターネットでどのように使われているかを把握することが困難であると批判が集まっている。貴族院ではオプトアウトではなく、個別に許可を要するオプトインを義務付ける法案が提案されている。英国の業界団体代表のトム・キールは、AI企業が音楽を権利者の許可なく使用しやすくするために著作権法を改正する政府の案は、「音楽業界を大きなリスクにさらしている」と意見を表明している[39]

貴族院のビーバン・キドロンは英国政府の改正案について、クリエイティブ産業を犠牲にしてテック産業を優遇するものであると述べ、「政府は、英国で数億ポンドも投じられて大成功を収めている分野から、成功が保証されないテック産業への資産の大規模な移転を提案しており、それは主にアメリカや、そして実際には中国に利益をもたらすことになる」と批判した[177]

ビートルズポール・マッカートニーBBCのインタビューで、英国政府の改正案に反対する意見を表明した。ポールはAIによって、アーティストの著作権が適切に保護されない「無法地帯」を生み出すリスクがあると述べ、「素晴らしい歌を書く若手がデビューしても、曲を自分のものにできなくなってしまう」「曲を作った人が関与できなくなってしまい。誰でも盗むことができてしまう」「事実を言えば、お金はどこかに行ってしまう。誰かがお金を貰うことがあっても、なぜ『イエスタデイ』を書いた人ではなくなってしまうのだろうか」と述べ、英国政府に改正案を再考するように促し、「法案を提出するなら、クリエイティブな思想家やアーティストを必ず保護するようにして欲しい。そうしないと、英国は彼らを失ってしまう」とも述べている[39]

ポールの意見にはエルトン・ジョンも賛意を表明し、「アーティストの生計を保護する伝統的な著作権法をAI企業が乱暴に扱うことを許そうとする動きがある。これによって、グローバルなビッグ・テック企業はアーティストの作品に無料かつ簡単にアクセスして、人工知能を訓練し、競合する音楽を作成できるようになる。これによって、若いアーティストの収入はさらに薄められ、脅かされることになる。ミュージシャンのコミュニティはそうなることを心底拒絶している」と話した[178]

生成物の著作権

Thumb
アメリカ合衆国著作権局がAIによって生成された絵の部分に限定して著作権登録を拒絶した漫画『Zarya of the Dawn』[179]

AIによって生成された生成物を著作物として認めるかどうかについて、人間の介在の有無や人間の関与の度合いによってどのように線引きをするのか、そもそも著作物として認めるべきなのか議論がなされている。

アメリカ

アメリカ合衆国著作権局は、人間の介入なしに人工知能によって作成された作品は、人間の著作者がいないため著作権を保護できないとの評定を下した[180]。米国著作権局は、この方針を改訂する必要があるかどうかを判断するために、意見の収集を進めている[181]

日本

僭称著作物問題

一般的に人間による創作的寄与のないAI生成物を著作権法で保護することはできない。生成AIの進歩によって、一見すると人間が創作したのかAIが生成したのかを容易に判断できないコンテンツが増えることで、本来著作権が付与されないAI生成物を人間が創作したものであると明示的、あるいは黙示的に偽る問題が起こりうる。この僭称著作物問題(僭称コンテンツ問題)によって、AI利用者による知的財産権の不正な独占、僭称が発覚した場合のライセンス契約やコンテンツビジネスの崩壊などのリスクが指摘されている。AI利用者による僭称行為の対策として、現行法でも債務不履行責任や不法行為責任等の民法上の責任及び詐欺罪の成立可能性が指摘されている他、著作権法121条の改正による刑事罰化も検討されている[182][183][184]

文化庁の見解

AI生成物が著作物か該当するかどうかは著作権法第2条「思想又は感情を創作的に表現したもの」かつ「自然人若しくは法人の作製したもの」に当たるかどうかで判断される。文化庁はこれに関して、AIが自律的に生成したものでなく、人が思想又は感情を創作的に表現するための「道具」としてAIを使用した場合には著作物に該当し、AI利用者が著作者となると考えられるとしており、これらの判断は個々のAI生成物について、個別具体的な事情に応じて判断されるとしている[115]

出典

関連項目

Wikiwand - on

Seamless Wikipedia browsing. On steroids.