Sep. 2023No.100

生成AIに挑む

NII Today 第100号

Interview

生成AI時代の著作権と個人情報

イノベーションを可能にする 柔軟な法規制を

既存のデータを学び、新たなコンテンツを生み出す生成AI。大規模言語モデル(LLM)をはじめ、ディープランニングモデルが「学習」するためのデータの権利や個人情報は守られるのかが問われている。情報法・政策が専門分野である一橋大学大学院の生貝 直人教授が、急速に進む議論を解説する。

生貝 直人 氏

IKEGAI, Naoto

一橋大学大学院法学研究科
ビジネスロー専攻 教授

2012年東京⼤学⼤学院学際情報学府博⼠課程修了。博⼠(社会情報学)。情報・システム研究機構新領域融合研究センター特任研究員等を経て、2021年⼀橋⼤学⼤学院法学研究科ビジネスロー専攻着任。現職。専⾨分野は情報法・政策。

井田 香奈子 氏

聞き手IDA, Kanako

朝日新聞 論説委員

東京大学(東大)文学部社会心理学科卒業後、朝日新聞社 へ。在勤中の2012年東大大学院情報学環修士課程(社会情報学)修了。朝日新聞社では社会部、ブリュッセル支局長などを経て、現在は司法関連の社説を担当している。著作に「裁判員制度の評議と報道」(『マス・コミュニケーション研究』82 号)など。

―― 生成AIが急に存在感を増して、対応する法制度が追いついていない印象があります。今、どのような状況にあるのでしょうか。 

 生成AIを巡る法制度が議論されるようになったのは、2022年11月に公開された対話型AI「ChatGPT」がきっかけでした。世界で最初の包括的なAI規制として注目を集めている欧州連合(EU)のAI規則案も、当初の案は生成AIの存在を念頭に置いておらず、2023年に入って新たに生成AIに特化した条文が示されました。この1年足らずで、世界を巻き込み急速に議論が進んでいます。

―― 国内ではどうですか。

 2023年6月に個人情報保護委員会が「生成AIサービスの利用に関する注意喚起等」を出し、また ChatGPT を運営する米 OpenAI にも個人情報保護法遵守の注意喚起を行いました。日本政府は主要7カ国首脳会議(G7 サミット)で合意した「広島AIプロセス」を主導する立場にあり、政府内に「AI戦略会議」がつくられ、本格的に議論を始めたところです。生成AIのイノベーションを促進しつつ、さまざまなリスクに対応するルールのあり方に知恵を絞っている、そんな段階です。

ただし、著作権法に関しては先行していて、2018年改正で30条の4ができ、生成AIを含む機械学習全体について、著作権者の許諾がなくても著作物を広範に利用できることになっています。

明確でない生成AIの法的位置づけ

―― 当時、なぜ改正が必要とされたのでしょうか。 

 立法の議論が本格化してきたのは2015年頃で、深層学習に基づく AI開発一般の促進に焦点が当てられていました。生成AIが念頭に置かれていたわけではありませんが、AI生成物の著作権侵害のリスクは認識されていたようです。ただもちろん、ChatGPT や画像生成 AI「Stable Diffusion(ステイブルディフュージョン)」をはじめとする生成AIのように、人間の創作者を本格的に置き換えていくという可能性までは、社会的にあまり現実味を持って議論されていなかったのではないかと思います。

―― 新設された規定によれば、ただ学習されるだけなら著作権保護の対象外ということですか。

 著作物に表現された思想や感情を享受する目的ではなく、情報解析などの目的で使っている限りは、原則として、著作権者の許諾なしに利用ができるということです。

―― 例外もあり、少しわかりにくいですね。

 特に議論になるのは、「著作権者の利益を不当に害することとなる場合」には著作権の制限の対象とはならないという部分でしょう。文化庁が 2019年に示した考え方では、著作物の市場に影響を与える、あるいは将来与えうるような利用がそれに当たるとされています。情報解析用に販売されているデータセットが典型例として挙げられますが、生成AIの位置づけはまだ明確ではありません。

また、30条の4が権利制限の対象とするのはあくまで学習の段階で、生成物が著作権侵害となるか否かは別の論点です。著作権侵害の判断では、既存著作物との「類似性」と「依拠性」が問題となります。特に依拠性は、人間の創作であれば元の著作物を見たかで判断できますが、生成AIの場合は、学習データに含まれる著作物に「依拠」したと言えるのかなど、議論が分かれているところです。

 最近の生成AIではさまざまなことが高いレベルでできるようになった。たとえば、特定の作家の作品を大量に学習させて「○○風」作品の生成もできる。こうした場合にどのような条件で著作権侵害が認められるのか。国内ではまだ訴訟となった紛争例はありませんが、そのルールを巡る議論が盛り上がってきていると思います。

―― 規定の解釈はどう定まっていくのでしょう。

 ただ裁判を待っていては、法的な予見可能性が低い状態が続いてしまいます。政府、関係者によるガイドラインづくりが考えられます。デジタル教育のために著作物を使えるようにした著作権法35条改正(2018年)の際は、教育関係団体と権利者団体が議論を重ねてガイドラインをつくり、公表しました。ただし、権利者と学校側の2者が納得すればガイドラインとしてかなり機能する問題と違い、AIの場合、どの団体が話し合えばよいのか、まだ見えない部分があります。

 生成AIを開発・提供する側、そこで学習されるさまざまなコンテンツを生み出す側の関係性は、収益配分のあり方を含め、世界で議論が進められているところです。立法での解決を求める声も出つつありますが、当面は当事者によるソフトローでの明確化、問題解決のあり方が重要になると思います。

―― 生成AIの開発・学習段階で著作権を制限されることに、権利者には疑問の声もありそうです。

 例えば報道機関のサイトであれば、情報を見るためには検索結果などからリンクをクリックし、それが広告収入や購読にもつながるとの前提がありました。ところがChatGPTのようなアーキテクチャの場合、クリックの必要もなく情報が出てくる。既存メディアのビジネスモデルの微妙なバランスが揺らいでいるのは事実でしょう。その結果、質の高い情報を提供する人がいなくなってしまうことは避けなければならない。広く民主主義の基盤の問題として考えるべきテーマだと思います。

生成物の責任は誰が取るのか

――生成 AI が学習を経て生成するものに何か問題がある場合、誰の責任が問われるのですか。

 AI基盤モデル提供者、それを具体的なサービスに落とし込んで提供するプレーヤー、一般利用者まで、さまざまな層があります。著作権侵害に限らずネット上の違法・有害情報対策は、情報自体を発信する人に加え、それを流通させるデジタルプラットフォームが果たすべき役割が非常に大きい。同様に、生成AIでも、問題あるコンテンツを生成しないよう、フィルタリングをかけたり、学習自体を調整したりと、それぞれの層の役割・立場ですべきことがある。ただし、直接サービスを提供する側だけでは技術的に対策が困難な場合もあり、基盤モデル提供者の役割が重視されるべきだと考えています。

EUのAI規則案も、基盤モデル提供者の責務を明確に位置づけた上で、その技術的特性に合わせた規律を導入しようとしています。

―― 大量のデータを扱う生成 AIで個人情報が適切に保護されるのか、懸念も出ています。

 企業、大学などが業務で利用する場合は、個人情報保護法の遵守が必要になります。例えば、プロンプトに入力する個人データが生成AI側で機械学習に利用できる場合、個人データの第三者提供となり、本人の同意が必要になる可能性があります。一般的なクラウドサービスを業務で利用する場合のように、生成AIの利用規約などをよく確認する必要があります。また、個人情報の目的外利用となる可能性にも留意が必要です。

 一般の利用者は、入力する個人情報が機械学習に利用されたときに生じうるリスクを認識した上で、利用するかどうかを判断する、利用する場合もプライバシー性の高い情報は入力しない、などが考えられます。自分や他人に関するセンシティブな入力情報が生成AIの出力に反映される可能性がある。そうした認識をリテラシーとして持っていこうということです。

研究者の倫理が必要に

―― 生成 AI が差別や偏見を助長する情報、間違った情報、偽の情報を出すこともありえます。

 そうした情報に法がどの程度介入するかは、表現の自由との兼ね合いもあり難しい問題です。
 社会的影響力の高いサービスの提供者として、間違った情報や偽情報の普及により社会に混乱を起こさない責務は重視されるべきだと思います。ただ、「こういう技術を使って」「こんなキーワードを出さない」などと具体的に法が求めるのは難しく、望ましくもない。不適切な生成 物への対処を継続的に行う、利用規約違反の行為にきちんと対応する、できる限り偏見を生まない形でモデルのトレーニングをするといった手立てを事業者が自主的に進めるインセンティブをつくる。一方、社会はそうした取り組みが十分かどうかをモニタリング、検証する。そうした仕組みが望ましいのではないでしょうか。

 EUのAI規則案も、基盤モデル提供者に「健康、安全、基本権、環境、民主主義及び法の支配への合理的に予見可能なリスクの特定と緩和」を求めようとしています。事業者が社会的責任を果たしながら、イノベーションを可能にする柔軟な法規制が求められています。

―― 技術の公正さ、公平さはどう担保されていくのでしょうか。

 世界でも数少ないプレーヤーたちが圧倒的な基盤技術やサービスを提供しつつあり、それは新しい権力の源泉にもなりえます。社会全体に影響を与えるサービスのあり方が、一部のプレーヤーに不透明かつ恣意的に決められることにならない規律は必要です。
 巨大なデータセットにアクセスできる企業は限られていることから、競争政策的な介入が求められる場面もありえます。

―― 国連安保理のAIを巡る会合の議論では、生成AIを国家が検閲や圧政に利用するのではないか、といった意見も出ました。

 G7などでは、民主的な価値に適合した形で生成AIの活用を進めていくコンセンサスがあります。一方、途上国、あるいは権威主義国家が新たなテクノロジーをどのように使っていくかという問題は、国際的に議論をしていく必要がありますね。

 46カ国が加盟する国際機関である欧州評議会はここ数年来、AI条約の起草に向けた作業をしています。拘束力のある国際条約として初めての動きです。「日本広島AIプロセス」も含め、国際的な規範の枠組みに、西側の先進国以外をどう巻き込んでいけるかが問われてくるのだと思います。

 一方で、いまだ個人情報保護に関する世界条約が存在しないように、たとえば米国と欧州の間でも基本的な価値観が異なることが少なからずある問題で、幅広い合意形成には当然、時間がかかります。急速に技術が進展しているなか、どのアプローチが正しいか、誰もわからない状態で詳細なルールを条約で固めてしまうより、しばらく各国が試行錯誤するなかで、あるべき国際的なルールを見出す必要があるのではないでしょうか。

―― AIにも、国際原子力機関(IAEA)のような国際的な監視機関を置くべきだという意見もありますね。

 原子力ほど強固な枠組にはならないにしても、軍事や偽情報戦争での利用に歯止めをかける、そのために各国の状況を監視、把握し、必要なアクションを国際社会としてとれる枠組みは、具体化する価値があるでしょう。

―― いま生成AIの開発に携わっている研究者は、どのような点に留意すべきでしょうか。。

 一つは、生成AIの学習段階で利用する場面も含め、学術研究における個人情報保護のルールも変化しており、国立情報学研究所(NII)の「オープンサイエンスのためのデータ管理基盤ハンドブック」1などのガイドも参照しながら対応をして頂ければと思います。もう一つは、生成AIのルールが今後、整備されていく過程で、作り手の側がしかるべき倫理のあり方を考え、発信することです。生成 AIが広く社会に受け入れられ、活用されていく上で、研究者自身が、法にとどまらない倫理のあり方を議論していくことが重要なのだと思います。

[1]オープンサイエンスのためのデータ管理基盤ハンドブック
https://www.nii.ac.jp/service/ handbook/

※本誌は、著作権法(令和五年法律第五十三号による改正)参照。

聞き手からのひとこと

生成AIは社会にどんな功罪をもたらすのか。それがわからないなかでの法整備や国際協調の道は険しそうだが、先行するEUの動きなど、ヒントも多いとわかった。人間になら期待できる規範意識や倫理を生来的には持たないAIの怖さも感じる。使い方を間違えれば、人間社会が築いてきた人権の尊重、公平といった価値を失うことにもなりかねず、技術を開発・提供する側の情報開示、利用者も含むオープンな議論がますます必要になるだろう。 (朝日新聞 論説委員 井田香奈子)

記事へのご意見等はこちら
第100号の記事一覧