Sep. 2025No.105

生成AI 光と影生成AIの便益、リスク、社会相関とNIIの研究活動

NII Today 第105号

Interview

生成AI 規制と法案を俯瞰する

AIによる生成技術の急速な進化。産業応用への期待が高まる一方で、ディープフェイクの高度化、偽情報の拡散、それらのリスクに、人々は脅威を感じているのではないだろうか。欧州のAI法、米国の規制、日本のAI法成立によって人々の不安は解消されるのか。情報社会相関系の佐藤一郎教授が、現状と課題を俯瞰し考察する。

佐藤 一郎

SATOH, Ichiro

国立情報学研究所
情報社会相関研究系 教授

行方 史郎

聞き手NAMEKATA, Shiro

朝日新聞 論説委員
北海道大学工学部卒。JICA青年海外協力隊員としてガーナで活動した後、1992年に朝日新聞入社。社会部、科学医療部、アメリカ総局(在ワシントン)などを経て、現在は科学技術や医療分野の社説やコラムを執筆している。

(敬称略)

欧米と日本のAI法

──日本でも先の通常国会でAI法が成立しました(2025年5月)。権利や利益が侵害される事案が起きた場合、国が事業者に対して調査する権限を設けたのが特徴です。ただ、国からの指導や助言に従わなくても罰則はありません。欧米に比べて規制色を弱め、イノベーション促進を優先したと言われていますが、どのようにご覧になっていますか。

 まず、リスクベースアプローチを採用した欧州のAI法1はよく厳しいと言われますが、人間がやったらダメなことはAIもダメと言っているだけです。米国は2025年7月にAIアクションプランを発表しました。同プランはAI分野における米国の競争力強化を狙っています。一方で米国はAIに各種基準を作ることを表明しています。現時点ではその基準が不明ですが、AIに基準がない日本のAI法より規制が緩いとはいえないことになります。また米国では、FTC(連邦取引委員会)の権限が強く、法律がなくても厳しい規制が可能です。判例を重視するコモンロー国家でもあるので、訴訟を通じて解決されることも多く、損害賠償額の大きさも日本の比ではないので、単純に「緩い」とはいえません。

 AIに緩い規制を作れば海外のAI研究開発が日本に集まるという期待があるようですが、規制に準拠したAIは欧州などで開発し、規制を守らない悪質なAIの研究開発ばかりが日本に集まる恐れもあります。

──日本でも生成AIを用いたフェイクの画像や動画、音声が拡散し、社会問題にもなっていますが、効果的に対処できるのでしょうか。

 残念ながらAI法にはあまり期待できないと思われます。まず権利や利益を侵害するようなAIは国内事業者より、海外事業者が多いと想像されますが、海外事業者はどこまで調査に協力するかが不明です。また、調査ができたところで、国にできる対応策は、問題のあった事業者名を公表するぐらいです。悪質な事業者は、事業者名を隠していたり、変えたりするので、実効性は期待できません。

p19 .png
佐藤一郎教授の資料を基に作成


──なぜ、そのようなことになってしまったのでしょうか。

 法律の準備段階で、リスクの議論を避けてしまったことが挙げられます。その結果、現行法でリスクに対応できるか否かもほとんど議論されておらず、このままでは問題が起きるたびに対症療法を繰り返す可能性が高いと考えます。

 実は2016年にあったG7伊勢志摩サミットで、日本は議長国としてAIの研究開発に関するガイドライン案を先導して提案した経緯があるのですが、その後はどちらかといえば、AIに関わる社会原則など倫理の話に軸足が移り、具体的なリスクに対応した規制のあり方の議論が十分になされないまま現在に至ります。

 背景には、規制をすればイノベーションを阻害するのではないかという考えがあったと思います。しかしながら、一般的に規制はリスクを低減する手段であり、緩くしたところで研究開発やイノベーションが活発化するとは限りません。例えば、1970年代の米国の自動車排ガス規制は厳しい規制でしたが、イノベーションを重ねて世界に先駆けて規制に準拠したエンジンをつくったのは日本の自動車メーカーです。規制がイノベーションを生み出し、市場獲得につながった事例もあるわけです。

作風を学習し生成するということ

──画像や動画を「○○風」に加工できる生成AIも登場しています。特定のキャラクターに酷似していない限り、日本では著作権侵害には該当しない可能性が高いという解釈に釈然としない思いを抱いている人も多いのではないかと感じます。

 AIの生成物でも、人と同じく、作品の類似性や依拠性で判断されますが、作風やテイストを模倣しただけなら著作権侵害にはなりません。背景として、人間が他者の作風を模倣するにはそれなりの手間と修練が必要だったという事情があるかと思います。ところが、AIなら容易に模倣ができ、しかも作品を大量生産します。

 日本では2018年に導入された著作権法30条の42で、著作物をAIの学習データとして利用する限り、許諾は原則として不要とされました。海外に先駆けてこのような法改正をしたのはある意味先駆的だったのですが、当時は生成AIが登場する前で、こんなに容易に作風を再現できるとは予測できていなかったのではないでしょうか。ですから、もう一度条文を見直してもいいかもしれませんし、あるいは訴訟を通じた判例の積み上げによって、同条の解釈を通じて範囲を広げる余地はあります。ただ、現時点では訴訟が皆無の状況で解釈すら分からない状態です。いずれにせよ過去の歴史を考えると、生成AIと著作権の法的な関係がきちんと整理されるまでには10年単位の時間がかかるように思います。

将来の文化芸術への影響

──その間にも大量のAI生成物が流通します。社会にどんな影響が出てくると予想されますか。

 既存の著作物の権利保護にばかり関心が行きがちですが、未来の著作物への影響が大きいのではないでしょうか。AIで容易に作品が作れることにより、若い人たちが、イラストレーターやクリエーター、作曲家では生計が立てられないと考え、早々とその道をあきらめる可能性があります。結果として、新たな作品が生まれなくなり、文化や芸術が衰退しかねません。

 生成AIの本質は、コンテンツ生成における限界費用を下げたことにあります。誰でも一定の品質のコンテンツを大量に作成できてしまうので、例えば、口コミサイトなどで、競合他社に対して、もっともらしいネガティブな偽のコメントを大量に書き込むというような行為も予想されます。現行法では規制が難しいのが現実です。

──著作権の対象とはならない声や容姿を勝手に使って、生成AIで合成した本人そっくりの偽の音声や動画が出回り、なりすまし詐欺やプライバシー侵害といった深刻な問題も起きています。

 肖像権やパブリシティ権を法律で明文化するという考え方もありますが、ディープフェイクも一種の表現ではあるので、過度な規制をすれば、表現の自由を制限する可能性もあり、慎重さが求められます。一方、権利が明文化されていなくても、損害賠償請求を通じて民事訴訟で解決していくという発想もあります。ただ、一般的に日本では民事訴訟が容易ではなく、さらに損害賠償金額も少ないのが現実です。民事訴訟へのハードルを下げる仕組みを考えた方がいいかもしれません。

 一方、性的なフェイク動画などは、フェイクだと分かっていて見る人がいて、流通もしています。単に本物か偽物かを見分けるだけでは問題解決にはつながらないという難しさもあります。

──生成AIはこの先、どのように進歩・発展すると予想されますか。

 生成AIの進化という点では、規模が大きくなると賢くなるという、AIのスケール則はまだ成立しているといえるでしょう。当面は学習モデルの大規模化が進められ、性能や精度が向上していくことになるかと思います。

 活用という点では、生成AIにAIの学習用データを合成させるという使い方に注目しています。例えば、自動運転を行うAIの性能は、学習データとなる走行画像の質や量に依存するわけですが、生成AIを使えば、昼間の晴れた日の実写画像から、夜や雨の日の画像を合成できます。予測不能な歩行者の動きや他の自動車の急ブレーキなど撮影困難な特殊な状況の走行画像も合成でき、これらがAIの性能を飛躍的に高める可能性があります。

 技術的なトレンドとしては、画像生成AIを使った未来予測や異常検知への活用に期待をしています。例えば、コンクリートの劣化進行に関する学習モデルを作り、初期のひび割れがどのように進行するかを予測できるようになれば、補修や点検の効率化・最適化につながります。製造業に強みを持つ日本としてはこのような産業応用の分野に力を入れていくべきだと考えます。

 個人的には生成AIを使った未来予測が科学手法として認められるようになるかに関心があります。人間が理論や数理モデルを与えなくても、大量のデータから、モデルを作り出し、結果を予測することが可能です。現在、科学の世界には、実験科学、理論科学、シミュレーション科学という3つの手法があるわけですが、第4の手法として位置づけられるのかどうかに注目しています。

リスクに対する今後の針路

──虚偽情報の出力や差別・偏見を助長させる恐れといった問題以外にも、AIが発展していくなかで、今想定していないリスクが顕在化する可能性もあります。社会に深刻な影響を与える前にどう規制しながら社会実装していくのが賢いやり方なのでしょうか。

 やはり、リスクの指摘を謙虚に受け止め、将来的に深刻になる可能性があれば、早めに手を打っていくしかないのだと思います。地球温暖化にしても、かなり昔から指摘はありましたけれど、社会全体で受け止めるまでには時間を要しました。その観点でいうと、AIの発展や普及に伴うリスクを体系的に捉え、定量的に評価するようなプロセスを、ひとつの科学の分野として確立していく必要があるように思います。

 リスク対策が一定の基準に達するまで市場に出せないというのは一見合理性はありますが、一定確率でトラブルを起こすとしても、ベネフィットの方が多いのであれば、市場に出しつつ、トラブルが起きた際の責任を求めるという考え方もありえます。

 AIの場合、自動車のように安全基準が確立されているわけではなく、どのような条件をクリアすれば安全性が担保されるのか、といった評価の「ものさし」をつくることも、そう簡単ではありません。なお、いささか突飛な考え方ですが、AIが起こした損害に対する経済的補償に関してはAIそのものに保険に加入させるという方法も提案されています。同時に事業者がそれを免責に利用する可能性もあるといえます。

[1]欧州のAI法:AIに関わるリスクを「許容できない」から「最小」の4段階に分け、リスクごとに規律を設定した。社会的な格付けや違法な監視などは「許容できないリスク」として全面禁止とし、違反した場合には巨額な制裁金が科せられる。生成AIに対しても、AIによる生成物であることを認識できるような表示を義務づけるなど厳格な透明性を求める。2024年に成立し、今年から段階的に適用が開始されている。

[2]著作権法30条4項: その作品を鑑賞する「享受」する目的ではなく、AIの深層学習などの訓練データとして使う限り、著作権者の許諾なしに利用できると定める。

聞き手からのひとこと

つい聞きそびれてしまったが、これからのAIを語るうえで欠かせないのが中国の存在だ。中国の企業ディープシークが今年(2025年)公開した生成AIには世界中が驚いた。米トランプ政権が発表したアクションプランの狙いも中国との覇権争いを制することにある。今後米中対立の激化が予想され、欧州と米国の足並みもおそらくそろわない。日本が埋没しないためにも「画像生成AIを使った未来予測」「製造業の強みを活かす」という方向性に何とか活路を見いだしたい。(行方 史郎)

写真:杉崎恭一

記事へのご意見等はこちら
関連リンク
第105号の記事一覧