Sep. 2023No.100

生成AIに挑む

NII Today 第100号

Interview

LLMとロボットが奏でる未来

大規模言語モデル(LLM:Large Language Models)に基づく対話型人工知能(AI)技術「ChatGPT」が日本社会を激しく揺さぶり続ける。揺さぶられっぱなしでは終わらないと、国立情報学研究所(NII)は「LLM勉強会」を今年、2023年5月に立ち上げ、大学や研究機関、企業から300人超(2023年8月現在)の研究者・技術者が参加する大型物理実験並みの研究態勢を整えた。

目指すのはLLMの動作原理の解明と日本語言語モデルの構築。日本の強みであるロボット研究とのコラボレーションも視野に入れる。人型ロボット研究に取り組む尾形 哲也 早稲田大学教授と日本語のLLM研究をリードしてきた黒橋 禎夫 NII所長が夢を語り合った。

尾形 哲也 氏

OGATA, Tetsuya

早稲田大学 基幹理工学部表現工学科 教授
同大学 AIロボット研究所 所長
産業技術総合研究所 人工知能研究センター 特定フェロー

早稲田大学卒業後、京都大学大学院情報学研究科准教授等を経て、現職。神経回路モデルとロボットシステムを用いた、認知ロボティクス研究、特に予測学習、模倣学習、マルチモーダル統合、言語学習、コミュニケーションなどの研究に従事。2023 年文部科学大臣表彰科学技術賞などを受賞。

黒橋 禎夫

KUROHASHI, Sadao

国立情報学研究所 所長/教授
京都大学大学院情報学研究科 特定教授

辻村 達哉 氏

聞き手TSUJIMURA,Tatsuya

共同通信 編集委員兼論説委員

1984 年東北大学理学部物理第 2 学科卒。本社(東京)科学部のほか大阪、大津、釧路、札幌、秋田で勤務。書いた記事の中で割と思い出深いのは「高松クレーターの隕石クレーターリスト登録見送り」「外務省がインド人物理学者にビザ発給せず」「STAP 細胞、再現も究明も不要」。著書に『日本の知、どこへ』(共著、日本評論社刊)など。

日本語LLMの構築とロボットへの応用

―― LLM の動作原理をどうやって解明するのですか。

黒橋 まずやらないといけないのはトレーニングデータをオープンにすることです。ChatGPTがどういうコーパスで学習しているのかはブラックボックスで、使っているニューラルネットワークもある種、ブラックボックスのようなものです。ChatGPTに質問して答えが返ってきても、それが何に基づくものなのかわからない。わからないことだらけで、知らないうちに著作権が侵害されているのではないかという不安も高まっています。

 そこで私たちは「こういうもので学習しました」とコーパスをすべて公開し、入力に対する出力をすべて分析できるような環境を作ろうとしています。すると、ある質問に対してこういう文章が答えとして出てきたけれど、この質問に非常に近い文章はコーパスにこれだけあるとか、むちゃくちゃな答えを出力するハルシネーションがどのように起きているのか、といったことが少なくとも観察はできるようになる。

 その上で、このニューラルネットワークの中で何が起こっているかを解明したい。それは本当にチャレンジングな目標です。また、ChatGPTとは違って、日本語に強いものを作りたい。それをベースにいろいろな分野で新しいことに挑戦できるようになる。その中で私が面白いと思っているのは、ロボットへの応用です。

尾形 ロボットの制御にディープラーニングを使うという研究 の歴史はそれほど長くありません。主要な国際会議のキーワードになったのが6年ほど前です。どういうふうに使っていいか、まだまだわからないところがあるのですが、私は脳神経科学のバックグラウンドがあるので、その視点からディープラーニングを見直して、ロボットを安定して動かすことに使う研究をしています。

 これまでは主に、人が教師となってロボットの手を動かして、タオルを畳んだり、スクランブルエッグを作ったり、といった動作を学習させてきました。ロボットは自ら動くことができるので、目の前の状況が学習した時の状況から多少ずれていても、動くことによって自分が知っている状況に近づけて、指示された動作を実行できるのです。このような考え方は能動的推論などと呼ばれています。

 次の段階として、運動から言葉をつくる、あるいは言葉から運動をつくるといったことをさせたい。曖昧な言葉による指示も理解してもらいたい。しかし、運動には学習に必要な大規模データベースがありません。例えば「腕を伸ばす」という言葉の表す動きには、コーヒーを取りにいくとか、ボクシングでパンチを出すとか、さまざまな場合がある。そのため幅広く学習する必要があるのですが、それに使える大規模データベースがない。
 この壁を乗り越えるのにLLM を使えないかと考えていて、まずは LLM の中身を見てみたい。それができる場として、LLM勉強会に大いに期待しています。究極的には LLM が学習する段階にロボットが使えないか、とも考えています。

LLMとロボットの海外事情

黒橋 研究に当たっては日本だけでは限界があるので、計算資源などの基盤が今後ある程度できあがったら、少なくともアジアや欧州と協力していこうと思っています。小さなプロジェクトでは頭脳的にも予算的にもGAFAなどに太刀打ちできない。大きくすることで多くの人に興味を持ってもらったり、企業から寄付が来たりして持続的な発展が見込めます。
 ところで、LLM とロボットを結び付ける研究は海外ではどうなっていますか。

尾形 GAFA で LLM をやっている人たちはロボットに絡んでいないようです。ロボット屋もそこに興味があるわけではない。互いが学習済みのモデルをバラバラのモジュールとして扱っています。私たちのように、「LLMを作るとき」にロボットが要るんじゃないかとか、ロボットの何かを取り込んだらLLMがもっと面白くなるんじゃないかと考えている人がいるかどうか。

 ただ、ChatGPTを出したOpenAIは2021年にロボット部門を解散しましたが、今年、2023年に入り、ロボット企業への投資を始めました。GoogleはRT-1というプロジェクトでロボットを13台、1年半にわたって動かし続けてデータを集めています。関係する研究者は、生物の発達プロセスと同様に、ロボットを能動的に動かすことが重要と考えているようです。

 ロボットを通じて人間の認知発達プロセスを理解しようとする「発達ロボティクス」という分野があります。早稲田大では50年前に世界初の人型ロボットが作られたのですが、当時のモチベーションも、人間を理解するための道具とすることでした。言語がどのように発達に関わっているのか。LLMを使って、そんな研究ができるかもしれません。
 発達ロボティクスの研究は日本と欧州が中心で、米国ではほとんどやっていないので、僕らにチャンスはあります。

黒橋 まずは LLMを作らないと何も始まらないのですが、人間が身体性を持ちながら世界を認識していくプロセスを、ロボットのモーターの情報や視覚の情報を入れながら学習させていくことで探っていくというのは、次の大きな展開になるかと思います。

LLMで効率よくロボットが学習できないか

―― 人間理解の研究とロボット研究とはかけ離れているような印象を持っていました。

尾形 普通はかけ離れています。産業用ロボットには必要ないでしょう。しかし、人型ロボットの研究者がそこに関心を持つのは至って自然です。なぜ人間はちゃんと体を動かせるのか、よくわからないところがたくさんある。そこでまず、うまく動くロボットやシステムを実際に作ってみて、そこから動く理由を探ろうという構成論的アプローチと呼ばれる研究方法があるのです。

 LLMには人間と違う部分がもちろんいっぱいあるのでしょうが、かなり似ている部分も絶対あるはずです。心理学の研究者が ChatGPT に「この人は何を想像しているか」と尋ねたら「こんなことを想像していると思います」と正しく答えたなどという話があります。かなり気持ち悪い存在であるとも言えますが、そういうことができるからには、何か私たちに近い仕組みも入っているはずなんですね。

黒橋 目標としては、LLMを使って、比較的少ない学習でロボットが早く賢くなってくれないか、というのもありますね。

尾形 そうなってくれることが理想です。私たちの研究の範囲だと、言葉というかある種のラベルと一緒に学習すると運動を生成しやすくなることがわかっています。
 例えば、タオルを畳むロボットを学習させるとき、「今あなたはタオルをつかんだよ」「畳み始めたよ」といった入力を足してやると、そのラベルが多少いい加減でも、明らかに畳み方の精度が上がるんです。

 また、何らかの物体を持たせる運動を普通に学習させると「その運動にいかに近づけるか」だけになってしまうのですが、そこに言葉を入れてやると物体の色に注意が向くようになったりする。つまりロボットがやったことに対して、それを説明するものが入ってくることによって変化が生まれる。それがどの段階から効いてくるのかにもすごく興味がある。

 人間の赤ちゃんの場合、ある行動を学習しながらも言葉が常に外からのバイアスになって、その行動の獲得を助けているという側面があるように思います。ロボットも「身体」の成長、発達の制約に合わせて一定の言語が与えられることで、もう少し楽に学習できるようにならないか、などと考えています。
 また逆にロボットの身体データを学習したモデルを基盤にして言語を学習する、という方向性にも興味があります。

ロボットの役割を任せるバランスが重要

黒橋 LLMの活用を巡っては、信頼性やバイアスなど倫理面の課題が議論されています。ロボット研究は歴史が長く、早くから「ロボット3原則」が提唱され、倫理的な問題に十分注意を払いながら研究を進めているように見えますが、実際はどうなのでしょう。

尾形 まだ結構難しい面も多いです。例えば私が参加している内閣府のムーンショット型研究開発事業で、人文社会科学の先生から「人型ロボットを白色だけにしないでください」と言われました。ジェンダーだけでなく人種にも配慮する必要があるのです。

 介護にロボットを使うことに、日本ではあまり抵抗はありませんが、ロボットに体の世話をしてもらうことに抵抗を感じるという人もいます。配膳ロボットも面白いと思うのですが、配膳は会話などを含めたエンターテインメント性のあるサービスであって、それをロボットがやるのはつまらないという人もいる。

 海外でアンケートを取ると、どの国でもロボットにやってもらって大丈夫という仕事は「料理、洗濯、掃除」なんだそうです。料理もメインのところを奪われると面白くないでしょうが、野菜を切るとか、ひたすら鍋を回すといった作業はロボットでいい。教育は微妙で、ロボットだけでやることには抵抗が強い。
 このようにさまざまな意見があるので、アプリケーションの見せ方も含めて、人が絡むときには非常に慎重にやらないといけない。

 ChatGPTとの付き合い方も典型だと思いますけど、生成AIに必要以上に感情移入するというのは明らかにまずい。私たちはロボットが執事になればいいと言っています。言われたことを黙ってこつこつとこなす。そこからスタートして、社会の情勢が変わってくれば、関係も変わる可能性がある。まずは人間がどう受け止めるかを考えてデザインすることが重要なのではないかと思っています。

黒橋 言語モデルはそもそも人間とコミュニケーションする技術なので、注意しないといけないですね。

尾形 ロボットの場合、人が必ず横にいることで、ずいぶん違うと思うんです。介護でも人がメインであって、力が必要だったり危険だったりするところをロボットがやってくれるのであれば問題は少ない。人との関わりという肝心な部分をすべてロボットに任せるのはよくない。そのバランスが大事ということでしょう。

聞き手からのひとこと

「第5世代コンピュータ」という研究プロジェクトが世界を驚かせたのは40年余り前。その後の日本の情報科学に熱気は感じられず、ディープラーニング、生成AI技術と舶来物の後追いだけかと思っていたところ、今回、お二人の話を聞き、久々に明るい気持ちになった。LLM勉強会発足で高まったエネルギーを維持するには、常に次を見据えて手を打つ必要がある。大型科学である素粒子物理実験のコミュニティは国境を超えて一丸となり、新たな手を打ち続ける。このプロジェクトが情報科学の発展の駆動力となるよう期待したい。 (共同通信 編集委員兼論説委員 辻村 達哉)

関連リンク
記事へのご意見等はこちら
第100号の記事一覧