NIIについて / About NII

機械学習の「不確かさ」にどう挑むか - NII Interview - NII Today No.81

 人工知能(AI)を活用した製品、サービスに対する関心が高まっている。機械学習(マシンラーニング)の技術が進化し、データが生み出す新たな価値への期待は大きい。ただ、機械学習が持つ「不確かさ」という特性ゆえに、企業においてシステム開発の最前線に立つエンジニアはかつてない課題に直面しているという。

 解決に向けた議論の場として、日本ソフトウェア科学会の研究会「機械学習工学研究会(MLSE)」が発足した。中心的な役割を担う国立情報学研究所の石川冬樹准教授にその背景を聞いた。

人工知能を活用した製品、サービスの社会における活用に向けて

石川 冬樹(NIIアーキテクチャ科学研究系 准教授/電気通信大学 大学院情報理工学研究科 客員准教授/総合研究大学院大学 複合科学研究科 客員准教授)
聞き手:村山 恵一(日本経済新聞コメンテーター)

村山 社会全体でAI の注目度が増し、産業界では新事業創出などへの期待が高まっています。

石川 機械学習ですごいことができる、いままでビジネスになっていなかったことが可能になるというのは指摘されている通りです。技術のライブラリーやフレームワークなどさまざまなツールが出てきました。選択肢が増え、それぞれの機能も豊富になっています。そうした技術を使うことで、機械学習を応用したシステムをつくることが容易になっています。それが今回のAIブームの背景でもあります。しかし、技術者の立場では、夢や魔法だとは考えていません。ふだん接する企業のエンジニアのなかには悩んでいる人が少なくないのです。

村山 それは一体どんな悩みなのですか。

pic_niitoday_81_1-2.jpg

石川 確かに何らかのシステムをつくることは簡単になりました。ただ、それを製品として世に送り出す、製造物責任をとるとなると話は別です。いままではソフトウエア開発にも慣習のようなものがあり、「ここまでやっておけば社会に受け入れられる」「自分たちはしっかりやったと胸を張れる」という基準がありましたが、そこがいま手探り状態になっています。

 従来のソフトウエア開発は演繹的でした。システムの目的に応じて人がルールを書き出し、それをプログラム化するわけです。一方、訓練データからつくる機械学習のシステムは帰納型のソフトウエア構築といえます。人が決めたルールで動くわけではなく、データをたくさん与えてルールをつくらせるという間接的な手法です。直接の制御はできない、いわばブラックボックス。人の感覚が裏切られるかもしれません。エンジニアにとっては、自分がつくったものにもかかわらず、何ができ何ができないのか断言できない、やってみないとわからないという状況です。

 税金の計算でもいいし、社員情報の登録でもいいのですが、これまでのシステム開発であれば、どのくらいの価値があるものなのかについて発注者である顧客と話し合い、それならばいくらで、という契約を結べます。ところが機械学習の場合、つくってみないと何%の精度が出せるのか判断できない。発注者と議論してつくるものを決める意思決定において、従来からある手法が通用しません。

 そうした状況を何とかしたいと考えて立ち上げた研究会がMLSE です。ファシリテーターとして、勉強会を開くなど「場」を設けていきます。企業に勤めるエンジニアや研究者が参加者の中心になると想定しています。海外の研究を紹介したり、雑誌で特集記事を組んだりといったことにも取り組むつもりです。

村山 一方ですでにいろいろなシステムが機械学習を用いて開発されています。エンジニアはもやもやした気分で開発に取り組んでいるのですか。

石川 多いのは、まずはPoC(Proof of Concept:概念実証)でお試し版をつくり、うまくいったら本番のプロジェクトに移るというケースですが、これにも問題があります。それは「PoC 貧乏」に陥る例があちこちで散見されることです。帰納型ソフトウエアの特徴として、100%の正解を保証できないという点が挙げられます。発注者が後から「精度が足りない」「能力が不十分」などと指摘できてしまうわけです。エンジニア側、受注 企業側の悩みのタネになっています。

 PoC では実験に利用するデータもお試しで、できることに限りがあります。お試しデータではうまく動いたシステムも、本番データでうまくいくとは限りません。そこからエンジニアの苦労が始まることもあります。ですから発注者ときちんと議論するための道具づくりや、情報整理術の確立などが重要になります。

pic_niitoday_81_1-5.jpg

村山 「100%の精度は出せない」という機械学習の特質をわかったうえで使っていくという社会的なコンセンサスが必要になります。

石川 そうです。もちろんエンジニアは開発にベストを尽くし、技術的な穴をつぶすよう努力しています。それとは別に、システムの利用者や開発の資金を出す人が、機械学習とはそういうものであると理解する。それが大切です。それでも、たいへん役に立つ使い方がたくさんあります。リスクゼロのものはないという現実を突きつけられています。落ち着いて議論し、皆さんがそれを受け入れる必要があると思います。

 例えば、自動運転車の実現に向けてカーメーカーが努力を尽くすのはすばらしいことですが、それには機械学習というものについての合意形成が欠かせません。それがないまま事故が起きると、過剰な拒否反応、規制につながりかねません。エンジニアが安心して開発に取り組めるように環境を整えることが重要です。

村山 リスクを踏まえたうえで、機械学習の恩恵を最大限に引き出す方向に世の中は進むべきですね。

石川 機械学習の一番すごいところは、「言葉にできない不確かなものもシステムにできる」という点です。いままでは要求を言葉にし、つくるものをルール化しなければならなかった。しかし、人が本当に実現したいことは、えてして漠然としているものです。そんなモヤッとしたものでも機械学習なら動くシステムにできるのです。

 ですからエンジニアも、新たな課題に苦しみつつも、仕事を楽しんでいます。新しいものをつくる、試行錯誤して何かを生み出すというのは心躍るものです。技術開発の力や合意形成の力でなんとか課題を乗り越えたい。MLSE という研究会を通じ、問題意識を持ちながら楽しく盛り上げていければと思います。

村山 AI 分野の研究開発を巡っては、有力なIT 企業が多い米国が先行し、それを中国が国を挙げて追い上げています。米中二強の構図で日本が埋没すれば、国の競争力、安全保障の面から問題ではないですか。

石川 研究者としてやるべきことは、機械学習が入ったシステム全体をしっかりつくることです。帰納と演繹を融合し、すごく大事なところはルールベースで安全性を担保する。いいとこ取りで全体の完成度を高めるのが究極の目標です。機械学習が実用の段階になりましたが、いままでのつくり方との組み合わせを追求するのが次のステップになります。

 モノや機械学習、従来型のシステム、ソフトウエアがかみ合っていいものができる。それが本来めざすところです。例えばパソコン用のOS(基本ソフト)は米国のものばかりですが、モノの部分は日本のものづくりに強みがあります。世界で戦える人がたくさんいます。そういう領域にAI が入り、さらに強くなるのが望ましい。製造業のなかには機械学習を試している企業がたくさんあります。総合力で日本の強みが発揮されればいいと思います。

(写真=佐藤祐介)

インタビュアーからのひとこと

 膨大なデータからマシン自身が学ぶ機械学習は、これまでなら困難だった領域にシステム化の可能性を広げたという意味で画期的だ。社会がAI に熱い視線を注ぐのも無理からぬ面がある。ただ、できあがるシステムは決して万能ではなく、間違うリスクが潜む。システムのつくり手と使い手が納得し信頼し合う関係を築く知恵がいま問われている。

pic_niitoday_81_1-3.jpg村山 恵一
Keiichi Murayama
1992年 東北大学法学部卒、日本経済新聞社入社。産業部でIT・電機、自動車、医療などを取材。
ハーバード大学留学、シリコンバレー支局を経て2012 年編集委員。2015 年論説委員兼務。2017 年から現職。
担当はIT、スタートアップ。近著に『STARTUP 起業家のリアル』。

関連リンク
ダウンロード
page3329

注目コンテンツ / SPECIAL