PDF形式のファイルを開くには、Adobe Reader(旧Adobe Acrobat Reader)が必要です。お持ちでない方は、Adobe社から無償でダウンロードできます。
Adobe Reader の入手

 

市民講座

 
 

平成28年度 市民講座「情報学最前線」


第4回
2016年11月29日(火)

インタラクティブな知能
AIをバズワードで終わらせないために

山田 誠二 (国立情報学研究所 コンテンツ科学研究系 教授)


 

講演当日に頂いたご質問への回答(全33件)  

Q1.
参加者実験で大変な事や、気をつけるべきことなどはありますでしょうか?
・何をもって「良い」とするのですか?
・実験方法は具体的にどうやっているのですか?
A1.
実験倫理を守ることが大切です。また、実験結果は統計的検定を適用して「よい」を判断します。具体的な方法は、ここでの回答の域を超えていますので、お調べ下さい。
Q2.
最後の質疑応答で、プログラミングされていない事は予測できないというお話しがありましたが、やはり機会学習や統計モデルを使った時系列データの予測というのは、相当難しいのでしょうか。
A2.
単純なパターンの繰り返しなどの予測はかなりの精度でできると思いますが、株価予測や天候・気温の予測などはまだまだ難しいと思います。
Q3.
自分のパソコンで試してみる市販ソフトのようなものはあるのでしょうか。
A3.
現在、フリーのAIライブラリがたくさんあります。
Q4.
先生が考える「これはスゴイ」というような現時点で世界一のAIは何ですか?
A4.
なかなかいい質問ですが、すぐには思いつきません。
Q5.
AIが人間を攻撃するということはないのですか。
A5.
誤作動でそうなることはありえます。ですが、通常は人間を攻撃しないようにプログラムされています。
Q6.
人工知能についてのクライテリアとして、チューリングテストが(昔は)いわれていたが、今はもうこのテストは役に立たないと考えてよろしいでしょうか?
A6.
チャットのやり取りなので、現在においては、やり取りされる情報が制限されすぎている感があります。
Q7.
人間同士のインタラクションにおいては、(特に言語による会話では)
 ・話しの間合い、スピード、 相手の理解を待つ
 ・相づちうつ
 ・わざと間合いをとって相手にしゃべらせる
などのテクニック?があると思います。こういった点をより自然に実現するような研究はなされているでしょうか?(人間側のモデリングの問題かもしれませんが。)
A7.
はい、人間をモデリングして、それをAIに載せる研究がいろいろあります。ただし、一般的になかなか難しいです。
Q8.
AIの定義を教えてください。
AIはプログラムである。であれば、どういう条件のプログラムがAIなのでしょうか。推論ができて、自己学習が出来るならAIでしょうか?
A8.
AIの定義は難しいですが、推論、学習、情報に基づく意思決定などの人間の知的な処理ができれば、AIと呼んでいいと考えます。
Q9.
AIの研究に心理学は使われますか。
A9.
心理学よりも認知科学の概念、方法が使われます。
Q10.
日本のAIをブームで終わらせないために、どのような戦略をお考えですか。
日本では研究テーマのブームが過ぎると予算が獲得しにくくなると思います。予算がつかなければ研究は難しいですよね。アメリカは人工知能の軍事利用など、国主導の部分もあり、研究が下火になるとも思えません。というわけで、日本で研究する先生は、どのようにその研究の有用性を示していかれるのかお聞き出来ればと思いました。
A10.
ブームを長引かせる、ブームの後に何かを残すことについては、人工知能学会としても考えています。研究そのものの質を高めることはもちろん必要ですが、若手育成、ポスドクの問題もなんとかしなければいけないと思います。また、AIにもよりますが、私のやっているAIは実はそれ程研究費がかかりません。必要なのは人材(=人件費)だと思います。
Q11.
人工知能について学習、認識の話しは良く聞きますが、持っている知識や経験を基にした思考や、今まで無かった新しい考えをひらめく能力についての話しが出ないのはなぜでしょうか?研究が進んでいないのでしょうか?
A11.
はい、発想や創造については、研究が進んでいません。まず、発想や創造とは何かが曖昧でわからないので、なかなか進みません。
Q12.
人とAIが協力することで、「1+1=3」になるような創造的な成果が得られるような具体的な場面やケースで思いつくことがあれば教えてください。(人同士の協力、AI(機械)同士の協力よりも、AIと人の協力のほうが優れているというような事例)
A12.
いい例かどうか、わかりませんが、火星探査ローバーとかをAIと人間が協力して操縦するタスクなどはいかがでしょうか。
Q13.
親のAiと、子のAiがいたとして、AiはAiを育成できるのでしょうか?
A13.
これは面白い問題ですね。何らかの意味で育成できると考えられます。また、AI同士が切磋琢磨して学習していくこともできるでしょう。
Q14.
教師あり学習タイプのAIシステムと教師なし学習タイプのAZシステムとでは、どちらが今後の主流(実用的に)なると、山田先生はお考えでしょうか?
A14.
教師ありと教師なしは両方必要です。ただ、今は教師なしの方の開発が少し遅れているように感じます。
Q15.
ニュースリリースによると日立製作所では汎用AI「H」を開発し、市場提供をはじめたとのことですが、山田先生がもし、この「H」のことをご存知であるならば、汎用AIという点に関し、先生のご所感を聞かせてもらえればと思います。
A15.
「H」の中身をちゃんと理解していないので憶測になりますが、汎用AI、あるいはAGIの完成形は存在しないと思います。もう少し言うと、コンセンサスのある汎用AIの定義がないので完成したと判断できないでしょう。ゆえに、日立製作所「H」は汎用AIではありません。というか、そんな何でもできるAIは無理だということが、AI研究60年の歴史から得られた知見だと思います。
Q16.
「AIの分野では米国とものすごく差がついてしまっている」とのコメントがありましたが、具体的にどの会社のどの技術が優れているのでしょうか。
A16.
Google、 Microsoft、 Facebook などです。
Q17.
社会科学への違和感って、例えばどんなことですか?
A17.
偏見かも知れませんが、実験の再現性が十分でない、評価の客観性が乏しい、などを感じます。
Q18.
人間とAIの協力的な関係を考えるべきとのことでしたが、将来、AIを使うというより、助けるというふうになるのでしょうか?
A18.
そうですね、AIを助ける場面とAIに助けられる場面の両方があると思います。
Q19.
企業で業務改善にAI支援のシステムを作りたいと考えています。IBMのワトソンを使ったProf。 Of Conceptを作りましたが、データマイニングやテキストマイニングには結局 使えないようです。CMに出てくるようなソリューションはどうしたら実現できますか?コツみたいな考え方のヒントを頂ければ幸いです。
A19.
すいません。IBMワトソンの使い方は存じません。
Q20.
人の認知モデルを1つに絞るのではなくて、数のパターンの中から対話や行動の観察の結果を見て推定した方が良いのではないですか。人によって認知のしかたは異なると思うので、相対的なものだと思います。心理学等で一つのモデルに決まっているのかもしれませんが。
A20.
はい、そうだと思います。一つのモデルは、ある側面と切り取っているに過ぎません。ただ、どのような側面から切り取るか、どのような表現を使うか、が研究のポイントになります。
Q21.
人間は非言語のコミュニケーションや視覚情報の影響を比較的大きく受けると言われていますが、これらの知識も応用されているのでしょうか。
A21.
人間の顔表情から感情状態を推定して利用するなど様々研究がこれからもっと活発になるでしょう。
Q22.
IISで年金運用をしようとした場合、どのようにAIと人間は協調できるのでしょうか?「AIは単なるプログラム」というのは、80年代の話しではないのですか?相場投資を行う場合、即時に統計計算を膨大なデータから行うので人間は追いつくことができません。しかも結果に至る過程をトレースできず検証できない(ディープラーニングの場合)ので、説明責任が果たせません。AIが年金機構の金の運用に失敗したら人間は責任だけ取らされるのではないのでしょうか。
A22.
基本的にAIはコンピュータ工学の一つで、ソフトウエアで実装されている限り、「AIは単なるプログラム」という言い方は成り立つと思います。それを強く擬人化しようともです。年金運用のIISでは、おっしゃるように、人間の貢献は説明能力だと思います。
Q23.
建築のCADではインタラクティブな面が強い。逆にインタラクティブ的でない業種は何だと思いますか?
A23.
たしかに見方を変えると、CADに限らずほとんどのコンピュータシステムがインタラクティブだと言えますね。全自動XXというのは、非インタラクティブだと思います。
Q24.
先日、あるAIロボットが東大入試断念というニュースがありました。近い将来、このにがて領域が克服されるでしょうか。(入試レベルの範囲です)
東大入試問題は課題解析がややタフですが、問題解法自体は難問ではないというのが定説のようです。うなぎ文等はないでしょうし。
A24.
東ロボは、推進しているのが同僚なので基本ノーコメントなのですが(^^ゞ、少しだけ触れると、結局80年代の第2次AIブームが終わったのに似たような終わり方だったと思います。
Q25.
東大受験の解読を行った新井さんやそのグループに対してどう思いますか。最近「やめた」別の対象にすると言いますが、もっと追及出来ないですか。
A25.
これも答えにくいですが、あのプロジェクト終了には、いろいろ事情があるのだと思いますが、詳細は知りません。
Q26.
本日のご講演内容とは直接的に関係ありませんが、新井先生の「東ロボくん」が東大入学をあきらめたということをどのように評価されますか?
あの東ロボくんのプロジェクトの1年目のころに、本日の冒頭で、お話しされた「コモンセンスリーズニングは難しい」と分析されていましたが、結果的にそこがキーだったのでしょうか。
A26.
結局80年代の第2次AIブームが終わったのに似たような終わり方だったと思います。ちなみに、AIにとって常識推論が難しいのは、30年前ぐらいから周知の事実かなと思います。
Q27.
知的さを感じる度合いは、ヒトや言語・文化から影響を受けて定義が変わるのではないですか?
A27.
はい、そうかも知れません。知性の母語・文化依存の研究とかありそうですね。
Q28.
東大ロボは将来いつ頃、出来ますか?素人がAIにかかわるには? 勉強法やユーザー会を教えてほしいです。作ってほしいメーリングリスト。
A28.
プロジェクトが終わったので、当分東ロボは出来ないのではないでしょうか。人工知能学会メーリングリストにご参加下さい。
Q29.
IBM ワトソンは、何をやっているのでしょうか。
A29.
中身はよくわかってませんが、私の理解の範囲では、メイン機能は、ちょっと賢い情報検索のように見えます。
Q30.
ユニバーサルデザイン、ユニバーサルサービスの理想からみて、「情報」研究界は、人格やジェンダーをどうとらえようとしていますか?
A30.
今のところ、AIとユニバーサルデザインは直結しないように思います。今後は、何か貢献できればいいとは思うのですが。
Q31.
感情と知性の関係から、男女差、年齢差等の「実験対象者の選定」等にどんな配慮が必要ですか。「人間とロボット」という意味での「人間」のモデルやカテゴリー自体に危険因子が入ってくることはないですか。
A31.
実験目的にもよりますが、参加者実験の時には、年齢層、ジェンダー、予備知識などに偏りがないように配慮します。また、倫理的に問題がないように配慮します。
Q32.
発案者が単純に奇人だったのでしょうか?若しくはアトムが途中、我を忘れて自分がロボットであるというコトを忘れてしまったり・・・。
A32.
ご質問が、途切れている? ちなみに、私は手塚治虫を心から尊敬しています。「鉄腕アトム」はあまり評価しませんが。
Q33.
人力(パラメータを人が設定しなければならない)人工知能を人工知能と称するのは優良誤認です。景品表示法第五条第一号に違反します。学会名も人力人工知能学会にかえてください。ご意見をお聞かせください。冗談として回答してください。
A33.
今回のAIブームが去ったときには、「人力知能学会」への改名も検討させていただくかも知れません。

開催プログラム一覧に戻る

お問合せ先

国立情報学研究所 総務部 企画課 広報チーム
〒101-8430 東京都千代田区一ツ橋2-1-2
E-mail: kouhou(a)nii.ac.jp 
※(a)の部分を@に置き換えて送信してください。