英国誌「The Economist」を読む人

イギリス「エコノミスト誌」を読んでいます。

7歳児とAI車 Sep 2021

 

The Economist, Sep 2021

 

Science & Technology

AI for vehicles

Is it smarter than a seven-month-old?

 

7歳児とAI車

 

 

子供が7歳になる頃までには、たとえ目の前の物が見えなくなっても、その物が消えたわけではないということを学習している。たとえばオモチャを毛布の下に隠したとする。それでも7歳児は、オモチャが毛布の下にあることをわかっており、毛布の下からオモチャを取り戻すことができる。この「対象の永続性(object permanence)」と呼ばれる人間の理解は、正常な成長を確認するための指標とされている。これが現実世界の基本的な認識である。

 

しかし、自動運転車(self-driving car)には、この認識がないので困る。自動運転車(autonomous vehicle)の性能は良くなってはきたものの、いまだ人間が世界を見るようには見ていない。たとえば、自転車の手前をクルマが横切っただけで、自動運転車は自転車が消えたと勘違いしてしまうのだ(一時的に見えなくなっただけにもかかわらず)。

 

 

この誤認は、AIという名で世に広まっているコンピューター規則(computing discipline)に起因している。現在のAI(artificial intelligence)は、現実世界の統計モデル(statistical model)を複雑に組み合わせることで機能している。しかしながら、本当の意味で現実を理解しているわけではない。7歳の子供が推論できるような能力を、いかにしてAIに理解させるのか。いま盛んに研究されている。

 

現代のAIはマシンラーニング(machine learning)という方法で学習する。たとえばAIに「一時停止の看板(stop sign」を認識させようとするとき、エンジニアがいちいち何千行ものプログラムを書くわけではない。「自分で学べ」とだけ指令して、何千もの停止看板の画像を見せるだけだ。無数の画像を見た結果、AIはそれらに共通する何かを徐々に学んでいくのである。

 

 

自律運転車が公道を走れるよう訓練するためにも、同じ手法が用いられている。車線を守ったり、他のクルマを避けたり、赤信号で止まったりなどなど、現場を繰り返しながら学んでいく。しかし、自律運転車は人間が当たり前にわかっていることを理解していない。たとえば、他のクルマにもエンジンとタイヤがついていることや、他車も交通ルールを守るということなど。そして、物体の永続性(object permanence)もわかっていない(視界から消えただけでは物体はなくならない)。

 

エレブルー大学(スウェーデン)のMehul Bhattは、Codesignという会社を設立し、自らのアイディアを商品にしているのだが、彼のAIに関する最近のレポートには、他と異なるアプローチが記されている。彼は自律運転車に用いられているAIプログラムに、シンボリック・リーズニング(記号意味づけ)エンジンというソフトウェアを加筆した。

 

 

マシンラーニング(機械学習)では、世界は確率的に存在することになっている。一方、このソフトウェアは自律運転車がセンサーから得た情報に、基本的な物理概念(physical concept)を付加した。この修正された情報(modified output)が自立運転車のソフトウェアに送られる。基本的な物理概念というものには、物体が時を超えて存在しつづけるという考え方(物体の永続性)も含まれる。また、物体同士の空間的な関係(spatial relationship)、たとえば「~の前に」や「~の後ろに」などを考慮に入れることにより、物体が完全に(または一部が)見えているか、完全に他の物体に隠れてしまっているかを認識できるようになった。

 

実際うまくいった。クルマが一時的に他車に陰に隠れても、推論の強化されたソフトウェアは、見えなくなったクルマの動きを追跡しつづけた。そして、いつどこに再び現れるのかを予測することができた(必要ならば、その車をよけることも)。しかし、ソフトウェアの改善度合いはそれほど大きなものではなかった。これまでのソフトウェアに比べて、Dr Bhattのシステムは5%スコアが良いだけだった。それでも、問題の根源が改善されたことは大きい。副産物もあった。マシンラーニングの計算方法と違い、推論システムならば、その出来事がなぜ起こったのかを知ることができた。

 

たとえば、なぜソフトウェアはブレーキを踏んだのか、それを知ることができる。車の後ろに隠れていた自転車が、前方の交差点(intersection)に進入してきた、など。こういうことは、マシンラーニングではできない。こうした情報は、プログラムをさらに改善することに役立つのみならず、規制当局や保険会社にとっても有益である。さらに、社会が自律運転車をもっと受け入れやすくなる。

 

 

Dr Bhattの仕事は、AI業界で長らく論じられてきたことでもある。1950年代の初期AIの研究者たちは、この予めプログラムされた推論をもちいて、いくつかの成功をおさめた。しかし、1990年代の初頭、マシンラーニングは劇的な進化を遂げた。それは、プログラム技術の進展が高速なコンピューターによるビッグデータ処理を可能にしたからだった。今日では、ほとんどすべてのAIがマシンラーニングを基本にしている。

 

 

Dr BhattばかりがAIの現システムを信じ切っていないわけではない。ニューヨーク大学で心理学と神経科学を学ぶGary Marcusは、Robust.aiというAIとロボットの会社をもつが、Dr Bhattに賛成だ。彼は8年前に出版されたレポートを引用する。DeepMind社のエンジニアは、行動ルールについていかなるヒントも与えることなしに、学習するプログラムを書いた。それは、板でボールを跳ね返しながらブロックに当てる「ブロックくずし(Breakout)」というゲームをプレーするプログラムをであった。

 

DeepMind社のプログラムは卓越していた。他の研究グループは、そのプログラムの板の位置にわずか数ピクセルの変化を加えた。すると結果は散々に落ちた。なるほど、その場の状況で学んだことというのは、一般化が難しい。それがたとえほんの小さな違いだとしても。

 

 

この事例は、Dr Marcusにとって、マシンラーニングの脆弱性を示す好例となった。しかし、多くの人々はシンボリック・リーズニング(推論)というシステムは不安定であり、マシンラーニングのほうが遥か先を行っていると思っている。Jeff Hawkeは自律運転車のWayve社(ロンドン)の副社長であるが、彼のソフトウェアは車のさまざまなパーツを別々にではなく同時に動かす。デモンストレーションにおいて、Wayve社の自律運転車は人間にとっても難しいロンドンの混み合った狭い通りを、難なく走った。

 

Dr Hawkeは言う。「現実世界の複雑な状況を、一つ一つ手作業で解決していくことはできません。たとえ専門家が苦心してつくった論理ルールでも、複雑さに対応しきることは難しい」。たとえば、赤信号を止まるというルールひとつにしても、各国で状況は異なる。そして、信号自体は車のためというよりかは、歩行者のために設計されたものである。青信号でも消防車や救急車に道を譲らなければならないときもある。「マシンラーニングの素晴らしさは、こうした不測の状況に対しても、得られたデータから自動的に学んでいけるということです。データが多ければ多いほど、どんどん賢くなっていくというわけです」。

 

 

カリフォルニア大学バークレー校でAIとロボット工学を学ぶNicholas Rhinehartもまた、マシンラーニングを推す。彼は言う、Dr Bhattは確かに2つの方法を組み合わせましたが、それは本当に必要なのか、と。マシンラーニング単体だけでも、数秒後に起こりうる出来事の予測ができはじめている(他車が道を譲るか否かなど)。こうした将来予測をもとに、追加のプログラムがすでにつくられている。

 

Dr Bhattはこう反論する、何百kmという実走データが蓄積された自律運転車でさえ、あらゆる状況に対応しきれるのかどうか。多くの状況では、ゼロからルールをプログラムするほうが簡単で効率的であろう。

 

 

両者の戦略は、自律運転車の枠をこえて、AIそれ自体の未来に対する挑戦でもある。Dr Marcusは言う、「われわれは現在、正しい道を進んでいるとは思えない。マシンラーニングは会話などの学習にはじつに有益だが、それはAIへの現実的な答えではない。われわれはまだ知性の問題を解決できずにいる」と。

 

紆余曲折、7歳児が教えてくれることはまだまだありそうだ。