人工知能、AI(Artificial Intelligence)。最近、ほとんど毎日のように聞く言葉ですが、いったいどのようなものでしょうか。
入門ということで、初歩的なところから少しずつ見ていきます。
「強いAI」と「弱いAI」
「人間のように自分で考えるコンピュータ」――漠然とそんなイメージを持っているでしょう。それで間違ってはいません。従来のふつうのコンピュータは、あらかじめ決められたプログラムを実行しているだけで、みずから思考しているわけではありません。これに対し人工知能は、自分で創造的にものごとを考えます。
ただ、「人工知能=人間のように考える機械」というのは、この言葉の「原義」というか、1950年頃にさかのぼる研究の出発点での目標でした。実は人工知能の研究には大きく分けて2つの方向があります。
・人間のように自分で考える知能を持つ機械を実現しようとする方向(これが「原義」の方です)
・人間が知能を使って行っていることを機械にさせようとする方向
この2つです。
昨今、身近になってきている人工知能は、後者の方です。
例えば日米欧で研究が進められている車の自動運転。GPSや光学センサー、超音波センサー、レーダーなどで自車と車道と他の車両の位置関係をつかみ、車速やステアリングを操作する処理系で実現されます。はた目から見れば、車が自分で判断し、自分で自分を運転しているように見えますので、これも「人工知能」と呼びます。しかし実際には、車が思考しているのではなく、状況に応じて行うべき動作がすでに学習されていて、それにしたがって行動しているだけです。つまり、「あらかじめ決められたプログラムを実行しているだけ」で、従来のコンピュータの仕事とそんなにちがいはありません。
ただし、「経験から学び、それまで知らなかった新しい動作方法を考え出す」ところまで行くと、それはかなり「AIらしく」なります。現在の人工知能研究は、これを目指す方向で進んでおり、交通だけでなく、流通、金融、医療、広告などさまざまな分野への応用を模索しています。
このような「人間が知能を使って行っている作業を機械にさせようとする方向」の人工知能を「弱いAI」と呼びます。
そうではない「原義」の方、「人間のように自分で考える知能を持つ機械を実現しようとする方向」の人工知能が「強いAI」です。
ホーキング博士の遺した言葉
さて、筆者は現在、ご覧の記事を2018年3月16日に書いています。2日前、3月14日にイギリスの物理学者スティーブン・ホーキング博士が亡くなりました。最高の知性の持ち主でしたが、一般の人間にもわかりやすく宇宙を語り、素粒子を語り、ときには社会や未来についても語り、多くの人に愛された方でした。
ご記憶の方も多いと思いますが、そのホーキング博士は2014年、BBCのインタビューに答えて、「完全な人工知能を開発できたら、それは人類の終焉を意味するかもしれない」と語っています。「人工知能が自分の意志をもって自立し、そしてさらにこれまでにないような早さで能力を上げ自分自身を設計しなおすこともあり得る。ゆっくりとしか進化できない人間に勝ち目はない。いずれは人工知能に取って代わられるだろう」という趣旨でした。
別の学者も「人工知能が知識と知能で人間を超え、科学技術を進歩させて世界を変える」技術的特異点(Singularity・シンギュラリティ)が「2045年頃にも訪れる」としています(カーツワイル、2005年)。
実際、オセロやチェスや囲碁・将棋の世界ではコンピュータが人間のチャンピオンを破るといったことが起きていますし、2010年には質問応答システム「ワトソン」がクイズ番組で人間に勝利し、自然言語の理解という面の進歩も含めて大ニュースになりました。
科学技術の進歩に関して人工知能が完全にリードするだけなら、彼らの創り出す便利なテクノロジーを享受すればいいという、人間としては若干屈辱的ですが決して暗くはない未来です。また、ゲームやクイズの領域なら、逆に人工知能に打ち勝つ人間が現れて「英雄」となる、明るいニュースもありえなくはないでしょう。勝てないまでもチャレンジを続けることで人間の力が高まっていくなら、それはそれでけっこうなことではないでしょうか。
しかしもっとネガティブに考えている人もいます。テスラモータースCEOのイーロン・マスク氏です。彼は人工知能の高度化は「悪魔を召喚するようなもの」と言い、「AIは人類文明が直面している最大のリスクだ」として「今すぐに規制すべき」と主張しました(2017年)。映画『ターミネーター』に出てくる「スカイネット」の脅威を、現実味をもって深刻に受け止めて危惧しているわけです。
そういう未来が、本当にありうるでしょうか。
前述の「強いAI」であれば、知能ばかりでなく、ゆくゆくは「心」も獲得する可能性があります。そして経験を通じて学習していきますから、その経験の内容によっては人間に対して攻撃的になるかもしれません。
しかし現在、人工知能研究の主流は「弱いAI」の方です。この方向であれば、機械が人間に牙を剥くようになる可能性は、かなり低いでしょう。
その理由を書きます。仮に人工知能が、経験から学んで自分自身を改良する段階まで進歩したとします。その「改良」の方向はどのようなものでしょう。
交通システムであれ、金融であれ、医療であれ、どの分野においても、それは基本的に「人間のリスクを最小化し、人間の利益を最大化する」方向です。それは、そのAIが目指す方向のプログラムとして機械に組み込まれており、感情を持たないコンピュータは何の疑問も抱かずにその方向で進んでいくはずです。
ちがう角度からも理由が挙げられます。
ものごとを判断できる主体が、どのようなときに他の何かを攻撃する理由・動機を持つかを考えます。
ズバリ、それは「利害」です。
「他の何か」が自分の利益を損なおうとしているとき、あるいは、自分の害になろうとしているとき、主体はそれを制しようとし、ときに攻撃という手段を選びます。
すると次の問題は、機械がそれ固有の「利害」を持ちうるかという話です。
利害というものの根源は何でしょうか。
それは「感覚」です。視覚・聴覚・触覚・味覚・嗅覚を通じて感じられる「快・不快」の感覚。
アリストテレスは『霊魂論』で、「快と不快を感じることができる」からこそ「動物は動くことができるのだ」と考えています。現代のオーストラリアで、ピーター・シンガーという人が「動物にも人間と同じように権利を認めるべきだ」とするおもしろい思想・運動を展開していますが、彼の発想の根本はジェレミー・ベンサムの「苦痛を感じる能力のある者には固有の利害がある」という指摘にあります。
さらに集団と集団の「戦争」まで考えると、苦痛を感じる感覚能力を根拠として、自分の経験から類推して他の同類も同じように苦痛を感じることが理解できる「共感する能力」がカギになってきます。置かれた状況の中で自分と同じ苦痛を感じるだろうと共感できる同胞(つまり利害が一致する同胞)と結び、利害が対立する敵と戦うということです。
さて機械に感覚があるかというと、一応はあります。各種センサーですよね。しかし、そのセンサーで感知する刺激(入力)は、機械にとって快・不快のものでしょうか。
ちがいますね。快・不快というものは、生命を持つ身体に固有のものです。自分の生存にとって有益なものの感覚は「快」につながり、有害なものは「不快」につながります。
機械はというと、たとえ自分が破壊されても何も感じませんし、仲間の機械が破壊されるのを見ても、別に気にしません。むしろ自分自身の改良のために積極的にスクラップ&ビルドしますし、陳腐化した仲間の機械を解体して「資源」としてリサイクルすることにも、何の痛痒も感じないでしょう。
したがって、機械に固有の「利害」というものはありえません。
それゆえ、機械・人工知能が人間に牙を剥くこと可能性は、とても低いでしょう。
ホーキング博士によるもう一つの言及
近未来のテクノロジーについて、ホーキング博士が遺したもう1つの重要な指摘があります。2015年に、博士は海外のあるネット掲示板に登場し、「Ask Me Anything(なんでも聞いてくれ)」というスレッドを立てました。さまざまな質問が怒濤のように押し寄せたことは言うまでもありません。
その中に、テクノロジーの進歩により、すでに多くの人間が解雇されているとしたうえで、「未来のテクノロジーの影響で、人間の仕事はどうなるのか」という質問がありました。これに対するホーキング博士の答えです。
「機械によってもたらされる富が分配されれば、全ての人が仕事から解放されて自由な時間を贅沢に楽しむことが出来るでしょう。逆に、機械の所有者が富の再分配への反対に成功すれば、ほとんどの人がどうしようもないほどの貧困におちいるでしょう」
「今のところ、流れは後者に傾いているように思えます。テクノロジーによって、これまでにないほどの不平等状態となっています」
たいへん示唆的です。
人間に成り代わる高度な人工知能やロボットという生産手段を「持つ者」と「持たざる者」の利害対立はありうるということです。「機械によってもたらされる富」の適切な再配分のシステムが作られない場合、それは起こりえます。
同様に、高度な人工知能やロボットを持つ国と持たざる国の争いも起こりえます。
つまり、人工知能によって引き起こされる戦争があるとすれば、それは人工知能をめぐって人間と人間が起こすものということになりそうです。
これは、意外と差し迫った危機とも考えられます。
実はすでに、サイバー戦レベルでは始まっているのかもしれません。