強いAIの実現方法 ~実践的な作り方~

強いAIの実践的な作り方を検討しています。メイン記事に主張をまとめています。人工知能関係の書評もあり。なお、今後、任意団体として活動してみたいと考えており、手伝ってみたいという方は是非ご連絡下さい。詳しくは、メイン記事の7を参照下さい。

強いAI実現コンセプトまとめ(常にトップに表示。最新記事は次エントリーから)

 以上が、ブログで主張していることであり、詳しくは、メイン記事、あるいは各記事を参照ください。

「ロケットを発明したのは人類ではない」

 全く更新できない間に、ChatGPIがブームとなり、また一歩人間の知能を実現する人工知能に近づいたような状況だが、それらしい内容を生成するのと、人間の知能を実現するのとではまた違うとの意見もある。ただ、今までと次元の違う自然さであり、チューリングテストの合格も近いのではと思わせる威力があるため、大きな目では、汎用人工知能に近づいたのは間違いないであろう。

 今回、「全脳アーキテクチャシンポジウム」が8/1に開催されるとの案内を読んで、久々に考えを巡らせたところ、記事にすべき内容がまとまったので、ほぼ2年ぶりに更新をした。

 全脳アーキテクチャは、脳を工学的に再現することで人間の知能を実現しようという試みと聞いている。しかし、私の意見では、脳は人間の知能の一部を担っているだけで、脳だけ再現しても目的は達せられないであろう。

 ホモ・サピエンスは、20万年ほど前から存在している。しかし、人類の歴史上、文明が現れたのは長くても4000年前ほどである。それ以前、19万6千年の間、生物学的には現代の人間と同じような脳を持ちながら、文明もなく過ごしてきた。

 おかしいのではないか。脳を工学的に再現しても、19万年は文明を作れず、動物とあまり変わらないエージェントにしかならないのではないか。

 しかし、現に人類はロケットを発明している。では、どのように発明がなされたのか?

 答えは、データを利用したからである。文字、図面、方程式など、過去に生み出された莫大なデータを理解し、改善をしてその結果をデータとして更新することで、ロケットの発明に近づき、そして実現するに至った。すなわち、人間のような知能を実現する→ロケットを発明するような知能を実現する、ということであれば、実際にロケットを作ったのは実は「データ」であると思うわけである。少なくとも、「データ」がなければロケットは発明できなかった。

 もちろん、データだけあってもロケットは発明できない。脳に求められるのは、データを理解するだけの大容量と、データを使って何かをやろうとする欲望である。私が新たに得たイメージでは、人類に知能があるのではなく、あるのは、データと、そのデータを使って満足を得ようとする欲望を持ったエージェントの群れである

 弱いAIというのは、個々のケースごとに欲望が見出したデータの使い方を再現しているのであり、その延長では強いAIは実現できない。強いAIを実現するには、データの使い方を生み出す「欲望」の仕組みを実現する必要があると思う。昔から言われている、高度な処理は人工知能で再現できるが、子供でもできることが人工知能で再現できないという点は、子供であればあるほど高度原理に欲望の占める割合が大きいからかもしれない。

 その意味で、「Reward is enough(報酬があれば良い)」というのは正しい。報酬を求めるのが欲望であるからである。
 また、ブルックスに代表される身体性の考え方で「人工知能には『環境と身体と脳』の相互作用が必要」というのも、環境がデータを含むのであれば広い意味で正しい。身体はデータと脳のインタフェースである。「複雑な環境であれば複雑なふるまいをする」というのも正しい。

 人類が手にしたデータの在り方も、洞窟の壁画、文字、活版印刷、デジタルデータ、インターネット+クラウドというように大きく、加速度的に進歩してきた。データの在り方が高度、大規模化することは、人類全体としての知能の発達を意味しているのではないか。

 
 今回整理できた、データを使って欲望により行動するエージェントを、実際にコーディングしていく方法(誰かに出資してもらうとかクラファンとか人を雇うとか)を考えていこう。興味ある方は是非アプローチをお願いしたいです。

東北大学「表情から感情を読み取る過程を神経回路モデルで再現」の紹介

7月末に、東北大から興味深い発表があった。複数の表情について、教師無し学習にて感情を区別することが出来たとのことである。

「表情から感情を読み取る過程を神経回路モデルで再現
-自閉スペクトラム症の症状出現のメカニズム理解に期待-」

www.tohoku.ac.jp

 以前紹介した「脳 回路の中の精神」でも紹介されていた、精神的な症状についてシミュレーションで再現することで精神医療に役立てるという、計算脳科学or計算論的脳科学の医学への応用例そのものだ。モデルで再現した故障により認知機能の低下が認められることが、逆に、このモデルが実際に脳に入っているという証左になるかもしれない。

 最初記事を読んだ時には、自己組織化マップなど他の教師無し学習でも出来そうだなと思ったが、予測符号化理論という、脳内で予測と観測結果の誤差を最小にしていく、制御理論でいくことのオブザーバーのような仕組みが効いているようである。(逆誤差伝搬法も似たような感じか?)
 また、いわゆるRNNも入っているという。チャーチランドの「認知哲学」を読んで以来、再帰的結合は必須と考えているので、その点でも今後の展開を期待したい。

 ただ、この方向性で、自分が求める、プログラミングしていないことを実行する脳モデルに近づくかは良く分からない。エージェントの認知機能というか、過去の経験を蓄積し整理していくところは、教師無し学習で経験を分類していくことになると思うが、その方法はいろいろ考えられる。その大きな候補ではあると思う。

久々の更新(エージェントに意思を与える方法)

 ほぼ1年ぶりの更新である。

 昨年の9月に、仕事上で大きな問題が発生し、半年以上かかりきりになってしまった。また、4月に昇進があり、そちらでも考えることが多くなってしまった。ようやく落ち着いてきたので、こちらの活動を再開したい。

 そもそもこのブログ自体は、人間のような知性を実現するには身体が必要である、という「身体性」に基づくアプローチにおいて、

  • 実際にロボットを使っていては実現が難しい
  • 重要なのはエージェントの脳と身体と環境の相互作用であり、全てソフトウエアで実現できる

という2点を主張するために始めた。その論旨は今でも変わっていない。

 加えて、ブログにおいて議論を進める中で、「プログラムされていない行動をするにはどうしたらよいか」ということを考えた時に、

  • エージェントには意思が必要である。サールの言うように意識は強いAIを実現した結果ではなく、実現する手段なのだ(意思と意識でやや言葉を言い換えているが…)

という論点にたどり着いた。

 すなわち、人間の知性はロケットや自動車に限らず、あらゆるシステムを生み出しているが、そのためには膨大な記録を理解し、それを活用し「こうしたら良い」と思いつくことで実現している。エジソン風に言えば、99%は記録の理解であり、残りの1%の意思の力で新しいシステムを生み出しているのだ。人間の普段の活動は、それほど知的ではないということである。

 ここまでは過去のエントリーでも記載されているので、そちらを参照頂くとして、今回は、意思を工学的に実現するにはどうしたらよいかということを考える。

 

 ここでいう意思というのは、あらゆる瞬間において、何をしようというのを決める能力である。幸い、人間はほぼシングルタスクと考えられる。歩きながらスマホを見る歩きスマホはマルチタスクかもしれないが、歩くこと自体は意識の外で自動で行われ、スマホを見る以外の周囲を警戒することもできないので、非常な迷惑をかける時がある。

 三宅陽一郎氏の「ゲームAI技術入門」に、ゲームAIにおける意思決定方法が7つほど紹介されている。
・ルールベース
・ステートベース
・ユーティリティベース
・ゴールベース
・タスクベース
・ビヘイビアベース
・シミュレーションベース

 シミュレーションベースというのは、今はやっている「世界モデル」を脳内で作って、というものに近いかもしれない。

 「世界モデル」をのぞくこれらの意思決定方法は、私が求める意思とはいいがたい。基本的に、プログラムされている行動を、プログラムに従って選択しているからである。「世界モデル」については後述する。

 単純な例えであるが、2つの部屋があり、片方が暑く片方が涼しいとする。暑い部屋にいる時に、プログラムされていなくても涼しい部屋に行こうと思いつくようなエージェントにしたい。隣の部屋が涼しいということを知っていることは許される。

 暑さによる不快指数が一定値を越えた時に、隣にいくというプログラムでは、いわゆる弱いAIである。すなわち、上にあげられた意思決定方法はすべて、弱いAIである。弱いAIの一番の問題点は、全てをプログラミングしなくてはならない、ということだ。暑い時ではなく寒い時、湿っぽいとき、うるさい時等…

 あらかじめプログラムされていない行動をAIがとる手段としては、強化学習もある。しかし、一般の強化学習は、やってみて評価してというのを繰り返し、ある条件での評価値が高い行動を選択するように強制的に学習させるというものだ。結局これは、ある場合に最適な行動を、やってみることで選べるようにするという、弱いAIのプログラム手法であるといえる。これまた、あらゆる条件で評価値を評価するということをやってみなくてはならない。

 

 私が実現したいアーキテクチャは、隣の部屋が涼しいという記憶と、現状が暑いという認識、それを改善したいと考える意思により、隣の部屋に行こうと決断を下せるようなアーキテクチャである。

 困難なのは、改善したいと思った時に、あらゆる行動を探索しなくてはならないという、いわゆるフレーム問題の解決かもしれない。しかし、涼しくなりたい、ということまで明確であれば、涼しさを得ることが出来る記憶とリンクすることはそれほど難しくないだろう。すなわち、何かをしたい、ということであれば、フレーム問題の罠に陥らなくて済む可能性がある。
 ただし、隣の部屋が涼しかったのか、その時に薄着だったからなのか、エアコンが入ってたから涼しかったのか等、単純に記憶をするといっても、因果関係を適切に整理できるのかという問題はある。教師なし学習で、勝利ニューロン以外は抑制することで、適切な記憶に絞るということは出来るかもしれない。

 また、涼しくなりたい、隣の部屋は涼しいということが分かったとして、隣に行けば涼しくなると予測する能力も必要になるかもしれない。これは、上にあった世界モデルと近いが、そこまでしなくても良いかと思う。いちいち、隣の部屋に移動した時のシミュレーションを脳内の世界モデルで実施するということまではしなくても、予測することは出来ると思われる。
 隣の部屋が涼しいという記憶があるとして、その記憶があればそこに移動するという決断ができるのか、そこに移動すれば涼しくなるという予測をすることで決断ができるのかは、さらに考えたい。

 整理すれば、①記憶、②予測の2つの機能が脳には必要で、記憶あるいは記憶と予測の両方を使って行動を起こす意思を、エージェントが備えれば良いと考える。


 脳の仕組みは、基本的には単純であるはずだ。環境が複雑であれば知能も複雑になるというブルックスの主張にも一致していて、仕組みは単純ながら大容量を備えた脳があり、複雑な環境にふれることで複雑な記憶を蓄えることが出来れば、複雑な判断ができるようになるであろう。すなわち、部屋が暑いから涼しい隣の部屋に行こうという決断が出来るようになれば、あとは大容量の脳と複雑な環境を用意することで、複雑な決断が出来るようになると期待する。

 さらに、知能が複雑な事象を扱うのには言語能力が必要と考えられる。
 ただ、人間レベルの脳の規模で極めて複雑な事象を扱うのには言語が必要だったが、脳自体の能力が人間よりはるかに大きくなれば、言語が無くても処理できてしまうのかもしれない。

 いずれにせよ、人間と同じように物事を決断する意思を持つAIをソフトウェアで実現することで、人間のような不確実な記憶ではなく正確な記憶を持ち、かつ決断する意思をもつ知能が誕生することになる。

強いAI 行動決定能力と知性の関係について

 前回、以下のように述べた。

・「今はこうしよう」と決定する能力が、強いAIの本質である

 断言するのは言い過ぎかもしれない。ただ、プログラムされていないことを思いつくプログラムを実現するには、行動決定を行う意思を持たせることが必要だと思う。サールは、強いAIの定義を「意識を持つAI」と定義したが、意識を意思と読み替えれば、意思を持つことは結果ではなくて、強いAIを実現する手段なのだ。発想の転換をしてみようではないか。

 もともと、強いAIを作るということは、人間のような知性を工学的に実現したいということである。ここで、意思があれば良い、ということを振り返ると、人間はそもそもそれほど知的に行動しているのか、という考えに至る。
 自分の普段の活動を考えてみても、あれしよう、こうしよう、という行動の選択が主なのではないか。確かに、人間が数学の問題を解こうとする時は知的な活動をしているかもしれないが、作りたい「強いAI」は、数学の問題が解けるAIではない。もっと自由な、例えば月まで行くロケットを実現したり、自動車を発明したりできるAIである。

 あえてロケットを持ち出したのには理由がある。
 月まで行けるロケットは、確かに人類の発明物だが、誰でもそれを発明できるわけではない。むしろ、圧倒的多数の人間は、そんなことは出来ない。そもそも10~20万年前から生物学的にほぼ現在の人間に近いホモ・サピエンスが存在していたようだが、文明と呼ばれるものが生まれたのは4千年ほどまえからであり、急激な産業の発達は産業革命以降の、200年程度の話である。
 すなわち、人類はその知力で、電気、自動車、ジェットエンジン、テレビ、インターネットなどを生み出し、他の動物と比べると圧倒的な知性を誇るわけであるが、個々の人間の知性の働きでそれらをいきなり生み出すことは出来ない。これらは、人間の脳が持つ知的能力だけで生まれたものではないのである。
 むしろ、それらを発明するに人類が必要としたものは、文字を始めとする記録であり、その記録を理解する能力、それを踏まえ、例えば月に行くにはこうすれば良いと思いつく能力である。記録が主な役割を果たしており、最後、月に行くことを実現したいという意思をもった人間が、こうすれば良いと思いついて一押しするのが人間らしい知性であろうと考える。こんなことは、プログラムされたことしかできない弱いAIでは実現できないが、人間、あるいは強いAIも、強大な知性が求められている訳ではなく、記録の理解と、プログラムされていないことを思いつく能力があれば良いのではないか。すなわち、人間の脳は、それほど知的な活動をしている訳ではないということだ。

 なお、行動決定をするにあたっては、寒いから家に戻ろうと思うだけでも、家は暖かい、戻れば暖かくなる、という理解が必要である。すなわち、記憶あるいは記録とそれらの理解、ある行動をした時の結果の予測が求められる。そして、ひらめきの能力、また、行動の結果を予測するにあたり、フレーム問題として知られる探索空間の爆発の防止策が必要である。コホーネンネットワークによる勝利ニューロン以外の抑制が、フレーム問題の解決になる可能性はあると思う。人間は常に学習しているのだ。

 上記を、「探知→行動」という、「判断」の無いループの組み合わせで実現していきたい。

 意思を持ち行動決定が出来るAIを工学的に実現できれば、人間には無い、大容量のメモリを参照するという能力を併せ持つことが出来る。人類は文字に記録することで、脳が持つ記録が曖昧であるというハンデを克服した。言語能力においても、会話が出来るという段階と、識字率とも言える文字を扱う能力の二段階があり、生物学上の限界を越えるという点で、後者が文明の発達に非常に大きな役割を果たしたのであろう。
 強いAIを工学的に実現することで、文字の記録、それを読み理解する脳の容量に頼らず、直接大容量の記録にあたることができるようになる。そうすれば、人間を越えた知能の実現にもつながっていくかもしれない。それが良いことか悪いことかは、まず実現の見通しが出来てから考えましょう(^^) 

 本稿では、ロケットを実現したのは、人間の知性というよりは意思である、という趣旨のことを書いた。実は、日本を代表する経営者でありブログ筆者も尊敬する稲盛和夫が、人類の造り上げたものは人類の意思の反映である、と述べていたことがあった。AIの考察からも同様の結論になったのが、私としては嬉しいので付記しておく。

強いAI 「プログラムされていないことを思いつく方法」について

 強いAIの検証用として、言語能力の付与等、脳モデルの検討をしてきたが、「プログラムされていないことを思いつく」にはどうすれば良いか、思いついた(^^)のでまとめる。

 思いついたのは、強いAIである人間のやっていることは、状況を総合的に判断して、「こうしよう」と決心することではないか、ということだ。あれはしたくない、これもしたくない、遊びたい!等、の状況から、今は勉強しようと決めるようなことである。これは、知性というよりは、報酬が最大になるような選択をしている。遊ぶより勉強を選ぶのは、将来のリターンを考えた結果である。

 思うに、普段、人間は本当に知的に振舞っているのだろうか。むしろ、知能を要する活動は苦手ではないか。
 人間がやっていることを一言でまとめると、「今はこうしよう」ということを決めている、になる。外出先でレストランを決めたり、メニューを決めたり、見に行く映画を決めたり、もう寝ようとしたり、その前にお風呂に入ったりする。決定にあたっては、報酬系の動作、過去の経験、行動の結果の予測などがかみ合うわけであるが、本質的には、知性の作用というよりは、欲求を整理した結果にみえる。端的に言えば、人間はそれほど知的に行動していない、ということだ。

 ただし、「今はこうしよう」とエージェントが決めるのであれば、このエージェントは「プログラムされていないことを思いついている」と言える。すなわち、各種状況から「今はこうしよう」という決定が出来るエージェントこそが、強いAIと言えると考える。そして、大容量の脳、言語能力により、より複雑な状況でも「今はこうしよう」という決心が出来るであろう。

 本ブログにおいては、「探知→判断→行動」ではなくて「探知→行動」が生物の基本原理であり「判断」をプログラムしてはならないと主張しているが、今回述べたことと照らし合わせると、「判断」は、強いAIが「今はこうしよう」と決定した結果であり、あらかじめプログラムしてはならない、ということだと考える。

 まとめると、以下の通りである。
・各種状況から「今はこうしよう」と決定する能力が、強いAIの本質である

 なぜ、「今はこうしよう」という能力から、月へ行く宇宙船が作れるような知的振る舞いが出来るようになるのか、次回整理する。

人工生命 検証プログラムの舞台及びゴール

「プログラムされていないことを思いつくプログラム」

 本ブログで取り組んでいるプロジェクトの目新しさは、「強いAIには身体が必要である」という概念のもと、外界モデル、身体モデルを導入するところにある。

 その検証として人工生命エージェントを組み立てるにあたり、外界モデル、身体モデルについては概ね方針が定まっている。ただし、脳モデルについては方針が定まっていない。強いAIを生み出す脳モデルを、いろいろ試すのがプロジェクトの目的であり、ここでは、どのような人工生命プログラムで脳モデルを試すかについて整理する。

 プログラム規模に限界があるため、人間相当の知性には及ぶべくもないが、このプログラムの規模を拡大していけば、「強いAI」になるかもしれない、ということは証明できる必要がある。
 そこで、検証プログラムのゴールは「プログラムされていないことを思いつくプログラム」としてみたい。

 人工生命エージェントの舞台は2次元、食料の採集、狩り、繁殖、外敵(兼食料)、道具の概念があり、お互いが会話することが出来るものとする。

 進化的アルゴルリズムによる行動最適化、強化学習による行動最適化は(とりあえず)導入しない。意味を理解し主体的に考えることで、「プログラムされていないことを思いつく」ようなエージェントの行動が観測できれば良しとする。例えば、「昨日は俺が狩りに行ったから、今日はお前が行け」みたいな会話を、プログラムしていないのにエージェントがしていることが観測できれば良い。

 そんなことが出来るのであろうか。

 想像するに、重要なのは知能よりも感情や疲労という要因に思える。狩りに行くと疲れるし外敵に襲われる可能性があるからいやだけど、誰かが行かなくてはならない、昨日は俺が行ってお前の分まで食料を持ってきたから、今日はお前が行くべきである、という判断するのは、知能云々の前に、外界モデル、身体モデルにそれだけのコーディングをしなくてはならない。何人かで狩りに行って、一人死んでしまった時に、洞窟へ帰って「Aが死んだ」とみんなに伝えるとか、自分は死にたくないと思ったりすることも必要に思える。狩りが得意なものもいれば、採集が得意だったり、料理が得意なものもいるだろう(アダムスミスの国富論によれば、経済活動の原理は分業である)。

 こんな簡単な舞台でも、外界モデル、身体モデル、そして脳モデルにおいて言語能力を作りこめば、「プログラムされていないことを思いつく」ことがあっても良さそうに思えるが、いかがであろうか。

 生物が複雑な行動をするのは環境が複雑だから、というブルックスの至言の通り、外界モデル、身体モデルを複雑にしていくのが重要、ということかもしれない。会話により相互作用することでも、事態はどんどん複雑になっていくであろう。

 話はそれるが、「GAFA-四騎士が創り変えた世界」を読んでいたところ、気になる一文があった。採集、狩猟時代の人類の労働時間は週20時間ぐらいだったということである。一方GAFAで死ぬ気で働くなら週160時間みたいなことが書いてある。毎日8時間+残業で、週50時間ぐらいが普通のサラリーマンの労働時間だと思うが、週20時間の労働時間というのは、今より良い暮らしだったということはなかろうか。

「あなたの知らない脳」を読んだ デイビット・イーグルマン 著

あなたの知らない脳 ~意識は傍観者である
デイビット・イーグルマン著 2012年 早川書房

 「意識」とはなにか、という問いに対し、普通に考えるほど「意識」があなたの行動を決めている訳ではない、という主張をしている。例えば、あなたが右手を上にあげようと思う前から、脳では右手を上にあげよという指示が出ているのだ。意思決定は脳の内部で行われており、「意識」が意識する前から決定が行われている、ということである。ブログ筆者も同感で、会話の際、次に何を喋ろうということを意識する前から、言葉が口をついて出ている、ということも、そのことを表していると思う。

 すなわち、「意識」の及ばないところで、脳が行動を決めているということだが、この本の独自な内容、見解がいくつかあるので紹介する。

・学習結果は無意識領域に任される

 自転車の漕ぎ方を習った時に、最初は苦労するが、いずれ、何も考えずに漕げるようになる。意識の出番は無い。自転車に限らず、テニスラケットの振り方、ヒヨコの雌雄判別等、学習してしまえば自動的にこなせるようになる。自動化は、スピードとエネルギー効率の面で有利である。また、いわゆる脳の可塑性、あらゆることを学習し、自動化していく能力が驚異的であることを示している。

・アルゴリズムは進化でプログラムされている

 何かを美しいと思うかどうかは、例えば異性の場合、お互いに繁殖に適したサインが外観上出ており、そのサインを見て魅力的だなと思うのは、進化の段階でプログラムされている。テストステロンというホルモンの分泌が多い男性はかっこよく見え、エストロゲンというホルモンの分泌が多い女性はスタイルが良く見える。外観を通して、ホルモンの分泌量を見積もって魅力的かどうかを判断している。
 上記はほんの一例であり、進化の過程で、生存と繁殖に適した判断を下せるよう脳がプログラムされており、「意識」ではそのプログラムにアクセスできない。

・意思決定は多数決で行われている

 これは仮説だが、脳内に複数のサブルーチンがあり、それぞれが意見を出すのだが、多数決で最終方針が決まる、というもの。ライバル同士が争って、妥協点が答えになり、代表的な競合は理性と感情だ。競合関係は2者とは限らない。心の民主制、等と表記されている。
 これは、この本で最も有益なヒントになりうる可能性がある。すなわち、フレーム問題を解くにあたり、あーしたらよい、こーしたらよい、という複数のエージェントがあり、エージェント間で協議した結果を解とするならば、フレーム問題のネックとなる無限の検討事項、という問題が解決されるかもしれない。脳内にあるエージェント達の分しか、検討事項が無くなるかもしれない。ただ、この内容は本書では書かれておらず、ブログ筆者の空想である。
 なお、複数のサブルーチンが解決策を見出す方法として、進化的アプローチが挙げられていた。フレーズが印象的なので記録しておく。「進化はあなたより賢い」「解決策を見出し、良いものが見つかったとしても止めてはいけない」。この進化的アプローチで、競合するエージェントに競争させ、常に解を更新していくという説である。

 また、話がそれるが、興味深い話題として、右脳と左脳の例があった。脳梁という組織で両方の脳が結ばれているのだが、ここが切断されると、右脳と左脳が独立して動作をし始め、2つのことが出来るようになった、という症例が紹介されている。また、8歳までなら、どちらかの脳がまったく無くなってしまっても、正常に生きていけるそうだ。右脳と左脳でほぼ同じ機能を有しているということらしい。

・犯罪と脳疾患の関係

 この内容は著者であるイーグルマン氏が最も力をいれている。
 脳腫瘍等で脳に欠陥が生じた結果、社会倫理性などが機能しなくなり、銃の乱射により大量殺人を行ってしまった事例がある。この場合、犯罪の原因は脳腫瘍であり、本人のせいとは言えない。その場合の刑罰の在り方はどうあるべきか、という問題定義だ。イーグルマン氏によれば、現在でも、明らかに疾患が原因である場合は無罪になるケースがある。トゥーレット症候群や夢遊病患者なら、非難に値しないということになり無罪となる。ここで、医療と科学の進歩により、脳の疾患が原因であるということが判明するケースは増えていく、そうすると、本人が無罪か有罪かは、医療と科学の進歩に依存してしまうことになる。そのため、本人が今後修正可能であるかなど、量刑に対しては別の判断基準があってしかるべきではないか、というのがイーグルマン氏の主張である。
 ここでイーグルマン氏が示唆している、犯罪行為の原因を脳あるいは神経疾患に求め、治療しましょう、という内容は、映画「時計仕掛けのオレンジ」を思い出さずにはいられない。問題を見つけ、解決していこうという姿勢は、アメリカ人らしいなとは思う。

 雑ぱくな紹介となってしまったが、「意識」の外で人間の行動が決まっているというのが本書の趣旨である。
 もともと本書を手に取ったのは、前回、エージェントに主体を導入するということを検討していたので、「意識」についての本を読んでみようと思ったからだ。主体の行動は「意識」という形で意識されずに決まっていることが多いということを本書で改めて確認した。「意識」が無くても知的なことが出来るなら、知性を実現するには言語が必要である、という私の認識を改めなくてはならないかもしれない。少なくとも「プログラムされていないことを実行する」のに、必ずしも言語が必須ではないようにも思える。次回、本件について検討を深めようと思う。

猫かと思って良く見りゃパン、しかも一斤

 全くAIと関係ない記事を書いてしまった。

 NHK FMで、×クラシックという番組があり、いろいろなジャンルとクラシックをかけ合わせようというコンセプトである。
 司会者が音楽に詳しすぎるためか、とてもマニアックな選曲が多く、半分はクラシック以外の音楽だったり、喋りも長いので、pureなクラシックファンからは、もっとクラシックを聴きたいという声も(twitterで)ちらほら見かける。
 本放送が日曜日の14時、再放送が月曜朝である。

 6月の放送で事件があった。ロック×クラシックの第1週で、大槻ケンジ率いる特撮というロックバンドの「ケテルビー」という曲が紹介された。タイトルの「猫かと思って良く見りゃパン、しかも一斤」というのは冒頭の歌詞である。ケテルビーというのは、「ペルシャの市場にて」というクラシックの小曲を作曲した作曲家である。このロックの曲にメロディーが使われているので、番組で紹介となったのであろう。

 事件というのは、この曲が圧倒的にいい曲なのだ。並大抵のクラシック曲では追いつかないほど、世界のすべて、あるいは人生の本質を表現していると思う。
 表題の歌詞である「猫かと思って良く見りゃパン、しかも一斤」とは、人が、何かについて「こんなはずではなかった」と気づいた時の絶望を表しているのだ。それは、会社人生がこんなはずではなかったとか、恋人や家族に対しこんなはずではなかったと気づいてしまう時かもしれない。2番の歌詞は、「女だと思って良く見りゃタニシ」となっている。

 こんなことを表現するのは、クラシック音楽では無理である。マーラーだってここまで絶望を表現してはいないだろう。なので、この曲を聴いたあとにバッハを聴いたとしたら、あなたは世界は美しいだけではないと知った後であり、そんなことを表現できる音楽があるのだと知った上で、「神の音楽」を聴くことになるのだ。

 しかも、大槻ケンジは救いも残している。「お前の希望は絶望だったかもしれない。しかし、お前の絶望は希望かもしれないのだ。パンは一斤もあるのだ」と曲は結ばれる。また、歌詞だけではなく、旋律もベースも美しいのがすごい。

 私は基本的にクラシック音楽ファンだが、大槻ケンジの世界はドストエフスキーに通ずるものがあり、クラシック音楽とは別のアプローチで人間の在り方に迫るので、大好きである。

人工生命エージェントへの言語能力の付与について(その1)

 前回、本ブログで想定している、人工生命エージェントに付与する言語能力の方針について述べた。端的に言えば、

  • 探知→反射のループの延長線で言語能力を付与する
  • 会話BOT型は採用しない
  • 自分の発言を聞いてまた発言するフィードバックループが形成される

 という3つである。

 今回は、上記を原則としながら、エージェントに言語能力を付与するプログラム構想について検討を進めていく。

※以下、やや軟調な文章が続くかもしれないが、話を分かりやすくするためであり、最後まで読んで頂ければと思う。また、論旨を最後にまとめた。

 

 本ブログで目指す、強い人工知能、あるいは深層人工生命エージェントの最初のゴールを、「プログラミングされていないことを思いつく」ということにする。
(最後のゴールでもいいかもしれませんが…)

 また、人工生命プログラムとして、食べ物を食べないと死んでしまう、食べ物を探しにいって持ち帰る、等を実現するエージェントを例とする。

 この程度のエージェントのプログラミングは簡単でありながら、プログラムされていないことを創発する、という原理実証も出来ると考えられるため、しばらくはこのプログラム構想の中で議論したい。また、そろそろ、プログラミングを始めていかなくてはならない、という事情もある(^^)

 目指すエージェントは、単純な例として、食べ物を探して家に持ち帰って食べるエージェントのプログラムがあった時に、「在庫がこれだけあるから今日は食べ物を探しにいかなくてもいいや」ということを、プログラミングされなくても思いつくエージェントである。

 在庫状況を探知して一定量以上なら今日は行かないという条件式を埋め込まれたり、ある条件の時には食べ物を探しに行かないということが最適解であると強化学習で学んだりするのではなく、創発として思いつかなくてはならない

 上記を実現するために、言語が果たす役割を分解し、理想的には個々のプログラミングを実現できる程度まで分解して、それらを実現して組み合わせる、ということを考えてみる。まず、大きく3つに分ける。

(1)
「食べ物」という単語に対し、これが、エージェントが口にすると食欲が満たされ体力を維持する栄養を吸収できる実体としての食べ物のことを意味していると理解すること

 (2)
「食べ物」を探しに行くと疲れる、明日探しに行っても明日の分は手に入る、今日食べる分は在庫がある、など、こうするとどうなるか、ということを理解すること

 (3)
  (2)で出てくるかもしれない無数の選択肢から、今日これから「食べ物」を探しに行かなくても良い、という結論を出せること。

 もちろん、(1)は記号接地問題に関連しており、(3)はフレーム問題に関連している。(2)は、言語によるシミュレーション能力、あるいはミラーニューロンの作用かもしれない。

(3)を解決する枠組みの見通しがあるわけではないが、(1)(2)については、プログラミング技術上の問題とも言えるので、それぞれの準備を進めていく。本エントリーでは、(1)のみを議論する。


(1)「食べ物」が食べ物であるとエージェントに理解させる。

 これは一見記号接地問題のようだが、既存の人工知能プログラムと比較し、本ブログでは以下の大きな利点がある。
 まず、本ブログで目指すプログラムは、身体モデル-外界モデル-AIモデルの3者の組み合わせであり、身体モデルと外界モデルにより、食べ物がエージェントにもたらす意味は実作用としては定義済みである。
 また、記号に基づいて身体と外界を構築するため、食べ物と「食べ物」はすでに一体である。すなわち、記号接地問題として取り上げられる問題のうち、概念と記号の対応、はすでに取れている。これは、ソシュールの言う「記号が概念を作る」という原則をもとにプログラムの構想をまとめているためである。

 上記から、プログラム上の問題は、「食べ物」という単語が、実体としてすでに外界モデルに存在する食べ物のことであると、エージェントが認識するにはどうすれば良いか、という問題になる。
 

 あらためて、エージェントが「食べ物」を食べ物であると理解するための段階を整理する。「」は記号を意味しており、「」が無い場合は実体としての食べ物を示している。 

①食べ物がエージェントの身体にもたらす作用自体
②食べ物の作用(食べた時に食欲が解消される)をエージェントが理解すること
③「食べ物」が②の食べ物であることをエージェントが理解すること

 ①は、本ブログで当初より主張している、外界モデルと身体モデルを用意することで解決している。
 ②は、強化学習の手法で食べることを学習するということでは実現できない。②はとばして③に進む。

 ③について、まず、言語は習うものであることから、②の食べ物を「食べ物」と呼ぶんだよとエージェントに教えてあげれば良い。言語の創発や自己組織化の機能は、人間には備わっているかもしれないが、まずは不要である。

 しかし、エージェント側に名前を教えてあげるには、エージェント側に名前を学習するシステムが必要である。ここが今回の肝心なところであるが、ようは「これは何?」と問いかける主体が必要なのだと思う。

 強いAIを作るということは、主体的に考えるAIを作ることとも言えるが、そのために、まず主体が必要であるということになり、トートロジーのようにも見えて面白い。実際には、一周してスタートに戻ってしまっているということはなく、プログラム上、主体に相当するものを創造すれば、③のように言語を学ぶことも出来るだろうし、②のような、行動に伴う結果を理解する、というメカニズムも実現できるだろう。

  本ブログにおいては、身体モデルと外界モデルの見通しはあるが、AIモデルについて見通しがなかった。今回考察したように、「これは何?」と問いかけるような、主体をAIモデルに導入することを、次回検討してみようと思う。

 言われるまでもなく、デカルトの「我思う、ゆえに我あり」という結論のようになっており、身体と心の二元論ということであれば、AIには身体が必要であるという本ブログのテーマから相反する内容かもしれないが、AIモデルに導入する主体が、身体と一体になった主体であることを忘れずにいれば、大丈夫ではないかと思う。

 なお、ソシュールの主張である「記号が概念をつくる」という意味を突き詰めると、②と③は実は一体であると考えられる。すなわち、「食べ物」という記号があって始めて、食べ物の作用をもたらす存在の概念が生まれ、その概念こそが、作用の理解なのであると。
 これは直感に反するようにも思える。食べ物を食べたら実際に食欲は解消され、それは「食べ物」という記号があろうがなかろうが変わらない。

 ただ、言語能力が無ければ概念自体が無く、知性も生まれないということであれば、「食べ物」という記号があるからこそ、食べ物を食べた時の作用を理解できるというのは正しいと思う。ソシュールの考え方は本ブログにおいて根幹となっており、ここはブレたくないと考えている。したがって、エージェントに導入すべき主体は、言語を扱うことで概念をあやつる主体である、と言える。

 余談だが、犬は言語をあやつれないので、食べ物の作用を理解していないし主体もないのだろうか。主体はあるように見える。あるいは、ごく単純な言語(音声以外の手段も含め)はあり、極めて限定的な概念は有しているのかもしれない。

 

 長くなったので、本稿の趣旨をまとめる。

  • プログラムされていないことを思いつく人工生命エージェントを実現するために、以下の3つの機能が必要と考えられる
    (1)「食べ物」を食べ物と理解する(記号接地問題)
    (2)こうするとどうなるか、あーするとどうなるかを理解する
    (3)こうすれば良いと、プログラムされていないのに思いつく(フレーム問題)

  • まず(1)を実現させるための議論を進める
  • 食べ物モデルと身体モデルは用意しているので、食べ物が身体にもたらす作用は実現できる
  • 「食べ物」が食べ物であることをエージェントが理解するには、「これは何?」と問いかける主体が必要。すなわち、エージェントはまず主体的であるべき。
  • 「食べ物」という記号により食べ物の概念が生まれるというソシュールの主張を踏まえ、「食べ物」を食べ物と理解する主体をプログラミングしていく
  • 次回、人工生命のエージェントに主体を導入することを検討する。