7月末に、東北大から興味深い発表があった。複数の表情について、教師無し学習にて感情を区別することが出来たとのことである。
「表情から感情を読み取る過程を神経回路モデルで再現
-自閉スペクトラム症の症状出現のメカニズム理解に期待-」
以前紹介した「脳 回路の中の精神」でも紹介されていた、精神的な症状についてシミュレーションで再現することで精神医療に役立てるという、計算脳科学or計算論的脳科学の医学への応用例そのものだ。モデルで再現した故障により認知機能の低下が認められることが、逆に、このモデルが実際に脳に入っているという証左になるかもしれない。
最初記事を読んだ時には、自己組織化マップなど他の教師無し学習でも出来そうだなと思ったが、予測符号化理論という、脳内で予測と観測結果の誤差を最小にしていく、制御理論でいくことのオブザーバーのような仕組みが効いているようである。(逆誤差伝搬法も似たような感じか?)
また、いわゆるRNNも入っているという。チャーチランドの「認知哲学」を読んで以来、再帰的結合は必須と考えているので、その点でも今後の展開を期待したい。
ただ、この方向性で、自分が求める、プログラミングしていないことを実行する脳モデルに近づくかは良く分からない。エージェントの認知機能というか、過去の経験を蓄積し整理していくところは、教師無し学習で経験を分類していくことになると思うが、その方法はいろいろ考えられる。その大きな候補ではあると思う。