カントから見る予測符号化と合理的ベイジアンの特徴

The predictive processing paradigm has roots in Kant」を目にして間もないうちは、これを元にして予測符号化(predictive coding;predictive processingとも呼ばれる)と表象主義について記事を書こうと予定していたのだが、そもそもこのテーマ自体が広大なものだとだんだん気づいてきて気軽に記事に書けなくなってしまった*1のだが、それとは別にこのカント論文における予測符号化の理解に問題があると気づいてしまった。そこでとりあえずは表象主義の先にある深い森に入り込むのは避けて、その手前の基本的な問題をまとめることから始めようと思った。

同じくベイジアンを用いた理論でも…

The predictive processing paradigm has roots in Kant」は予測符号化(予測的処理)の考え方とカントの哲学との共通点を分析した論文である。私はこれをを元にして、科学的には妥当な解釈である予測符号化の観念論的解釈(Jakob Hohwy"The self-evidencing brain"を参照)を論じようとしたのだが、どうもこの論文の予測符号化の捉え方に問題があることに気づいた。つまり、予測符号化の例として同じくベイジアンを用いていることで有名な研究者であるGriffithsやTenenbaumらによる研究も参照されているのが、これは私には勘違いとしか思えない。実際に他の予測符号化の論文で彼らの論文が参照されているのはほぼ見たことがない。それどころか、あるAndy Clarkフォロワー学者が予測符号化と比べてGriffithsやTenenbaumの研究を批判しているのを見たことがあるが、その内実は別にしてもその言いたいことは分からなくもなかった。要するにその学者はGriffithsやTenenbaumの研究の合理主義的な要素を嫌っていたのだ。
GriffithsやTenenbaum研究については「認知科学におけるベイズ的アプローチに関する文献の紹介」を参照してもらうと分かるが、予測符号化における予測誤差を用いた考え方とは異なる。その特徴は行動経済学との比較が分かりやすい。行動経済学との共通点は高次な判断を扱っている点だが、その考え方が異なる。行動経済学では人の判断における非合理性が強調されがちだ。しかし、GriffithsやTenenbaumによるベイジアン・アプローチでは人の高次な判断における合理性が注目されている。そこでこれ以降はGriffithsやTenenbaumらによるアプローチを指すのに合理的ベイジアンという言葉を使うことにする。

合理的ベイジアンとカントの因果論

カント哲学の特徴の一つに因果についての考え方がある。哲学者ヒュームによって有名になった単なる観察された事実からだけでは因果関係は導けないという議論がある。この懐疑的な結論に対してカントが挑戦して、人の側に世界の中に因果を認識する図式が備わっているとした。こうした因果推論に対してベイジアンの立場から統一的な説明を与えたのがGriffithsやTenenbaumによる合理的ベイジアンの考え方である。現代的な因果推論ではあらかじめベイジアンネットワークによって因果構造を与えて、そこから因果関係を推測するという手段をとる。
つまり(ヒュームの論じるように)外界から与えられてデータだけから因果を導けるわけではなく、因果についての図式や構造を前提として関係を推測しているのだ。確かにここには合理的ベイジアンとカント哲学との間に共通点がある。

予測符号化とトップダウン効果

それでは予測符号化とカント哲学との共通点とは何か。それはセラーズによっても有名になった「概念なき直観は盲目である」という言葉に含まれている。つまり私達は外からの感覚的データだけから知覚を形成しているわけではない。それは錯覚や盲点などの例を考えれば分かる。実は私達の視覚には盲点があるのだが、それは自動的に埋められてしまうのでそれに気づくことはめったにない。文脈効果というのもあって、周りの文字との並びによって同じ文字でも「B」に見えたり「13」に見えたりする例は有名だ。これ以外にも、私達は感覚入力からの影響(ボトムアップ)だけでなく入力から遠い所からの影響(トップダウン)も大きく受けていることが分かっている。予測符号化はそうした知覚や運動におけるトップダウン側の予測が重要な役割を果たしていることをモデル化したものだ。
このように人の側の持っている知識や枠組が認識に影響を与えるという考え方はカントにまで遡るものであり、それは後にヘルムホルツによって無意識的推論という形で現代にまでつながる心についての考えを導いたのだ。

認知科学における計算論モデルについて

合理的ベイジアンと予測符号化と、両者において感覚データだけによって認識が成り立っていることを否定している点は共通している。しかし、これらの大きな相違点は合理的ベイジアンが(脳の構造とは関わりの薄い)純粋な認知モデルなのに対して、予測符号化は古くは小脳研究から続く伝統を受け継いだ神経的モデルであることだ。
もちろん、心のモデルとしては生物学的な構造に則ったものがいいに決まっている。しかし、単なる還元的説明とは異なり、心の計算論モデルは何かしらのアイデア(例えばヘッブ則)がないと作り出すことができない。認知モデルの役割はむしろ観察可能なデータ(例えば行動)を導くための規則を心のモデルとしてふさわしいと思われる形で作り上げるのが目的だ。(最近は疑われてもいるが)脳イメージング研究において前提とされている機能局在論も、認知モデルとしてのモジュール論が想定されて研究されている。科学も心と同じように単なるデータの寄せ集めによって出来上がっているわけではない。

予測符号化は心の統一理論なのか

Andy Clarkを始め予測符号化について語る代表的な論者の多くは、予測符号化を心や脳についての統一理論(unified theory)だと称することがよくある。確かに予測符号化が幅広い現象を説明できる包括的な理論であることは私も認める。
しかし、もし予測符号化が統一理論だとしたら、フリストンの自由エネルギー原理への批判である暗室問題(dark room problem)は思われている以上に深刻だと思われる。自由エネルギー原理の元となる統計力学の考え方とは、部屋は放っておけばどんどん散らかり続けるという考え方である。つまり宇宙が死の状態へと向かい続けるように、生命は真っ暗闇にハマったら予測誤差がなくなるので結果としてそこから動く必要がなくなる結果が導かれる。確かに生命は目標が定まってさえいれば、(学習によって)安定的な適応点に向かって状態が収束するのが最適であるのは確かだ。だが、なんの目標も与えられないままに一般的にこれが正しいということにはあまり意味があるように感じられない。むしろ統一の原理にこだわることで世界における現象や説明の多元性に目を背けることのほうが危険だ(最初に挙げた合理的ベイジアンの意義に気づかないClarkフォロワーはその例だ)。
過去の例を考えても統一理論とかグランドセオリーとかの誇大妄想の行きつく先にいいところはない(社会学マートンの批判も参照)。科学に必要なのは、上から原理を一方的に押し付ける統一理論ではなく、上からの原理と下からのデータのバランスがとれた包括的な理論ではないだろうか。

*1:この理由でここではカントにおける構想力は扱わない