勘違いしやすい統計の基礎用語を整理する

ベイジアンについては、認知科学の理解にとっても重要だし統計的検定にも関心があるしで、相変わらず勉強中なのだが、その過程で困ったことがある。実は、頻度主義とベイズ主義の比較に興味を持ってネットにあった日本語の論文やスライドを幾つか見たのだが、そこで困惑する事態に出会った。

それは、それらの文献や資料において使われている用語についての定義の仕方が互いに整合性が取れないことだ。困ったことに、どの文献や資料も内容はもっともらしくてどの用語の定義を信用していいのかよく分からない。こういう場合は仕方がないので、英語の論文を含めてより広く文献を探すことにしている。そうこうしているうちになんとなく理解できるようになったので、あくまで勉強中の素人による理解として聞いてください。

頻度主義は本来は確率論の用語である

頻度主義とベイズ主義を比較した文章を読むと、仮説検定や推定についての話が出てくる。仮説検定法には後で詳しく論じるが、仮設検定法を主題とした文章をそうした比較を主題とした文章と照らし合わせると、どうも言っていることに違いがある。その違いがうまく解消できなくて困ってしまった。そこで英語の文献に頼ったのだが、そこで分かったが、頻度主義とベイズ主義を仮説検定や推定に関わる用語として直接に用いている人は多いが、これは正確には問題があるということだ。頻度主義というのは本来は確率論の用語であり、確率論として頻度主義を採用した立場が頻度論の統計や推論であるということだ。ベイズ主義とベイズ統計・ベイズ推論とを全く同じ意味として用いることは少なくとも誤解を招く原因である。

ただややこしいのは、確率論の基礎的な考え方として頻度主義(frequentist)とベイズ主義(bayesian)があるという言い方はしないわけではないが、もっと一般的には別の分類法を用いる。確率論の立場としては、論理説、主観説、頻度説、傾向説 1と大きく四つに分けられ、その中でも前者二つは認識的確率 2、後者二つは偶然的(客観的)確率と呼ばれる(「リスコミでの確率による不確実性伝達の課題」を参照)。些細なことを言うと、主観説とベイズ主義はたいてい一致するが、必ず一致するわけではない。細かい話は別にしても、はっきりと言えることは頻度主義(ベイズ主義も?)はあくまで確率論の用語であって、確率論としてそれらの立場に立った統計学が構築されていると考えるのが妥当だ。

頻度主義に基づいたのがネイマン-ピアソン流の統計的推論だ

頻度主義の説明として仮説検定法や推定法が挙げられることは多い。この説明に問題があることはすでに述べたが、実はこの説明の仕方に問題があることは始めは別の方面から気づいていた。なぜなら、頻度主義とベイズ主義の比較について調べるよりも前に、統計的推論におけるフィッシャー流とネイマン-ピアソン流の違いに触れた論文を先に読んでいたからだ。頻度主義の説明として二者択一的な仮説検定法が挙げられることがあるが、これは大間違いとまでは言わないが、正確にはネイマン-ピアソン流の統計的検定法の特徴だとするのが正しい。私のような素人にはネイマン-ピアソン流以外に頻度主義に基づいた統計学があるのかどうかよく分からないが、少なくともそれが誤解を招く言い方なのは確かだ。好意的に見れば、頻度主義として二者択一的な仮説検定法を挙げるのは一般に普及した主流の仮説検定法を批判する目的であることは理解できる。しかし、実はここにもう一つの罠がある。

普及した仮説検定法は純血のネイマン-ピアソン流か?

一般に普及した主流の仮説検定法がネイマン-ピアソン流の仮説検定法だとはよく言われる。しかし、それも正確には正しくないらしい。それに気づいたのはそれを主題にした論文を見つけて読んだせいだが、実はそれ以前から違和感を感じていた。統計学者のフィッシャーとネイマンの間の論争を論じた論文を読んでいたときに、フィッシャーについての説明の中でp値が触れられているのを読んで不思議に思った。なぜなら、最近の再現性問題で話題にされたのがp値の誤用だったからだ。もちろんp値の誤用は主流の仮説検定法の元に行なわれた誤りだ。つまり、主流の仮説検定法にはネイマン-ピアソン流の二者択一の仮説検定とフィッシャー由来のp値がともに含まれていることになる。このことには薄々気づいていたのだが誤魔化していたところで、「機能的ツールとしての統計的仮説検定」を読んで疑いが確信に変わった。一般に普及した仮説検定法はフィッシャー流とネイマン-ピアソン流が混ざったハイブリッド仮説検定法だったのだ。

主流の仮説検定法の問題がネイマン-ピアソン流の仮説検定法の問題として語られることは多いが、実のところこれは正確には異なる。例えば再現性問題において、有意差を出すために標本数を事後的に変えることでp値を調整することが問題としてあげられた。しかし、これは主流のハイブリッド仮説検定法だからこそ生じる誤りであり、ネイマン-ピアソン流の仮説検定法の問題ではない。純粋なネイマン-ピアソン流では前もって標本の大きさを決める過程があるのに主流の方法ではそれは必須になっていない。標本数が増えるほど有意差は出やすくなる(小さな差でも有意になる)ことは知られているが、それを考慮すれば標本数を前もって決めるべきなのは当たり前だ。いくらなんでもネイマンやピアソンがそこに気づかないほどまでの馬鹿ではなかった。むしろ馬鹿なのは仮説検定を無理矢理ハイブリッドにしてしまった側の学者たちだ。

あなたは仮説検定における二つの過誤を本当に理解しているのか?

仮説検定法については標本数の他にも効果力や検定力の問題もあるが、詳しくはリンクした論文を読んでください。実はこの論文を読んで気づいた大事なことがもう一つある。それは統計学の授業や教科書で必ず触れられる二つの過誤についてだ。私は心理学科の出身だが、統計の授業で二つの過誤がよく理解できなかった。その後も、稀に気が向いた時に統計の教科書を見てみても、どうしても第一の過誤と第二の過誤の話がよく分からなかった。それは私に頭が悪いからだと長らく思っていたが、そうもそれだけが原因ではなかったらしい。

つまり、学校で習った主流の(ハイブリッド)仮説検定法では二つの過誤の考え方があまり生かされていないのが、私が理解できなかった理由だったのだ。というのは、本来のネイマン-ピアソン流にはあった検定力(検出力)への配慮が主流の仮説検定法では必須ではないせいだ。その結果として、二つの過誤を説明する意義が失われてしまっている。要するに、一方で標本数が定まらないことで有意差が出やすくなり、他方で検定力(検出力)が低いせいで誤って差がないとされてしまうことだ。本当は両側から別々の過誤を防ぐ必要があるが、主流の仮説検定法ではそれが為されていない。主流の仮説検定法の枠組みでは、私のような論理的整合性で物事を理解する人間には二つの過誤が理解しにくいのも仕方がないと思えてきた。

批判されがちなネイマン-ピアソン…が勘違いの始まり

再現性問題によって主流の仮説検定法に批判が集まり、その源がネイマン-ピアソンにあるとされることは多い。しかし、それが勘違いなことはすでに説明した。本来のネイマン-ピアソン流の仮説検定法では標本数と効果量(から導かれる検定力)を前もって決めておく必要がある。考えてみれば効果量、つまり二つの群の間にどのくらいの違いがあってほしいのかという期待による基準がなければ、そこから導かれる確率に何の意味があるのかは私にはよく分からない。主流の仮説検定法は表向きに客観主義を装うことで、本来必要な研究者の側がこうあってほしいという主観的な期待を消し去ってしまったのだ 3。その結果が論理的に整合性がないとされる主流の仮説検定法だとしたら、それは不幸なことでしかない。


  1. 傾向性説と訳されることもあるが、これだと私のように心の哲学に慣れた人間にはdispotisionの訳だと勘違いしてしまうが、実際はpropensityが原語のようだ。訳し分けは難しい。

  2. epistemic probabilityは認識論的確率とよく訳されるが、認識論的はepistemologicalの訳語なのでややこしい。もちろんlogicalの部分が「論」の意味を持っている。

  3. それでも謎として残るのは、本文でリンクした論文「機能的ツールとしての統計的仮説検定」p.19を見ると、なぜネイマン-ピアソン流の仮説検定法では標本の大きさの決定が先で検定力(検出力)による検討が後なのかよく理解できない。どう考えても効果量を先に決めてから標本数を決めるほうが合理的だ。同論文p.31にあるガイドラインの第一項を見ると効果量を見積もってから標本の大きさを決定するというプロセスが示されているので、やはり私の考え方のほうが妥当な気がする。

なぜかネットで手に入る英語による認知科学の教科書を見る(リンク切れに注意)

お世辞にも日本の認知科学を巡る状況は褒められた状況ではない。書籍に関しても、私がこのブログを書き始めた十年ちょっと前に比べればかなりマシになったとはいえ、全体的に見れば楽観視はできない。それでも一般向け読み物としての入門書はいくつかあって、古典的な入門書であるピンカー「心の仕組み」も手に入れやすくなっているし、最近だと去年出たスローマンら「知ってるつもり」が実は認知科学読み物だっりする。

しかし、これらは一般向けの入門書なので認知科学の基礎や全体像が勉強できるわけではない。そこで、最近の認知科学の教科書がどんなものなのか?をネットで調べてみると、なぜか普通に幾つかの新しい書籍のPDFを手にれることができることが分かった。そこでそれらを紹介してみたい。

認知科学を分野別に紹介した約十年前の本

Jay Friedenberg&Gordon Silverman"SCIENCE COGNITIVE An Introduction to the Study of Mind"

まずは手始めに十年少し前に出版された認知科学の教科書を見てみよう。これは認知科学の諸分野をアプローチ別に紹介している本だ。哲学・心理学・言語学神経科学・人工知能と…認知科学の主要な分野が紹介されており、内容は充実している。ただ、私の印象では哲学の章は物足りなく、人工知能は複数の章に渡っていて教科書としては詳しすぎる感じがする。認知科学の教科書としては 広い範囲を網羅していているが、逆に言えば紹介の寄せ集め感もしなくもない。実はこの本はすでに第二版が出ていて、それは全体が全く別の内容に書き換えられていて、第二版というよりも全く別の書籍になっている。確かに様々な研究が進んだ現在に分野別のこの書き方を続けるのは厳しいだろう。それでは最近の教科書はどうなっているのだろうか?

認知科学の研究テーマ別に分けて書かれた妥当な本

"The Cambridge Handbook of Cognitive Science"

これがネットで普通に手に入るのには正直驚いた(違法?)。これは2012年に出た認知科学のハンドブックである。内容は知覚や言語や推論などの主要な研究テーマ別に紹介されているもので、著者も著名な人が多くて豪華だ。研究テーマ別に分けて紹介するのは認知科学関連の教科書としては常套手段で、認知心理学認知神経科学の教科書でもそのような構成がよくされているし、海外の認知科学講義のシラバスでもこうした構成は見たことがある。それにこのハンドブックは認知神経科学進化心理学や身体化にも章が割かれており、新しい展開にも考慮されている。

全般的に条件が整っているにも関わらず、私にはこのハイドブックはどことなく不満を感じる。その最大の理由はハンドブックにしても分量が物足りないせいだろう。その理由のせいもあってか章によっては偏りも感じる。また、比較的最近になって注目されているはずの社会的認知についての章がないのも不満の原因だろう。研究テーマ別なのは認知科学の教科書としては穏当なのだろうけど、二十一世紀に入ってからの研究テーマの増大を考えると、なかなか網羅するのは困難だろう。

シンボル処理・コネクショニズム・身体化の三対による教科書

Michael R. W. Dawson"Mind, body, world: foundations of cognitive science"

これは2013年に出た哲学者による認知科学の基礎についての本だが、実質的に認知科学の教科書としての役割も果たせる。しかし何より、この本で示されているシンボル処理(古典的認知科学)・コネクショニズム・身体化という三対による認知科学の説明と言うのは実は今ではありふれたよくある説明方法だ。最初にこの三対による認知科学の説明を最初に示したのは1990年代始めに出たヴァレラら「身体化された心」という古典的著作だが、今でもこの三対による説明はよく見る。正直この本自体はそこまで大した本ではないが、この三対による認知科学の説明としては典型的なので紹介してみた。そこでもう一冊、このタイプの書籍を紹介しよう。

Francis Heylighen"Cognitive Systems a cybernetic perspective on the new science of the mind"

正確にはこれは書籍ではなく2015年頃の講義ノートなのだが、実質的に認知科学の教科書としても読める。この講義ノートの最初も内実は上の三対による説明に近い。その説明のあとは様々な研究の紹介になっていて、私の目からは構成が緩やかでちょっととりとめがない。

ただこの講義ノートには野心的な部分もあって、こうしたアプローチを統合するものとしてサイバネティクスによる心のモデルが提示されていることだ。ただ、このサイバネティクスによるモデルはフィードバックを軸に作られているが、最近の話題である予測符号化はそうしたフィードバック(誤差)だけのモデルに限界を見てフィードフォワード(予測)を付け加えたモデルを提出している。その点では、そうした視点を取り込んで新たに構成された講義ノートが必要なのでは…と個人的には夢想してしまう。

現時点でとりあえずの理想的な認知科学の教科書

José Luis Bermúdez"COGNITIVE SCIENCE An Introduction to the Science of the Mind Second Edition"

2014年に出版されたこの認知科学の教科書がなぜネットで普通に手に入るのかよく分からない(違法?)。事情はどうであれ、ネットで手に入る最近の認知科学の教科書としては、これはとりあえず理想的なものに近い。

特徴を挙げると、有名な文献を例にした認知科学の歴史についての説明に一章が割かれている、三対による認知科学の説明が独自の構成で詳しく解説されている、認知神経科学進化心理学などの新しい展開もかなり詳しい、具体的な研究の例としてmindreadingの説明に一章が割かれている、意識の問題など他にも多様な話題に触れられている…と教科書としてはその内容の豊富さには感心する。この豊富な内容を教えられる先生が日本にいるかは正直怪しいが、20年来の認知科学マニアの私でもとりあえず納得の内容の教科書だ。あえて気づいた欠点を言うと第二章の統合チャレンジの章が全体の構成から浮いている感がすることぐらいだろう。しかし、この本のその見事な構成を考えたらこれは小さな欠陥だろう。

認知科学の展開に付いていくために必要なのは?

理想的な認知科学の教科書を紹介したのだから、この記事はこれで終わりでもいいかもしれない。しかし、直前の説で「とりあえず」という言葉が入っているのに気づいただろうか。確かに、Bermúdezによる教科書は(20)00年代までの最新の認知科学の解説としては申し分がない。正直な所、日本にはこのレベルの内容を書ける人がいないどころか、このレベルの認知科学理解をしている人がどれくらいいるかも心もとない。

しかし、認知科学は(20)10年代に入ってからも大きな展開があって、教科書に反映されるべきものに限っても、予測符号化の流行や第三次人工知能ブームなどがある 1。予測符号化にはすでに軽く触れたので、人工知能ブームに触れると、今回の人工知能ブームは認知科学との関連は薄いのだが、それでも考えさせられることはある。私が見た最近の人工知能と結びついた認知科学論文で目についたのは、自然の知能と人工知能との差に注目したものだった。確かに、最近の独自に高度化したニューラルネットワークを見ていると、現実の脳との違いの方に目が行ってしまう。そして、それを考慮に入れるとBermúdezの本でも詳しく触れられている第二次人工知能ブームに基づいたコネクショニズムの説明が認知科学の教科書にどの程度必要なのか疑問に感じてしまう。

それにしても、認知科学を理解する上で最小限の共通事項とはなんだろう。一般的には情報処理アプローチと言えるだろうが、だが実際に思い浮かべてみると、必ずしも認知科学の研究のすべてが情報処理の考えに基づいているとは言い難い。私の見解では(広い意味で)「心をモデル化する」ことこそが認知科学に共通の傾向と言えるだろう。そしてこれこそが還元主義的科学観に抗した認知科学の起こした最大の科学革命の成果 2だと思うのだが、それはもう私の個人的な見解でしかないので、この話は終わり。


  1. 道徳心理学ブームを含めるべきかは正直迷う。しかしそれを言ったら、ミラーニューロンや社会的認知を含めないのも問題がある気もする。本文では触れなかったがこれまた流行った二重過程説を無視するのはもっと問題かもしれない。取捨選択には本当に困るほどに認知科学は話題が豊富だ。

  2. この科学革命の成果に比べれば、「認知科学」という固有の名称や学会さえどうでもいいというのが私の個人的な見解だ。ただし同意者を見たことはない。

2018年を振り返って二十一世紀の認知科学関連ブームを考える

2018年の認知科学関連ブームを振り返る

2018年を振り返って思うのは、実用的な方向に本格的に振り向いたことで人工知能ブームや道徳心理学ブームがようやく収まってきた感覚であり、その結果として二十一世紀に入ってから断続的に続いていた認知科学関連のブームがやっと落ち着いてきたということだ。

人工知能ブームについては、人工知能が人の知能を超える特異点(シンギュラリティー)についての地に足がついていない議論が沈静化していって、高度になったニューラルネットワークの純粋な工学的な発展と応用がより認知されるようになった気がする。人工知能が人の職を奪う論も以前ほどには騒がれなくなった気がするが、どうせそんなことは技術の発展に伴う結果としてはよくあることに過ぎない(それは技術が人の生活を便利にする側面とセットなだけだ)。人工知能の制御問題はもう少し現実的な問題だが、これはもはやただの人工知能論というよりもっと一般的なIT論に近い。今回の第三次人工知能ブームは認知科学とはそれほど関係がなかったのだが、表向きにあった関係あるかのような議論(人工知能が意識を持つ?)が2018年の間に目立たなくなっていったのは健全なことだなぁ〜と安心した。

道徳心理学ブームについては、早い段階で流行ったサンデルの講義で扱われていたトロッコ問題が知られていたが、その後は日本でも科学的研究がよく紹介されるようになった。ただトロッコ問題の応用以上には研究がなかなか広がっていかない懸念はあったが、最近ではトロッコ問題の応用は特に自動運転についての議論で広く知られるようになった気がする。もちろん科学的研究はこれからも地味に続けられるだろうが、自動運転の倫理については科学的に答えが出せるものではなく、実用的な問題として人々に議論してもらうしかない。こうなるともはや科学としての認知科学に貢献できるところは限られてくる。道徳心理学ブームもこうした視点からすると(問題の解決とは別に)収まってきた印象がする。

二十一世紀に入ってからの認知科学関連ブーム

日本では認知科学は過去の既に終わった学問領域だと思っている人も多いが、これは二十一世紀に入ってから起こった認知科学関連のブームの多さを考えると勘違いでしかない。このような勘違いが起こった原因は、国際事情から離れてしまった日本の認知科学事情のせいでもある。欧米では心理学者が認知神経科学研究に携わるのは普通なのに、日本では心理学と認知神経科学は別々だと思っている人も多い。つまり日本では学問分野間の壁が高くて異分野間の移動や交流が困難である事情もあって、日本では学際領域としての認知科学がうまく根付くことができなかったせいでもある。認知科学はそれ自体が独立した学問分野というよりも、様々な分野の専門家が参加する学際領域だとするのが正しいが、日本ではそれがあまり成立していない。

二十一世紀に入ってから認知科学関連のブームというのは欧米ではしょっちゅう起こった。(20)10年代に起こったブームとしては既に挙げた人工知能ブームと道徳心理学ブームがある(ただし前者は認知科学との関係は微妙。同時期に4E認知もブーム?)。行動経済学についてはノーベル賞受賞やナッジ本出版など複数のタイミングでブームが起こっている。しかしなんといっても、(20)00年代に起こった大きなブームとしては脳イメージング研究ブームと進化心理学ブームがあった(もちろん脳イメージング研究を含む認知神経科学認知科学の範疇だ)。これらのブームの前提として脳の機能局在論があったが、それがうまく行かなくなった反省として10年代に入って計算論が見直されたところもある。00年代には他にも研究的には、言語進化研究のブームやミラーニューロン研究から触発された研究テーマである模倣・共感・利他性なども研究としては流行っていたと言って構わない。実験哲学が勃興したのもこの頃だ。二十一世紀に入ってから認知科学が衰えたという奴らは欧米の事情を知らないただの無知しかない。

今振り返ると、二十一世紀に入ってからの認知科学関連ブームは、その多くが二十世紀の末には既に種が蒔かれていたものばかりであることを考えると、もういい加減にネタとなる遺産は食いつぶしたのかもしれない。とはいえ他の学問領域と比べても、こんなに多くのブームが起こったのも珍しい。そう考えると終わったどころでは全くないのだが、その一方で新しく生じた流れから振り落とされてしまった人も確かに多かった 1。私自身は科学としての認知科学に魅了された人間なので流れに何とか付いていっていたが、流石にこれから先は分からない。

認知科学はどうなる?

2018年に人工知能ブームや道徳心理学ブームが沈静化してきたことで、二十一世紀に入ってから断続的に続いていた認知科学関連ブームがようやく本当に収まってきた感じがしてきた。あえて言うと、認知科学内では予測符号化が流行り気味なところはある。もっと広い視点から見ると、現在の認知科学ベイジアンを中心とした統計的な脳観(認知観)が広まっている。これについては理論的に興味深い話もなくはないが、研究的にはそれまでの華々しいブームになったテーマに比べると地味さは拭いきれない。しかしそれは研究領域としては成熟してきたことの証かもしれない。


  1. 00年代半ばに認知科学の学術誌で、認知科学の創始分野のひとつである人類学が認知科学から外れつつあることを懸念する記事が載っていたことがある。その理由の一つは認知科学の自然化(生物学化)もあるが、それと同時に人類学の十八番である(比較)文化研究が他の学問分野でも普通に行われるようになったせいもある。