そういえば、少し前にニューラルネットワークブラックボックスだという話を聞いた時に違和感を感じて軽く触れたのだが、その時はそれ以上は話が展開しなかったが、あらためてこの話を考えてみたい。

結論を言うと、最近のニューラルネットワーク(ディープラーニング)はブラックボックスだという話は半ば正しく半ば間違っている。どんな技術であれ知識のないユーザーにとってはその技術を用いた製品は中身が分からないという意味ではブラックボックスだが、もちろんニューラルネットワークの場合はこういう意味ではない。それどころか、プログラミングを組んだ本人さえもそのニューラルネットワークの作動の中身が理解できなくなっているという点でブラックボックスだと言われている。その理由はそんなに難しいものではなくて、普通のアルゴリズムでは作成した本人が設定した通りにしか作動しないのに対して、ニューラルネットワークの場合は与えられたデータから次々と学習することで中身の作動の仕方が複雑に変化してしまうので、それを作成した本人にもそれがどのように動いているのか結果としてよく分からなくなってしまうのだ。これがニューラルネットワークブラックボックスだと言われる所以であるが、これは事実の一方からの視点でしかない。

認知科学の世界でブラックボックスだと言われていた事の典型は行動主義であり、それこそ文字通りに外面から観察できる行動しか認めず、心的なものを行動に還元する考え方だ。この場合は心的メカニズムは見てないし、見ること自体が不可能とされてしまう。それに比べると、ニューラルネットワークブラックボックス性は中途半端だ。ニュラルネットワークは入力と出力の間を多数のユニットが複雑なネットワークで結び付けられているのだが、その中間層の状態は内部表現と呼ばれることがある。その巨大な中間層がそのニューラルネットワークのメカニズムに当たるのだが、もちろんこれは行動主義の想定するように文字通りに見えない訳ではない。正確には内部表現は見ようと思えば見ることができるが、見てもあまりにグチャグチャすぎてそれで何が表現されているのかが当の製作者にさえ分からない。基本的にはニューラルネットワークの中間層は特徴検出器(例えば色や傾き)になっていると想定されることが多く、多変量解析を用いてそれを調べた研究もある。とはいえ、実際のところ中身がどうなっているのかを理解することはとてつもなく難しくて、実質ブラックボックスと変わりがないとも言える。

とはいえ、それは実質上の話であって、行動主義のように文字通りのブラックボックスではないことに変わりはない。この先研究が進んで内部表現を理解できるようになる手段が開発される可能性はゼロではない。それに認知科学的には内部表現こそが興味深い対象であって、ディープラーニングの先駆者であるヒントンはそこ(事前学習で内部表現を前もって整えること)に注目した点で認知科学への素養を持った研究者だったのだ。当のニューラルネットワークは純粋な工学へとかなり変貌してしまったが、それとは別にヒントンの鋭い洞察には学ぶべき点もある。つまり、ヒントンの内部表現への注目は、ベイジアンにおける生成モデルの重要性とともに、認知科学に心があらかじめ持つ知識やモデルに目を向けさせる流れに結びついている。この流れは時間をかけて大きくなっているのではと予測しているが、ヒントンはその流れの一端を作り出したのかもしれない。