TBSラジオ「フロッグマン・ショー AI共存ラジオ」で人工知能の歴史を聴く(そしてヒヤヒヤする)
最近はTBSラジオで夜にやっている「フロッグマン・ショー」が人工知能をテーマした番組で、毎回楽しみに聞いている。いつもどうりガ番組を聞いていたら、10/25(水)の特集で人工知能の歴史が扱われていた。講師が専門家でなくサイトを運営するほぼ素人なところに不安を感じたが、工学者は歴史を知らないという説明でそこは納得した。そこで始まった人工知能の歴史についての説明を聞いていみたら、私のような(元?)認知科学オタクからするとヒヤヒヤものだった。
人工知能のブームを三期に分けて1950年代、1980年代、つい最近の2010年代と順に説明していた。第一期は(会議名は出なかったが)ダートマス会議の頃なのでそこまでは良かった。しかしその後に、第一期の人工知能の失敗の理由としてフレーム問題を挙げたのを聞いて、「それはまずいだろ!」と心の中でつぶやいた。フレーム問題の説明を注文時のサイドメニューの例でするのも微妙だが、それよりもそもそもフレーム問題は今でも別に解かれたわけではないので、それを第一期の失敗理由にするのはどうかと思った。次の1980年代の第二期人工知能ブームとしてはエキスパートシステムを挙げていて、そこは安心。しかし、次にいきなり最近の第三期のブームに移ってしまったのには頭を抱えてしまった。
もちろん最近のブームはディープ・ラーニングに基づいているのだが、そのためにはコネクショニズムの説明をしないと本当はいけないのだが、そこが全てスキップされてしまった。ディープ・ラーニングについて素人向けにうまく説明できないのは仕方ない(私だってできない)が、その基本となるコネクショニズム(機械学習)について全く触れられなかったのは問題だった。正直な所、本来の専門家である工学者に説明させるのが難しいなら関連領域を研究している哲学者とか科学者でも構わないと思うので、ディープ・ラーニングについてはコネクショニズムの基礎から説明できる(準)専門家を連れてくるしかないだろう。…てかその後にこの文章を書きながら番組を聞いてたら、昔ニューラルネットワークを研究してた人が出てきてびっくり(ただし人工知能の話はそれ以上してない)。
自分だったらディープ・ラーニングにどうたどり着くか
私が説明するならどうするだろうか。理想的にはヘッブ則、マカロック&ピッツ、パーセプトロン、 PDPモデル(バックプロバゲーション)とコネクショニズムブームまで説明して、ディープ・ラーニングについては層が深いからディープなんだよ〜それで学習効率が良くなったんだよ(ついでにビッグデータにも触れる)程度で済ませるかな。ただ、これだと大雑把な概論講義になってしまうので、基本のアイデアだけに説明を集中しようか。
一般的には脳のモデルとして説明するだろうが、私はむしろ条件付けのモデルとしての説明を優先させるかな。つまり、AとBという2つの物事がどれだけ深く結びついているかをデータから学習していく、のを分かりやすい例として出す。これだけならAとBの2つの要素だけで結びつきを学習できるが、さらに学習すべき物事を増やしていくとそうもいかなくなる。そこで本来学習させたい要素とは別に結びつきを学習する隠れた要素を、学習させたい要素の間に挟み込む(ここで要素間を結びつけた図を見せると良し)。そうすると、なぜだか本来結びつきを覚えさせたい要素同士をうまく学習させられるようになる。じゃあ具体的にどうすれば多くの要素同士の結びつきをうまく学習できるようになるかの説明はすべてスキップ。ここがコネクショニズムの歴史そのものだけど(専門的で難しい上に)素人は知らなくて問題ないので、その結果がディープ・ラーニングだ!で済ます。もうひとつ説明しないといけないのがパターン認識だが、これは学習すべき要素を画像上の点にするだけで済ます。教師あり/なしも結びつきの学習と関連付ければ多分なんとかなる。
あ〜、でもラジオどころかそもそも自分は話するの自体が下手だからこんな妄想は意味な〜し!