TEDにあがってた実行機能についての講演動画

以前のメタ認知についての記事で、実行機能に触れたことがある。

最近TEDを確認してたら、実行機能の研究者による講演の動画が上がっていた。見てみたら思ってた以上に良かったので、ここで紹介します。

後半は講演者自身による研究の紹介があって、これも面白い。私が記事を書いたときに、あれって実行機能と関係あったよな?と思いながら自信がなくて触れなかったマシュマロ・テストも、講演で取り上げられている。しかも、マシュマロ・テストを社会心理学的な手法と組み合せたオリジナルな実験を行なっており、うまく考えたなぁ〜と感心した。

講演の終わりでは実行機能の向上法として、状況を分析しておくのが重要だと言っている。これは私が書いた記事で批判した中野信子と同じ事を言っているように思えるが、さっぱり同じではない。中野信子と違って、状況の分析をメタ認知だとは言っていない。それどころか、状況の助けで実行機能を使えるようになると言ってるのであって、自力で何とかできるとは言っていない(むしろ逆)。

てか、認知科学の近年の傾向としては、自力でできることの限界を提示して、状況や環境の力の重要性を強調する方が多い。これは二重過程説が広く普及した結果であり、二重過程説が行動経済学などに限定されない射程の広い理論として理解されている証拠である。

おまけで、自己啓発ものについて

TED講演の中で、自己啓発ものでは実行機能がよく取り上げられている…との発言がある。自己啓発もの(の系譜のビジネスもの)ではメタ認知もよく取り上げられているのは、私が記事を書くために調べたときに分かった。こうした自己啓発ものに見られる傾向は、自力大好き!の思想だ。

自己啓発ものについては、以前にちょこっと調べたことがある。最近見つけたものだと、次にリンクしたものがよく書けていて面白い。

google:アメリカにおける「自己啓発本」の系譜 尾崎俊介

私は自己啓発ものそれ自体に興味があるというより、自己啓発ものが神秘思想の系譜を受け継いでいることに興味を持って調べた覚えがある。その傾向は上のリンクした文献にも触れられている。

AIでデータの偏りと社会の偏りは分けてみよう

このブログの前回の記事で、相関しか見ない人工知能では知的な機械としては限界があるとするパールの見解を紹介して、相関しか見ないニューラルネットワークは現実の偏りを学習すると書いた。

その後に、新型コロナ騒ぎも含めて色んな事情で大事なブログを確認できていなったことにやっと気付いた。それである記事を読んで、前回の記事は誤解を与える書き方をしてたことに気付いた。そこで、この辺りについて軽く私の見解を書いてみることにした。

AIの差別をめぐり“AIのゴッドファーザー”が炎上し、ツイッターをやめる

人工知能のバイアス(偏り)論争を見る

AIによる差別や偏見は、データが公正なら起きないのか――そんなツイッター上のやり取りをめぐって、“AIのゴッドファーザー”とも呼ばれる第一人者が炎上。ツイッターの離脱宣言をした。
そもそものきっかけは、モザイク化した顔画像を高精細画像に変換できるというAI研究で、「オバマ前大統領の画像から白人の顔ができた」という事例がネットで話題になったことだった。
これについて、「データにバイアス(偏り)があるから」と、“AIのゴッドファーザー”の一人と呼ばれるフェイスブックのチーフAIリサーチャー、ヤン・ルカン氏がツイート。
するとAIの差別や偏見の研究で知られるグーグルのリサーチサイエンティスト、ティムニット・ゲブルー氏が「問題をデータに矮小化すべきでない」と、社会の差別構造を含めた問題の根深さを指摘する。

以上は、「AIの差別をめぐり“AIのゴッドファーザー”が炎上し、ツイッターをやめる」の冒頭からの引用だ。長い引用になってしまったが、これから論じるこの論争の全体像が書かれている。

論争の基本構造は、データの偏りを強調するルカンと、社会の偏りの反映を強調するゲブルーと、の対立にある。論争の経過については、詳しくは参照記事を見てもらいたいが、物別れに終わって結論は出ていない。だが私はこれを読んで、前回の記事と関連しているのが分かり、そこを補完したいと思った。

前回の記事への復習とその論争との関連

まず、私が書いた前回の記事を復習したい。前回の記事では、相関と因果の区別がつかない現在の人工知能(特にニューラルネットワーク)では、現実の偏りがそのまま学習されてしまうとした。

一見すると、これは人工知能に社会の偏りが反映されるとするゲブルーの立場と同じなので、私はゲブルーの見解に賛同すると思われるかもしれない。しかし、私自身は全ての人工知能に社会の偏りが反映されると言うゲブルーの解釈は、安易な拡大解釈だと思っている。

どのように社会の偏りを学習するのか?

私が前回の記事で、人工知能が現実の偏りを学習するとしたのは、次のような想定からである。

病気になる確率を出す人工知能を作ろう

病気になる可能性を判定する人工知能を作るとする。そこで病気のデータを含めて関連のありそうな様々なデータを人工知能に学習させるとする。すると、必要な情報を入れると、その人がある病気になる確率が出てくる人工知能が完成する。これがあれば、医療保険などに適用できて便利そうだ。

入力データとして人種の情報を入れるとする。もし黒人と入力すると病気になる確率が高いと出たとしたら、それは保険料にも反映されるだろう。しかし、黒人と貧しさが強く結びついている(相関が高い)としたら、病気になる確率が高い本当の原因は貧しさであることになる。だが、相関だけで因果が分からない人工知能では、病気になる本当の原因は分からないのだ、黒人の貧しさという社会の偏りがそのまま学習されてしまう。

これが、前回の記事で想定されていた人工知能への偏りの反映である。このような変数間の関係を見る回帰分析的な人工知能では、社会の偏りが学習されるのは避けられない。もちろん、偏りをもたらす人種の情報を入力から外す手はある。しかし、どの情報の組み合わせなら(予測力を下げずに)偏りを回避できるのか?は明らかでないことの方が多い。

こういう点ではゲブルーの指摘は確かに正しい。しかし、この論争で問題になっている顔認証(顔生成)は、相関と因果の区別がつかないことで起こる問題ではない。

パターン認識はデータの偏りを学習する

顔認識とはパターン認識の一種であり、顔生成もその応用の一種である。正確には識別モデルと生成モデルの区別が関わっているが、ここでは省略する。面倒なので、ここでは顔認識(識別モデル)だけを扱うが、顔生成(生成モデル)への議論の拡張はそれほど難しくない。

顔認識のようなパターン認識では、参照記事にもあるように、黒人で誤認識率が高くなる…といった形で偏りが表れる。ルカンが指摘するように、このような偏りが出る原因は学習データの偏りにある。この場合は、学習データに白人が多かったのが、認識率に偏りが出る原因だ。

学習データの偏りに社会の側の偏見が反映される…と言われれば、それは間違っていない。しかし、それは既に説明した社会の中に存在する偏りを直接に学習した訳ではない。そこでは学習データを選んだ側の偏見が、データの偏りに反映されている。

データの偏りと社会の偏りは分けるべきだ

(非線形な)回帰分析とパターン認識では、社会にある偏りが反映されると言えば、同じに聞こえるが、そのメカニズムには違いがある。その違いが分からないと、それへの対処法も分からなくなる。前者が現段階では解決が困難なのに対して、後者はデータの範囲を広げれば良いので、単に解決不可とは言いがたい(ただし完全な解決はない)。

ここでは統計とのアナロジーを使って説明しておこう。パターン認識に偏りをもたらすデータの偏りとはサンプリングの問題と似ており、(非線形な)回帰分析を偏らせる社会の偏りは統計的な分析の仕方の問題に似ている。これらを安易に一緒にしてはならない。

おわりに

ビックデータやこの前の人工知能のブームのときに、データは大量に増やせば問題はない…みたいな発言は日本でもよく見かけた。その時はまだ統計を勉強し直す前だったが、それでもビックデータや人工知能でもサンプリングの偏りと無関係な訳ないじゃん〜と一人で突っ込んでた覚えがある。1

最後に注意しておくが、この記事の内容は論争への解説ではなく、あくまでただの補完です。論点が広がりすぎたこの論争への回答は私の能力では出せません。ただ、こういう問題を語れる人が日本にはあまりいない感じなのは困った状態だ(私も単に他の多くの人よりはこの問題が分かるだけで、本来の得意領域とは違う)。

おまけ

この記事を一通り書いたあとで、次の記事を見つけた。

ということは、データや変数をただ増やすだけでは計算コストがどんどん高くなりすぎて無理がある…ということだ。力業で押してれば人工知能で何でもできるようになる!と考えるシンギュラリティ馬鹿をもともと私は冷たい目で見てるので、そりゃそうだよなぁ〜と納得してしまうところもある。

ただ、この前の第三次人工知能ブームを経て、今やAIは人間のような現実の知能の再現ではなく、世界じゅうを予測できる神のような機械を目指すかに向かってる様相がなくもない。そんなの目指してたら、いくらコストが必要なのか際限がない。バベルの塔を立てたい欲望は私にはないので、なんかそういう人たちは私にはあまり理解できない。


  1. 母集団といった統計的概念も、ビックデータや人工知能の話題に比較的簡単に応用できる。この論争では社会全体が母集団だから、こうしたデータの偏りが問題になる(母集団とデータセットが一致することは現実的にありえない。サンプリングをするという手もありうるが、それをするコストや少数派を反映できる十分な規模を考えると難しい)。しかしショッピングサイトなら、購入者全体が母集団だとしたら、開始時からのすべてのデータを取れるので、データの偏りはそれほど問題でなくなる。

科学的分析の道具としてのニューラルネットワークを勝手に考えてみる(追記つき)

しばらくの間、このブログが放置状態になっているのは気になっていた。前に触れた、アブダクションとIBE(最良の説明への推論)との関係については、関連論文からめぼしい部分を見つけて引用のためにそれを翻訳したりと、準備は進めているがまだ記事を書く段階には至っていない。この辺りについては日本語で読める解説があまりないようなので、あれば便利なので記事にしておきたい気もするが、それなりにちゃんと書こうとすると案外大変。まぁ、無理せずマイペースでやっていきます。

私は同時並行的にあちこちに関心が移るが、ここに書けるほどのものは今はない。過去に遡ればいろいろなくもないが、わざわざ書こうとする気が起こるテーマがある訳でもない。そこで今回は、ネットや論文でここのところ見て気になったテーマを、面倒なのでサイトや文献への参照なしで書きます。気になる人は自分で調べて確認してください。

ニューラルネットワークをどう使う?

ニューラルネットワークは、一時の(第三次)人工知能ブームを経て、今や有望な道具(アルゴリズム)としての認識が広まりつつあり、人間への脅威の段階からどう使っていこうか?という本格的な実用段階に入っている。

そうしたニューラルネットワークの実用化には、商品(商業)化可能な工学的な応用も多いが、科学の世界でもニューラルネットワークは注目されている。そこに過去のニューラルネットワークの見方とは異なっているところが目につく。

過去におけるニューラルネットワークの捉え方は、今回のブームでも指摘されていたように、脳のモデルとしてであり、第二次までの過去の人工知能ブームではそうであった。しかし、前にも指摘したことがあるが、最近のニューラルネットワークは脳とはあまり似ていないし、似せようともしていない。この辺りについても色々と突っこんだことは書ける(AIを心に似せるか?)が、今回はそれが書きたいのではない。

脳のモデルから科学的分析の道具へ

最近、科学の世界で注目されているニューラルネットワークの用い方は、(脳のモデルとしてではなく)科学研究の道具としてニューラルネットワークを使うことだ。つまり、統計で人為的に行っていた分析を、ニューラルネットワークに全面的に任せてしまおうという動きだ。

ニューラルネットワークを科学的分析に用いることには、例えば次のような特徴がある。
- 統計モデリングと違って、中のモデルが分からない
- データ間の相関的な関係だけしか見ない(因果ではない)

ニューラルネットワークの特徴は、外側から人為的な設定をすることなく、データに沿った非線形な(分類などの)モデルを学習によって自動的に作ってくれることだ1

科学的分析におけるニューラルネットワークについて、人為的な(モデルの)設定がいらないことがよく強調される。だが、実際には細かい事前の調整は人がやるしかないので、その辺りの事情がよく分からないので、ここについては私の判断は保留。

モデルが分からなくても科学なの?

やはり最大の特徴は、ニューラルネットワークでは中のモデルが分からないことだ。たまにニューラルネットワークブラックボックスだとされて、まるで中が全く見えないかに勘違いされそうだが、正確には中は見れるけどグチャグチャで人が見ても何がなんだか分からないだけだ。どっちにせよ、ニューラルネットワークの中に出来上がったモデルが分からないことに変わりがないし、分かるようになる目処もほぼない。

違いを分かってもらうには、脳の研究にニューラルネットワークを道具として使うとしたらどう使うか?を想像すればよい。例えば、脳のデータと見てる画像とをニューラルネットワークで学習させれば、脳のデータだけから見てる画像が分かるはずだ(近い研究は既にあった気がする)。まず、このニューラルネットワークは脳のモデルではない(そもそも脳のデータを入力にする生物はいない)。しかも、研究が成功したとして、その中身(モデル)を知ることはできない。

複雑な相関を導く道具としてのニューラルネットワーク

モデルが分からないのに科学と呼べるのか?問題は、ここでは省略する。研究手法が多様になるのは歓迎だが、ただし議論は続けるべき…が私の見解だ。この問題を脇においても、まだ問題はある。

前に因果推論の記事で、相関と因果は違うという話をした。これは実はニューラルネットワークとも関係がある。代表的な研究者であるパールがもともと人工知能の研究者であるが、彼はデータ間の相関的な関係しか見ない人工知能では知的な機械としては限界があるとしている。ニューラルネットワークは相関しか見れないの典型であり、既に現実の偏りをそのまま学習してしまうことはよく指摘されている。

皮肉なことに、ニューラルネットワークは複雑な関係を扱うのに都合が良いが、社会科学や生態学のような複雑な関係を扱う科学に限って、偏りが避けがたい。ニューラルネットワークの適用範囲には気をつけるべきかもしれない。

科学にニューラルネットワークを道具として用いるのに、モデルが分からないのは許すとしても、(複雑な)相関しか分からない問題は解決されない。そして、相関と因果を媒介するのがモデルであるので、この二つの問題は実は無関係とは言いきれない。

追記(2020/07/15)

この記事をあげた後で、関連してそうなネット記事を見つけたのでリンクしておきます。

リンク先の記事で言われてる機械学習ニューラルネットワークかどうかは分からない。だが、ハイパーパラメータをベイズ最適化で調整できる…としているのは、私がここでした事前の調整をどうするか?の疑問に対する答えになっているような気もする。

ただ、この場合はR因子という調整のための基準があったからうまくいったが、一般的には必ずしも都合のいい基準が見つかる訳ではない。それに、もともと複雑なデータ解析していたのを機械学習に置き換えた例なので、モデルが分かるかどうかは始めから問題になってない。

そう考えると、この例は医療における検査画像の分析に機械学習を用いる場合に近くて、私がここで問題にした科学的分析とはちょっと違うかもしれない。


  1. 生成モデルの話は今回は無視。敵対的生成ネットワークが科学的分析に使えるのか私にはよく分からない。