「人はどうやって物を見て、言葉を理解して、考えているのか」——この問いを、心理学・脳科学・コンピュータ科学・哲学・言語学が力を合わせて解明しようとするのが認知科学です。AIの研究にも深くつながっており、今まさに急速に発展している分野です。
ねらい — 心を「情報処理をするコンピュータ」として捉えることで、科学的に研究できるようになりました。
1950年代まで心理学は「観察できる行動だけを研究対象にすべきだ」という行動主義が主流でした。しかし「人が考えたり記憶したりする内側のしくみ」を解明したいという動きが高まり、心を「情報処理のシステム」として研究する「認知革命」が起きました。
この革命の火付け役になったのが、「人間が一度に覚えられる数は7±2個」を示したミラーの研究、「人は生まれつき言語を学ぶ能力を持っている」と主張したチョムスキーの言語学、そして「計算できるものは何か」を定式化したチューリングの理論です。
認知科学は特定の一つの方法に頼らず、実験室での心理実験、MRIを使った脳の画像解析、コンピュータで心を再現する計算モデル、そして「そもそも意識とは何か」を問う哲学的分析を組み合わせるのが特徴です。
ねらい — 目や耳から入ってきた信号が「意味あるもの」として脳に届くまでには、複雑なプロセスがあります。
知覚とは、目や耳などの感覚器官から入ってきた信号を「意味のあるもの」として解釈するプロセスです。外から入ってくる信号に反応する「ボトムアップ処理」と、「こうなっているはず」という予測を使って補完する「トップダウン処理」が同時に働いています。だまし絵や聴き間違いはこの2つが干渉し合うときに起こります。
注意は「限られた脳のリソースをどこに使うか」を決める機能です。騒がしいパーティでも特定の人の声だけを聞き取れる「カクテルパーティ効果」は選択的注意の典型例です。スマホを見ながら勉強すると効率が落ちるのも、注意資源が分割されるためです。
近年注目されている「予測符号化」という考え方では、脳は常に「次に何が起きるか」を予測し、予測と実際のズレ(誤差)を最小化することで世界を認識していると説明します。この枠組みはAIの深層学習とも深く関連しています。
ねらい — 言葉は単なるコミュニケーション手段ではなく、私たちがどう考えるかにも深く影響しています。
チョムスキーは「どの国の子どもも、教えられなくても自然に母語の文法を習得できる」という事実から、人間には生まれながらの「普遍文法」が備わっていると主張しました。この主張は言語学を大きく変え、認知科学の誕生にも貢献しました。
「言語が違うと、ものの考え方も変わる」というのがサピア=ウォーフ仮説です。たとえば「雪」を表す単語がたくさんあるイヌイットの言語を使う人は雪の細かな違いをよく認識できる、という有名な例があります。この仮説は今でも実験で検証が続いています。
ChatGPTなどの大規模言語モデル(LLM)が登場したことで、「機械が言葉を扱えるようになったとき、それは本当に『理解』しているといえるのか」という問いが改めて注目されています。言語と知能の関係は認知科学最大のテーマのひとつです。
ねらい — 「自分が何かを感じている」という主観的な経験は、脳科学でどこまで説明できるのでしょうか。
哲学者チャーマーズが提起した「意識のハードプロブレム」とは、「脳のニューロンが発火しているという物理現象から、なぜ痛みや喜びといった主観的な感覚(クオリア)が生まれるのか」という謎です。脳の機能は説明できても、「なぜ感じる(クオリア)のか」はまだ解明されていません。
「身体性認知(エンボディメント)」は、心は脳の中だけにあるのではなく、体と環境との相互作用の中で生まれるという考え方です。たとえばペンを口にくわえると表情筋が動き、気持ちが変わることがある、といった研究がこれを支持しています。
AIが急速に進化する中で「機械に意識が生まれうるか」という問いはSF的な空想ではなくなりました。認知科学者や哲学者は今、この問いと真剣に向き合い、意識や心の本質を再定義しようとしています。