AIが学べていない「知能のダークマター」

この記事の読みどころ
  • 現在のAIは人間が残した大量の行動データから学ぶが、内部で働く思考の部分は見えにくく「認知的ダークマター」として説明されることがある。
  • 具体例として、チェスの局面として成立しないようなコードを作ってしまうことがあり、表面的には立派でも意味の理解が浅い。
  • AIの知能は均一でなく、得意なことと苦手なことが混ざっているため、自己評価や内部状態の監

AIはなぜ「賢く見えるのに妙に不安定」なのか

AIは、ほんの数年で驚くほど多くのことができるようになりました。
文章を書き、画像を理解し、プログラムを書き、難しい問題にも答えます。

ところが同時に、不思議な現象も起きています。

難しい問題は解けるのに、単純なことでつまずく。
高度な説明ができるのに、基本的な理解が抜けている。
そして、その失敗はどこで起きるのか予測しにくい。

この奇妙な状態は、AIを使っている人なら一度は経験したことがあるかもしれません。

こうした現象の背景を説明しようとする研究が発表されました。
この研究は、マサチューセッツ工科大学(MIT)とハーバード大学を中心とする研究チームによって行われたものです。研究者たちは、現在のAIがなぜ「賢く見えるのに妙に不安定」なのかを、「認知的ダークマター」という考え方から説明しようとしています。


AIが学んでいるものは、人間の「行動」だけ

現在のAIは、膨大なデータから学習しています。

文章
画像
会話
コード

こうした、人間が外に出した情報です。

つまりAIが見ているのは、人間の「行動の記録」です。

人が書いた文章
人が作った画像
人が残したデジタルな痕跡

これらを大量に集め、そこからパターンを学んでいます。

しかし、人間の知能は、単に外に現れた行動だけで作られているわけではありません。

人は行動の裏側で、さまざまなことをしています。

たとえば

・自分が理解できているかを確認する
・途中で計画を変更する
・過去の経験を思い出す
・相手の気持ちを推測する
・状況の意味を考える

こうした働きは、人の行動を形づくる重要な部分ですが、外からは直接見えません。

研究者たちは、この「見えにくい知的な働き」を 認知的ダークマター と呼んでいます。


知能の多くは、観察できない部分にある

ダークマターという言葉は、宇宙研究から借りられています。

宇宙には、重力の影響から存在が推測されているものの、直接観測できない物質があります。
それがダークマターです。

同じように、人間の知能にも「直接観察できないが重要な部分」があるというのが、この論文の考え方です。

人は行動を見せます。
しかし、その行動を生み出している思考の多くは外から見えません。

AIは、行動のデータは大量に学習できます。
しかし、この見えない部分はほとんど学習できません。

その結果、AIの能力には大きな偏りが生まれます。

表面に現れるパターンは非常によく再現できる。
しかし、その背後にある理解や調整の仕組みは弱いままになる。

これが、AIの能力がどこか「ギザギザした形」になる理由だと研究者たちは説明しています。


高度なことができるのに、単純なことを間違える理由

論文では、AIの不思議な失敗の例が紹介されています。

あるAIに、次のような作業を頼みました。

「3つの1手詰めチェス問題を練習できるWebアプリを作ってください」

この課題には、いくつかの要素があります。

・チェス盤を表示する
・駒を配置する
・駒を動かせるようにする
・チェックメイトを確認する

AIは、かなり複雑なコードを書くことができます。
盤面の表示や操作の仕組みも作ることができます。

しかし実際に生成されたプログラムには、奇妙な問題がありました。

チェスの局面そのものが成立していないのです。

つまり、

見た目は立派なアプリ
操作もできる
コードも複雑

なのに、

チェスとして成立していない。

人間から見ると、「なぜそんなミスをするのか」と思うような状態です。

これはAIが怠けているわけでも、ランダムに間違えているわけでもありません。

AIは、コードを書くパターンは学習しています。
しかし、チェスというゲームの意味や構造を深く理解しているわけではないのです。


AIの知能は「均一」ではない

人間の知能は、多くの機能が組み合わさって働いています。

注意
記憶
理解
計画
自己評価
社会的理解

これらが互いに支え合いながら働きます。

しかしAIの場合、それぞれの能力が同じように発達しているわけではありません。

ある能力は非常に強い。
別の能力は極端に弱い。

そのためAIの知能は、人間のような滑らかな形ではなく、
でこぼこした構造になっています。

高度な推論ができるのに、単純な常識が抜けている。
文章は流暢なのに、状況理解が不十分。

こうした現象は、この能力の偏りから生まれます。


AIの未来はどこに向かうのか

この論文が示しているのは、AIの限界を指摘することだけではありません。

むしろ重要なのは、
次に何を研究すべきかという方向です。

もし知能の重要な部分が「観察できない働き」にあるなら、
AIの研究は次のような方向に進む必要があります。

・自己評価の仕組み
・内部状態のモニタリング
・状況理解
・長期的な記憶の利用
・社会的理解

つまり、人間の知能を支えている「裏側の仕組み」を、AIにも持たせる研究です。

現在のAIは、人間の知的行動の「表面」を驚くほど再現できるようになりました。

しかし、その背後にある見えない部分は、まだほとんど再現されていません。

宇宙の多くがダークマターでできていると考えられているように、
知能の世界にも、まだ見えていない部分があるのかもしれません。

AIの進歩は、その見えない部分にどこまで近づけるかにかかっているのかもしれません。

(出典:arXiv DOI: 10.48550/arXiv.2603.03414

テキストのコピーはできません。