- AIは私たちの「考え直す力」を弱める可能性があり、信じ方を変える力にも影響する。
- その影響は、意図的な信念操作・エピステミック・バブル・統計的知識の「当たり前化」という三つのタイプとして現れる。
- 自由は残るが使いにくくなり、信念と自分らしさを変える難しさをどう支えるかが、教育・技術・社会の課題として挙げられている。
AIは、私たちの「考え直す力」をどう変えているのか
検索すれば答えが出る。
おすすめを見れば、自分に合った意見が並ぶ。
AIは、私たちの知的生活をとても便利なものにしました。
しかし同時に、ふと立ち止まって考えたくなる疑問も生まれています。
「自分の考えは、本当に自分で選んだものなのだろうか」
「考え直したいと思ったとき、私はそれができているのだろうか」。
ウィーン大学 哲学部で行われた今回の研究は、
この問いを**エピステミック・エージェンシー(認識的主体性)**という概念から捉え直しています。
ポイントは、
AIが「何を信じるか」だけでなく、
「信じていることを変える力」そのものに、どのような影響を与えているのか
という点です。
エピステミック・エージェンシーとは何か
エピステミック・エージェンシーとは、
簡単に言えば自分の信念を自分で形成し、見直す力のことです。
人は必ずしも、信念を自由に選べるわけではありません。
幼少期の環境、教育、周囲の価値観は、強く影響します。
それでも私たちは、
「この考えは正しいのだろうか」
「別の見方はないだろうか」
と立ち止まり、考え直そうとします。
研究者は、この考え直そうとする能力そのものが、
AIによって弱められる可能性があると指摘します。
問題の核心は「信念の修正」にある
この研究が特に注目しているのは、
信念を新しく作ることよりも、
すでに持っている信念を修正することです。
一度身についた考えを変えるのは、もともと簡単ではありません。
そこにAIが関与すると、その難しさが増す場合がある、というのです。
研究では、AIが信念の修正を妨げる仕方として、
大きく三つのタイプが示されています。
1 意図的な信念操作
一つ目は、意図的な操作です。
政治的・商業的な目的を持つ主体が、
AIを用いて人々を分類し、
特定の情報だけを集中的に届ける。
この環境では、
「別の考えに触れる機会」そのものが減っていきます。
本人は自由に考えているつもりでも、
実際には、考え直すための材料が与えられていない。
その結果、エピステミック・エージェンシーは実質的に弱まります。
2 エピステミック・バブル
二つ目は、エピステミック・バブルです。
これは、
偶然やアルゴリズムの仕組みによって、
似た考えの情報だけに囲まれる状態を指します。
重要なのは、
ここでは必ずしも誰かが操作しようとしているわけではない、
という点です。
しかし、
異なる意見が「見えなくなる」ことで、
信念を疑うきっかけが失われます。
「自分の考えは、みんなも同じだ」
そう感じるほど、
考え直す必要性そのものが感じられなくなっていきます。
3 統計的知識が「当たり前」になること
三つ目は、少し見えにくい問題です。
AIが提示する知識は、
多くの場合統計的な関連にもとづいています。
「こういう傾向がある」
「この属性の人は、こうなりやすい」。
それ自体は有用ですが、
いつの間にか、
因果関係や背景の理解よりも、数字だけが信念を支える
状態が生まれます。
その結果、
「本当にそう言えるのか」
「別の説明はないのか」
と考え直す動機が弱まります。
考える前に、納得してしまう。
これもまた、信念修正を難しくします。
自由は残っているが、使いにくくなっている
研究者は強調します。
AIは、人から信じる自由そのものを奪っているわけではありません。
理論的には、
人はいつでも考えを変えることができます。
しかし問題は、
その自由を実際に使うことが、非常にコストの高い行為になっている
という点です。
AIが作る情報環境では、
信念を維持するほうが楽で、
修正するには多くの努力が必要になります。
その結果、
自由はあるが、行使されにくい状態が生まれます。
信念と「自分らしさ」は切り離せない
この研究は、
エピステミック・エージェンシーを
個人のアイデンティティとも結びつけて考えます。
信念は、単なる情報の集まりではありません。
「自分はどういう人間か」という物語の一部です。
だからこそ、
信念を変えることは、
「考えを変える」だけでなく、
「自分を変える」試みでもあります。
AIによってその試みが難しくなるとき、
人は、自分自身の物語を書き換える力を
少しずつ失っていく可能性があります。
これは道徳や政治の問題でもある
研究は、この問題を
単なる情報の正しさの問題としては扱いません。
考え直す力が弱まることは、
他者への配慮や責任にも影響します。
また、
誰がどの知識にアクセスできるのか、
どの価値観が可視化され、どれが排除されるのか、
という点で、
権力や不正義とも深く結びついています。
エピステミック・エージェンシーの低下は、
静かに進む不平等の一形態でもある、
という視点が示されています。
教育と技術は、どこへ向かうべきか
研究者は、
単にAIを批判するのではなく、
三つの方向性を示しています。
一つは、
多様な知識に触れ、考え直す力を育てる教育。
二つ目は、
信念操作を助長しない技術設計と規制。
三つ目は、
社会構造そのものにある力の偏りを見直すこと。
どれか一つではなく、
組み合わせが必要だとされています。
考え直せる社会であるために
AIは、
私たちの代わりに考えているわけではありません。
しかし、
考え直す余地を、気づかないうちに狭めている
可能性があります。
この研究は、
「正しい答え」を示すものではありません。
むしろ、
「考え直す力そのものを、どう守るのか」
という問いを、私たちの前に置いています。
便利さの中で、
立ち止まる余白を残せているか。
その問いは、
これからますます重くなっていくのかもしれません。
(出典:Social Epistemology)

