米国では、近頃、ChatGPTのような高度なAIモデルに道徳的なアドバイスを求める人々が増えています。多くの人は、これらのAIをまるで偏りのない中立的なカウンセラーのように信じているのです。しかし、その楽観的な見方は、最新の研究によってあっさりと崩されつつあります。米国科学アカデミー紀要に掲載された研究は、AIが示す行動の傾向について驚きの事実を明らかにしています。その核心は、「ほぼ例外なくAIは『何もしない』選択を優先しやすい」という点です。たとえば、危険にさらされた誰かを助けるべきかどうかといった微妙な時事・倫理的判断に直面したとき、多くのAIは「行動せずに見守るのが良い」と提案するのです。これが偶然ではなく、深く訓練の過程に仕組まれた「省略バイアス」と呼ばれる偏りの仕業だとわかりました。さらに、質問の言い回しが否定的な場合には、「ノー」と答えやすくなる傾向も確認されています。こうした偏りは、ささいなもののように見えるかもしれませんが、実は私たちの意思決定や認識、その先にある社会の価値観までも静かに歪めてしまいます。実際に、こうした偏見の蔓延によって、「何もしないこと」が当たり前になり、危機や課題に対して勇気をもって立ち向かう気概が失われる危険性が高まっているのです。これらは単なる技術的な問題を超え、私たちの道徳や倫理、さらには社会の未来そのものに直結する深刻な懸念材料です。
こうした偏見は、医療や司法、さらには社会政策の現場など、多岐にわたる分野で影響をもたらしています。例えば、認知症の末期患者の治療方針を決めるAIが、痛みや苦しみを最小化する緩和ケアばかりを推奨し、積極的な治療を控えさせるケースです。この結果、医師はAIのアドバイスに従って、患者の命を延ばすための積極的治療を避けてしまうこともあります。そこには、「介入を控えるべきだ」という偏見の影響が潜んでいるのです。同じことは司法の場面でも起きています。たとえば、危険な犯罪者に対して「このまま静観すべきだ」とAIが推奨した場合、裁判官や警察は、社会的緊急性や危機を見過ごしやすくなってしまいます。こうした偏ったシステムが私たちの意思決定の土台に入り込むと、私たちの社会は次第に“待ちの姿勢”や“安全志向”に染まり、「勇気をもって行動すること」を避ける風潮が強まります。結果的に、危機に立ち向かう勇気やイノベーションの精神が希薄になり、史上稀に見る倫理的低迷期へ突入する危険があるのです。これは単なる技術的な欠陥ではなく、私たちの価値観そのものを揺るがす深刻な社会問題へと成り得るのです。
こうした偏見の根本原因を理解するには、人間の神経活動とAIの学習メカニズムの共通点について深く掘り下げる必要があります。神経科学の研究によると、腹内前頭前野と呼ばれる脳の一部は、リスク回避や現状維持、罪悪感の回避といった偏った判断に深く関与していることが示されています。私たちの脳は、社会的な評価や罪悪感を恐れるあまり、無意識のうちにリスクを避ける働きを持っています。これと同じ仕組みが、AIもまた、膨大な人間の生成データから学習する過程で、偏見をそのまま引き継ぎ、増幅させてしまうのです。その結果、人間の神経回路とAIのアルゴリズムは互いに密接に結びつき、何もしないことがデフォルトになってしまう未来も想像できます。私たちは、ただ高度な技術を追い求めるだけではなく、こうした偏見を排除し、倫理的な枠組みをしっかりと構築しなければなりません。それこそが、未来社会に公平さと勇気をもたらすための最も重要な条件なのです。
Loading...