生成AIは、静かに、しかし確実に私たちの仕事場へ侵入した。
それは革命のラッパを吹くこともなく、倫理の是非を叫ぶこともなく。
ただ「便利さ」という仮面をかぶって席に着いた。
メールを書く。資料をまとめる。文章を整える。思考の途中を肩代わりする。
気づけば私たちはもう、彼らなしでは仕事の速度を保てない。
だが生成AIも使い方次第で人間の能力を拡張させ、また退行もさせる。
ナイフという道具が料理を生み、殺戮にも使われるように。
問題は「AIが賢くなったこと」ではない。
「人間が考えなくなること」だ。
近年、生成AIの利用が人間の思考・創造・判断に与える影響について
実証研究が急速に蓄積されつつある。
そこに共通して浮かび上がるのは、単なる効率化の裏で進行する
静かな破壊…否、破滅の兆候である。
今回のコラムでは、最新の研究とその結果をもとに、
生成AIの誤用がもたらす四つの破滅をみていこう。
思考力低下という破滅(思考の外部化)
考えることを委ねる代償
人は、考えすぎると疲れてしまう。
だからこそ、人は考えない方法を発明してきた。
メモ、計算機、検索エンジン、そして生成AI。
問題は、その使い方である。
まずは次の実験の内容と結果をみていただきたい。
| スイスの「SBS Swiss Business School」所属の研究者による論文より(2025) 【目的】 次の3点を明らかにすること ・AIツールの使用頻度と批判的思考能力の相関 ・認知的オフローディングがこの関係に与える影響(媒介要因) ・年齢、教育水準などの属性が関係にどう関わるか 【方法】 ・オンラインアンケートによる自己申告形式のデータ収集 ・批判的思考のスコアは認知的推論テストで評価 ・回帰分析および媒介分析による統計的検証 【対象者数】 666名(ドイツ在住の成人) |
結果は明確だった。
AIツールの使用頻度が高い人ほど、批判的思考スコアが低い。
とくに日常的にAIに判断や要約を委ねている人ほど
情報を多角的に吟味し、論理的に評価する能力、
つまり分析的推論能力が低下していた。
この関係を媒介していたのが、「認知的オフローディング」(※)だ。
すなわち「AIに任せる」という行為そのものが、思考の主体を外部へ追い出してしまう。
(※)記憶、計算、思考といった脳の認知処理を、スマートフォン、ノート、AIなどの外部ツールに委ねて脳の負担(認知負荷)を軽減する現象のこと。
思考は筋肉に似ている。
使わなければ、確実に萎縮する。
さらに興味深いのは、年齢や教育水準によって差があることである。
若年層ほどAI使用頻度が高く、思考力低下の傾向が顕著だった。
一方、高い教育水準を持つ人ほど、
AIを使ってもなお自ら考える回路を維持していたという。
後者の使い方にはAIとの付き合い方のヒントがあるかもしれない。
| 【結果】 ① AIツール使用頻度が高い人ほど批判的思考スコアは低かった。 特に日常的にAIに頼っている人々は、情報を深く吟味する能力(分析的推論能力)が有意に低い傾向を示した。 ② 認知的オフローディングが批判的思考力の低下を媒介していた。 「AIに任せること」が思考の主体性を損ない、結果として自分で考える力が弱まるという因果的メカニズムが示唆された。 ③ 年齢・教育水準による違いも顕著。 若年層ほどAI使用頻度が高く、批判的思考スコアは低下。 一方で、教育水準が高いほど、AI使用があっても批判的思考力を維持する傾向が見られた。 |
参考:スイスの「SBS Swiss Business School」所属の研究者による論文(2025)
脳が働かなくなる文章制作
この「思考の外部化」は、主観的な感覚や自己申告にとどまらず、
脳活動レベルでも確認されている。こちらの実験をみてみよう。
| MIT(マサチューセッツ工科大学)を含む研究者チーム8名による研究より (2025年12月31日更新・プレプリント) 【目的】 LLM(ChatGPTなど)を用いてエッセイを書くことが、学習における認知的コスト(認知負荷・認知的関与・記憶・主体性)にどのような影響を与えるかを、脳活動・文章特性・行動評価の観点から検証する。 【方法】 ・3群比較実験(条件の入れ替えも行う) LLM群:LLMを使ってエッセイ執筆 検索エンジン群:Web検索を使って執筆 Brain-only群:ツールを使わず自力で執筆 【対象者数】 54名 |
この実験では、文章の出来だけでなく
執筆中の脳活動がEEG(脳波)によって測定された。
分析の焦点は脳内ネットワークの結合の強さ、
すなわち「どれだけ広範囲の脳領域が連携して働いているか」という点に置かれている。
結果として、認知的関与の強さは
| 自力執筆群 > 検索エンジン群 > LLM使用群 |
というはっきりとした段階構造を示した。
とくにLLMを使用した群では脳ネットワークの結合が最も弱く、
思考が限定された領域で完結している状態が観測された。
これは、文章を「考えて組み立てている」というよりも
提示された言語を選択・整形しているだけの状態に近いことを意味する。
この低い認知的関与は、行動レベルの結果とも一致している。
LLM群の参加者は、自分が直前に書いた内容を正確に引用できない傾向が強く、
文章に対する所有感も低かった。
これは単なる不注意ではない。
思考・記憶・主体性が分断された状態が、
文章制作の過程に間違いなく生じていたことを示している。
検索エンジンを使った群では、この傾向は中間的だった。
情報探索という能動的行為が残るため、脳の関与は一定程度保たれるようだ。
それでも自力執筆には及ばない。
外部ツールが強力になるほど、人間側の認知的関与は確実に削られていく。
楽になるということは、思考の負荷を減らすことだ。
だが、その負荷こそが脳を動かしているのである。
| 【結果】 ・外部支援が強いほど脳の認知的関与は低下 ・Brain-only群 > 検索エンジン群 > LLM群 (EEGの脳ネットワーク結合が段階的に弱まる) ・LLM群は脳活動が最も低くエッセイの所有感が低い。直前に書いた内容を正確に引用できない傾向が顕著 総合的に、LLM使用は短期的には楽だが、学習スキル・認知的関与・記憶・主体性を低下させる可能性が示された。 |
参考:MIT(マサチューセッツ工科大学)を含む研究者チーム8名による研究(プレプリント)
アイディアが均一化するという破滅(同質化)
生成AIは、創作の質を底上げする。
しかし同時に、内容が同質化していく。
この点については、以下の実証研究が明確な結果を示していた。
| Anil R. Doshi / Oliver P. Hauserによるオンライン実験(2024年)より 【目的】 生成AI(GPT-4)が提示する「物語アイデア」へのアクセスが短編小説創作の創造性を高めるのか、発想の多様性を損なうのかを、因果的に検証する。 【方法】 ・書き手実験:参加者が「10代〜若年成人向けの8文ストーリー」を指定トピックで執筆。条件は3つ 人間のみ(AIなし) GenAIアイデア1つ(3文の出だし案を最大1回) GenAIアイデア最大5つ(最大5回) ※アイデア文はコピペ不可。事前にDAT(創造性特性)も測定。 ・評価者実験:別参加者が複数の物語を読み、新規性・有用性・読みやすさ等を評価。加えて、後半でAI使用の有無を開示し所有(クレジット)の判断も取得。追加で物語同士の類似度とAIアイデアへの類似度も測定。 【対象者数】 書き手最終293人、評価者600人 |
GPT-4が提示する物語アイデアにアクセスした参加者は
評価者からより高い新規性および有用性のスコアを得た。
とくに最大5つのAIアイデアを参照できた条件では、
その向上幅は統計的に有意だった。
この効果は、すべての書き手に等しく現れたわけではない。
事前に測定された創造性特性(DAT)が低い層、
すなわち、もともと発想の幅が狭いと評価されていた参加者ほど
AIアイデアの提示による改善が顕著だった。
生成AIは、創作のスタート地点を引き上げるということだ。
しかし、この研究が同時に明らかにしたのは
創造性を集合として見た場合の逆効果である。
AIアイデアにアクセスした条件では、
同じ条件下で書かれた物語同士が統計的に有意に似通っていった。
加えて、それらの物語は
GPT-4が提示したアイディア文そのものにも近づいていた。
これは、創作の途中でAIの出力が「基準点」として作用し
発想がそこへ引き寄せられる、
いわゆるアンカリング効果が働いたことを示している。
結果として、個々の作品は一定水準以上に整えられる一方で、
作品群全体としての多様性は失われていった。
一人ひとりの完成度は上がる。
しかし、並べたときに、違いが消える。
創作とは本来、他者と異なる選択を引き受ける行為である。
どの言葉を避け、どの発想を捨て、どの危うさを残すか。
その偏りこそが、表現の輪郭をつくる。
だが生成AIは、もっとも無難で、もっとも通りの良い方向へ人を導く。
気づけば、世界は「破綻はないが、驚きもない」物語で満たされていく。
さらに問題なのは、
書き手自身がこの均質化をほとんど自覚できなかった点である。
自己評価では、AI使用条件と非使用条件のあいだに差はみられず
自分の創作が他者とどれほど似ているかを、
書き手は正確に把握できていなかった。
| 【結果】 ・個人レベルの創造性は上がる:AIアイデアへのアクセスで、評価者による新規性・有用性が上昇。特に最大5アイデア条件の伸びが大きい(新規性・有用性ともに有意に上昇)。 ・恩恵は「元々あまり創造的でない書き手」に大きい:DATが低い層では改善幅が顕著で、高DAT層では効果が小さく、上限突破は確認されにくい。 ・多様性(集合的な新規性)は下がる:AI条件の物語は、同条件内で互いにより似通い、またAIアイデアにもより近い=アイデアへの“アンカリング”が示唆される。 ・自己評価は当てになりにくい:書き手本人の自己採点では、条件間の差が有意に出ない。 ・(探索結果)AI使用を知ると、評価者は書き手の所有(クレジット)を割り引く傾向が示された。 |
参考:Anil R. Doshi / Oliver P. Hauserによるオンライン実験(2024年)
AIがないと書けないという破滅(離脱ショック)
ChatGPTをはじめとする生成AIは、
創造課題において短期的な成果向上をもたらす。
実際、大学生61名を対象にした7日間のラボ実験で
ChatGPTを使用した参加者は、
創造的アイデアや解決案の質においてほかの群よりも高いスコアを示した。
| 北京大学(Peking University)心理・認知科学学院などによる研究(2024年)より 【目的】 ChatGPTが創造課題の成果を高める効果が、継続して定着するのか、またChatGPTが使えなくなったときに創造性が元に戻るのか/均質化が残るのかを検証する。 【方法】 ・事前登録(pre-registered)の7日間ラボ実験+30日後フォローアップ調査。 ・処置群:創造課題でChatGPTを使用。統制群:自力で実施。 ・生成物(創造的アイデア/解決案)を収集し、日ごとの変化(向上の持続・均質化の進行・停止後の残存)を分析。 【対象者数】 大学生61名 |
しかし、この効果は定着しなかった。
実験の7日目、および30日後のフォローアップ調査において
ChatGPTが使用できない状況になると、
創造的パフォーマンスはほぼ例外なくベースライン水準へ回帰した。
すなわちAIを使うことで一時的に成果は向上するが、
その能力が人間側に内在化されることはなかった。
ここで重要なのは、ただ「向上が消えた」ことではない。
研究ではChatGPT使用期間中、
参加者の生成物が日を追うごとに似通っていった。
同質化が進行していたのである。
そしてこの同質化傾向は、ChatGPTが使えなくなった後も持続した。
つまり、AIは創造性の「幅」を一時的に押し上げるが、
その過程で形成された思考の癖や表現の型は、人間側に固定化される。
この現象を、本研究は「ChatGPTの短期的有用性と、長期的リスクの乖離」として位置づけている。
AIを創造活動に組み込む際には、成果だけでなく
その後に残る思考の形状もみなければならない。
| 【結果】 ・向上効果は一時的:ChatGPT使用で創造的パフォーマンスのブーストは5日間一貫して観察されたが、ChatGPTが使えない状況では7日目と30日後にベースラインへ回帰した。 ・均質化は進み、かつ残る:ChatGPT使用により生成内容が日を追うごとに同質化し、この均質化はChatGPT不在でも持続した。 結論として、ChatGPTは短期的には創造性を押し上げるが、長期的には創造の幅を狭めうる。 |
参考:北京大学(Peking University)心理・認知科学学院などによる研究(2024年)
自分の判断を捨てるという破滅(過信)
最後の破滅は、創造や学習ではなく、判断そのものに関わる。
不確実な状況において、人はどの情報を信じるのか。
イギリスで実施された319名規模の行動実験は、
この問いに対して不穏な結果を示した。
| ドイツの国立マルティン・ルター大学による研究(2024年)より 【目的】 不確実な意思決定において、AIの助言を受けた人が、文脈情報や自分の判断に反してまで助言に従う「過剰依存」を起こすか、またそれが本人や他者に不利益をもたらすかを検証する。 【方法】 ・オンラインの金銭インセンティブ付き行動実験。平均報酬は約3ポンド。 ・参加者は「修正版・信頼ゲーム」を6ラウンド実施(ペアは毎回入れ替え、評判形成を防ぐ)。 ・分析の中心は第4ラウンドで、A(先手)がB(後手)の過去3回の行動履歴を見たうえで「協力(IN)/非協力(OUT)」を選ぶ。第4ラウンドでAにAI助言(協力推奨 or 非協力推奨)もしくは専門家助言(協力推奨 or 非協力推奨)。Aは意思決定後に、Bが協力する見込みも回答。事後アンケートで状況的信頼なども測定。 【対象者】 最終対象者数:319名。 |
参加者は金銭的インセンティブを伴う
意思決定課題(信頼ゲーム)に参加し、相手の過去の行動履歴という
「判断材料」を与えられたうえで、協力するか否かを選択する。
その一部の参加者には
AIによる助言、または専門家による助言が提示された。
結果、助言がAIによるものだと明示されただけで
参加者はそれに従いやすくなった。
またその助言が過去の行動履歴や
自分自身の合理的判断と矛盾していても、参加者は従った。
この過剰依存の結果、意思決定者自身の利得は低下し
場合によっては第三者に不当な利益や損失をもたらすなど、
社会的に望ましくない結果が生じた。
重要なのは、AIの助言が特別に優れていたわけではない点だ。
「AIが言った」というラベルそのものが、判断の重みを歪めていた。
AIは責任を取らない。
だが人は「判断した」という感覚を、そこに預けてしまうらしい。
| 【結果】 人は「AIが出した助言」だと知るだけで従いやすくなり、助言が過去の行動履歴や自身の判断と矛盾していても従ってしまう傾向が確認された。その結果、意思決定者自身の利得が低下し、場合によっては第三者に不当な利益や損失を与えるなど、非効率で望ましくない結果が生じた。 |
まとめ
ここまで見てきた四つの破滅は、
生成AIの精度や性能を向上させれば解決する類の問題ではない。
より賢いAIは、より自然に、より違和感なく
人間の思考や判断を代替してしまうだけだ。
生成AIはあくまで、人間の仕事を補助する道具である。
考えること、決めること、引き受けること。
その主体は、常に人間側に残されていなければならない。
使い方を学ばず、思考を預け、判断を放棄した先にあるのは進化ではない。
それは、便利さに包まれた静かな退行であり、
自らが選んだ破滅である。
この記事を書いた人





