「生成AIに頼りすぎて、自分で考える力が落ちている気がする」——この漠然とした不安に、科学がようやく追いつき始めています。
2025年にMITメディアラボの脳波実験が「認知的負債(cognitive debt)」という概念を世に送り出してから約8ヶ月。2026年に入り、この議論は実験室の中から学術界全体、そしてソフトウェア開発の現場へと一気に拡大しました。デンマークの精神科医が査読付きジャーナルで警鐘を鳴らし、著名な開発者が「自分のプロジェクトで迷子になった」と告白する——生成AIによる思考力低下は、もはや仮説ではなく現場の実感になりつつあります。
Contents
2025年の研究が示した土台:脳波と調査データ
まず、2025年に築かれたエビデンスを簡潔に振り返ります。
MITメディアラボの脳波実験(2025年6月)では、被験者54名にEEG(脳波計、32電極)を装着し、ChatGPT・Google検索・ツールなしの3グループでエッセイを執筆させました。ChatGPTグループは低周波数帯の脳ネットワーク接続性が最大55%減少。さらに、4回目にツールなしで書かせても脳活動は回復しませんでした。研究チームはこの現象を「認知的負債」と名付けています(Kosmyna et al., arXiv:2506.08872, 216ページ、102図表に及ぶ大規模研究)。
Microsoft Research(CHI 2025、2025年4月) は319名のナレッジワーカーを調査し、AIへの信頼度が高い人ほど批判的思考が低下する一方、自己信頼度が高い人は思考力を維持することを示しました。
ハーバード大学(Harvard Gazette, 2025年11月) では6名の教授が「cognitive atrophy(認知的萎縮)」の懸念についてコメント。MIT研究を「小規模で未査読」としつつも、教育への影響を真剣に議論しています。
これらの研究は広く報道され、議論の土台を築きました。しかし2026年、事態は新たなフェーズに入っています。
2026年の新展開①:精神科医が学術界に警告——Østergaard論文
「AIに推論を外注すれば、科学の未来が危うい」
2026年1月21日、デンマークの精神科医 Søren Dinesen Østergaard が査読付きジャーナル Acta Psychiatrica Scandinavica に論文を発表しました。
タイトルは「Generative AI and the Outsourcing of Scientific Reasoning: Perils of the Rising Cognitive Debt in Academia and Beyond」。MIT研究の「認知的負債」概念を引用しつつ、その射程を学術研究・科学的推論にまで拡張した点が新しいところです。
Østergaardの主張
Østergaard はもともと2023年に「AI誘発精神病(AI psychosis)」を予測し、その後実際の症例が相次いで報告されたことで注目された研究者です。今回の警告のポイントは:
- 科学的推論は「天賦の才」ではなく、苦闘を通じて鍛えるスキルである。AIに思考を外注すれば、そのスキルが育たない
- もしEinstein や Darwin の時代に生成AIがあったら? 彼らが独力で苦しんだプロセスをスキップしていたら、同じ成果を上げられたかは疑わしい
- デンマークの高校生がChatGPTで約150件の課題を提出し退学処分を受けた事例を引用——極端な例だが、「外注の常態化」は初等教育から大学院まで広がっている
従来研究との接続
Østergaard は MIT の Kosmyna らの研究を「認知的負債の物理的証拠」として引用し、Gerlich(2025)のAI使用頻度と批判的思考低下の相関データも統合しています。つまり、2025年の個別研究を「学術界全体への構造的リスク」というメタ視点で読み直した論文と言えます。
さらに、Geoffrey Hinton(ノーベル物理学賞受賞者、「AIのゴッドファーザー」)の「AIが数十年以内に人類の存続を脅かす確率は無視できない」という見解を引用し、「認知的に負債を抱えた人類が、まさにそのAIを規制できるのか」 という根源的な問いを投げかけています。
2026年の新展開②:開発者が「自分のプロジェクトで迷子になった」
技術的負債から認知的負債へ
2026年2月9日、ソフトウェア工学の研究者 Margaret-Anne Storey が「How Generative and Agentic AI Shift Concern from Technical Debt to Cognitive Debt」と題した記事を公開。Simon Willison(著名な開発者、Datasette創設者)が2月15日に「認知的負債についてこれまで読んだ中で最良の解説」として紹介し、Martin Fowler 経由でも拡散されました。
学生チームが「8週目で壁にぶつかった」話
Storey が紹介した事例が象徴的です:
あるソフトウェア開発の学生チームは、AIを活用して急速に開発を進めていました。ところが7〜8週目で、簡単な変更すら壊れる状態に陥ります。チームは当初「技術的負債」(コードの品質問題)を疑いましたが、掘り下げると本質は違いました。誰もシステムの設計判断の理由を説明できない。コードは動くが、全体像の理解が失われている。これが「認知的負債」です。
Simon Willison の自己体験
Willison 自身も告白しています:
自分のプロジェクトでも経験した。プロンプトで丸ごと新機能を生成する実験をしていたが、実装をレビューしないでいると自分のプロジェクトの中で迷子になった。何ができるか、どう動くかのメンタルモデルがなくなり、次にどこへ進むべきか判断できなくなった。
ソフトウェア業界では「技術的負債(technical debt)」——場当たり的な実装が将来のコスト増を招くこと——は長年の概念です。Storey/Willison は、生成AI時代に負債が「コード」から「人間の頭の中」に移動したと指摘しています。
認知的負債の3層構造:個人→組織→社会
2025〜2026年の研究・事例を統合すると、認知的負債は3つの層で蓄積していることがわかります。
| 層 | 現象 | エビデンス |
|---|---|---|
| 個人レベル | 脳活動低下、記憶困難、受動的使用の増加 | MIT脳波実験(2025) |
| 組織レベル | チームの設計理解の喪失、判断不能 | Storey学生チーム事例(2026) |
| 社会・学術レベル | 科学的推論スキルの世代的衰退リスク | Østergaard論文(2026) |
個人の脳活動変化 → チームの知識喪失 → 社会全体の知的能力低下。このスケールの拡大こそ、2026年の議論が2025年と質的に異なる点です。
それでも「使い方次第」は変わらない——反証と緩衝材
すべての研究がネガティブな結論を出しているわけではありません。
- 創造性は53%が向上(Springer Nature, 2024)——ChatGPTが創造性を一律に低下させるわけではない
- 低次の認知スキルは23〜35%向上(Frontiers in Psychology, 2025)——情報の想起・統合にはAIが有効
- AIリテラシーが「緩衝材」として機能(ScienceDirect, 2025)——AIの仕組みと限界を理解している人は、認知的負債に陥りにくい
- Microsoft Research(CHI 2025) の自己信頼度の知見——自分の判断に自信がある人はAIを使っても批判的思考を維持
重要なのは、Willison 自身が認知的負債を語りながらAIの使用をやめていない点です。問題は「使うか使わないか」ではなく、理解を伴う使い方ができているか。これは2025年の研究が示した結論と一致しています。
読者へのアクション:認知的負債を溜めない5つの習慣
- AIの出力を「初稿」として扱う——Storey の学生チームが失敗したのは、レビューなしで進めたから。自分の言葉で説明できるか常にチェック
- 定期的に「Brain-only」の時間を確保する——MIT研究が示したように、脳の接続性は使わなければ低下する
- 「なぜそうなのか」を必ず問う——Østergaard が指摘する通り、科学的推論は苦闘を通じて育つスキル
- AIリテラシーを高める——仕組み・限界・バイアスの理解が依存を防ぐ(ScienceDirect, 2025)
- 自分のメンタルモデルを維持する——Willison が失ったのは「プロジェクト全体像の理解」。AIに任せた部分も概要は把握する
まとめ
- 2025年の研究は、個人の脳活動レベルでの認知的負債を実証した(MIT、Microsoft Research、Harvard)
- 2026年の展開は、その負債が学術界(Østergaard)やソフトウェア開発現場(Storey/Willison)で構造的に顕在化していることを示している
- 「認知的負債」は、個人→チーム→社会へとスケールする多層的リスク
- ただし、AIリテラシーと能動的な使い方が緩衝材として機能するというエビデンスも一貫している
生成AIが「馬鹿にする」のではない。理解なき使用が認知的負債を蓄積させる。2026年の研究は、この警告がもはや実験室の仮説ではなく、現場の現実であることを示しています。


