« 流出「28項目和平案」をロシアはどう受け取るか | トップページ | オデッサの運命 »

2025.11.25

高度に合理化された知性は、本質的に脆弱である

都市・AI・人間知性の共通病理

私は、気がついたら68歳になっている。1970年代、パソコンがまだ専門家向けの珍しい道具だった時代から計算機と付き合い続け、今もGrokやClaude、Gemini、ChatGPTといった最先端のAIと日常的に対話している。まさか、『2001宇宙の旅』のAIのような現実になるとは思わなかったし、彼らは、デイブよりは優しい。が、結果的に長くなってしまった情報技術経験、そして人工知能との交流の中で、しだいにはっきりと見える違和感がある。技術の便利さが指数関数的に増大するほど、システム全体に潜む「何か決定的に間違っている」という感覚である。これは単なる主観的な感情だろうか。システム科学、ネットワーク理論、神経科学が40年以上にわたり蓄積してきた知見が、すでにこの構造的帰結を予言していたように思える。

命題の正確な定式化とその含意

命題化してみよう。

冗長性を極小化した密結合システムは、いかなる規模・いかなる対象であっても、以下の二つの性質を必然的に持つ。一つ目は、ランダムに発生する末端障害に対しては極めて頑健であること。二つ目は、意図的または極めて稀な事象による攻撃に対しては、壊滅的なカスケード故障に至ることである。

この法則は、物理的インフラの都市システムにも、アルゴリズム中心の機械学習モデルにも、そして外部ツールに依存し外在化されつつある人間の認知プロセスにも、数学的に同型である。

この命題の含意は深刻である。現代の合理化は、効率を最大化するために「無駄」を徹底的に排除するが、それが結果としてシステムを「ガラス細工」のように脆くする。冗長性とは、単なる余剰ではなく、未知の衝撃に対するバッファである。排除すればするほど、システムは平時のパフォーマンスを高めるが、有事の耐性を失う。このトレードオフは、工学の古典的なジレンマであり、現代のAIブームが加速させる中で、無視できない警鐘となる。

都市システム:実例とメカニズムの詳細

東京は、この命題を体現する教科書的な症例であるとしか見えない。首都圏の電力供給は、市内の発電所に9割以上を依存せず、福島や新潟、長野などの遠隔地から超高圧送電線で運ばれる。変電所の多くは、地理的・経済的な制約からわずか数カ所に集中配置されている。同様に、水道水の源流は利根川水系の上流ダムにほぼ一極依存し、浄水場への導水路も本質的には単一の主要経路に頼っている。

このような集中型構造は、コスト削減と効率化の産物であるが、脆弱性を生む。そして応用事例のように思えたのが、東京ではないが、先日の沖縄本島北部導水管破裂事故である。2025年11月24日の沖縄本島北部導水管破裂事故は、大宜味村の単一主要導水管が破損しただけで、南部の那覇市を含む17市町村・約37万世帯が断水の危機に瀕した事実が示すように、効率を追求した結果、ネットワークは必ずスケールフリー構造へと収束する。

アルバート=ラズロ・バラバシが1999年に提唱したネットワーク理論によれば、この構造では接続度の分布がべき乗則に従う。すなわち、少数の高接続ノード(ハブ)が全体の大部分の流量を支え、残りのノードは疎である。ランダムに末端ノードを除去してもネットワークは維持されるが、ハブを意図的に2〜3個除去すれば、瞬時に断片化し、機能全体が崩壊する。東京の場合、送電網の主要変電所や導水路の結節点がまさにこのハブである。悪夢のようだ。

2003年3月1日の東京航空交通管制部障害も、航空分野での同型性を露わにした。埼玉県所沢市の東京コントロール施設で、飛行計画処理のホストコンピュータがプログラム改修時のバグで停止した。原因はセクター変更に伴うデータ処理の想定外負荷だったが、これが全国の空港に波及。羽田空港だけで205便欠航、1462便遅延、約30万人の乗客が足止めを食らい、空港ロビーは一時「陸の孤島」と化した。

この事件は、チャールズ・ペローが1984年の著書『ノーマル・アクシデント』で指摘した核心を体現する。高度に相互作用的複雑性を持ち、密結合されたシステムでは、大規模事故は部品故障やヒューマンエラーの「例外」ではなく、構造上「当たり前」に発生するのである。東京のインフラは、こうしたカスケード故障の閾値を極めて低く設定してしまっている。

同じ病理の精密な再現としての「機械学習」

全く同じ構造的病理が、AIの機械学習システムにも現れている。まず、敵対的サンプル(adversarial examples)がその最たる証拠である。2013年にIan Goodfellowらが提唱して以来、数え切れぬ研究で実証されている現象だが、人間には単なる視覚ノイズにしか見えない微小な摂動を画像データに加えるだけで、識別精度99.9%を誇る深層学習モデルが、自信満々で誤認識する。

例えば、ResNet-50のような標準モデルで「パンダ」の画像に数ピクセルの乱れを加えるだけで、「テナガザル」と出力する確率が99%を超える。これは最適化の極限がもたらす過学習の必然的帰結である。モデルは訓練データ分布に完璧に適合するようパラメータを調整するが、分布外のわずかな変動に対してロバストネスが完全にゼロになるのである。実世界のセンサー入力(例:自動運転車のカメラ画像)が天候や照明の微妙な変化で摂動を受けやすいことを考えると、この脆弱性は致命的である。

さらに深刻なのは、モノカルチャー問題である。現在、世界中の企業、政府、個人レベルで、AIアプリケーションの基盤が3〜4種類の大型言語モデル(GPT系、Gemini系、Claude系、Llama系)に極端に依存している。これは農業における単一品種栽培と数学的に同型である。一つの病原体(脆弱性)が流行れば、全作物が枯死するように、基盤モデルの単一の致命的欠陥が露呈すれば、金融取引アルゴリズム、医療診断支援、交通管制システムが同時に停止する可能性が、現実的な確率として存在する。2023年の事例として、ChatGPTのプラグイン脆弱性が一時的に数百万ユーザーのデータを暴露しかけた事件を思い浮かべれば、そのリスクは抽象論ではない。

悪夢は終わらない。パラメータ数が数兆に達した大規模モデルは、もはやブラックボックスである。状態空間の次元が10の100乗を超える以上、人間による完全な検証は原理的に不可能だ。開発者ですら「なぜこの出力に至ったか」をトレースできないため、潜在的なバグが潜伏し、稀有な入力で爆発的に誤作動する。合理化の果てに生まれるのは、平時は神がかったパフォーマンスを発揮するが、衝撃に耐えられない極めて美しい、しかし極めて脆いガラス細工の知性である。この構造は、都市のハブ依存と全く同じく、少数の基盤モデルが全体の「知能流量」を支えるスケールフリー性を示している。この問題はAIに限定すれば、しかし、取り組みに期待がもてそうではあるが。

人間知性の外在化という病理と神経科学的証拠

最も見過ごされがちなのは、人間の思考プロセスそのものが、この構造的病理を取り始めている点である。神経科学の知見が示すように、使用しない認知回路は萎縮する。これはHebbの法則(「同時に発火するニューロンは結びつく」)の逆転である。

2000年代以降の研究で、空間ナビゲーションと海馬の関係が詳細に解明されている。ロンドンのタクシー運転手に対するMaguireらの2000年の研究では、GPSを使わず数年かけてロンドンの街路を記憶する「The Knowledge」の訓練が、海馬の後部領域を有意に拡大させることをMRIで証明した、という。運転歴の長い運転手ほど、後部海馬の灰白質体積が増大し、ナビゲーション能力と正の相関を示した。一方、前部海馬は相対的に縮小し、新規情報の習得がやや低下するトレードオフも観察された。

GPS依存の影響については、2010年のMcGill大学研究(Dahmani et al.)が鍵となる。高齢者を対象としたfMRIと体積測定で、GPSに頼るグループは海馬の活動レベルと灰白質量が低く、空間ナビゲーションタスクでの活性化が弱いことが明らかになった。対照的に、GPSを使わず地図やランドマークで道を覚えるグループは、海馬の機能が活発で、体積も大きい。

この相関は、日常的に空間記憶を使わない生活が海馬の萎縮を促進することを示唆する。ただし、因果関係の証明にはさらなる縦断研究が必要であり、「GPS使用開始直後に萎縮が始まる」というデータは存在しない。むしろ、長期的な使用パターンが蓄積的な影響を与えると見なされる。

研究は今後まったく別の結論を導くかもしれないが、そうでない予想のほうがありそうだ。ようするに、この衰退のメカニズムをAI依存に拡張すれば、思考の「送電線」を外部ツールに委ねる行為が、人間のメタ認知的スキルを侵食するだろう。

自分で問いを立て、論理を組み立て、結論を導くプロセスを放棄すれば、AIが「あなたが知りたいであろうこと」を先回りして提示する世界で満足するようになる。結果、AIの単一障害(例:サーバー停止や誤出力)で個人レベルの「知的なブラックアウト」が発生する。文明レベルでは、基盤モデルへのグローバル依存が進むにつれ、人類全体の判断能力が単一障害点を持つことになる。これは、東京の電力網が一極依存している状況と完全に同型である。単一の敵対的入力、あるいは単一の基盤モデル障害で、人類の知能全体が機能停止する日は、確率論的に必ず到来する。

生物進化が採用した対照的戦略とその教訓

ここで、生物進化を思い出す。進化はそれ自体、この病理に対する対照的な戦略を取ってきたように思えるのだ。最適解を追求するのではなく、満足解(satisficing)を採用し、冗長性を意図的に残す。人間の腎臓が二つあるのは、エネルギー効率の観点から非合理的だが、片方が機能停止しても即死を避けられる。キリンの反回神経が首から心臓まで遠回りするのも、工学的設計ミスに見えるが、それで生存に支障がない限り淘汰されない。

フランソワ・ジャコブが1970年代に提唱したように、進化は「エンジニアリング」ではなくブリコラージュ、つまり祖先から受け継いだ部品を手元で継ぎ接ぎしながら適応する。合理性を極限まで高めないからこそ、何億年もの環境変動に対して驚くほど頑健なのである。

人間が構築するシステムが「平時の効率」を最大化するのに対し、進化は「有事の生存」を優先してきた。この差が、現在決定的な分岐点として顕在化している。AIや都市インフラの合理化は、進化の教訓を無視した結果、想定外の衝撃に耐えられない「ガラス細工」を生み出している。

合理的なリスク管理としての「距離」と政策提言

私は、結論が大嫌いである。だが、以上から導かれる結論は、残念ながら、あるいは心地よく、たった一つであろう。

あえてAIを使用しない時間を確保することは、感傷的な抵抗ではない。知性のバックアップ電源を維持する、極めて合理的な知性のリスク管理措置である。

個人が自力で問いを立て、論理を組み、結論を導く行為は、冗長性を意図的に残すことにほかならない。神経科学の知見からも、こうした「不合理な」思考プロセスが、海馬や前頭前野の回路を活性化し、長期的なロバストネスを高める。

文明レベルでは、基盤モデルへの単一依存を避け、多様な知性システムを並列に維持する設計が急務である。政策提言としては、政府や企業は、AIの「多様性基準」を義務付け、冗長性を強制的に組み込むべきだ。例えば、重要インフラでは複数ベンダーのモデルをハイブリッド運用し、定期的なオフライン思考訓練を教育カリキュラムに組み込む。というか、東京の潜在的な脆弱性をなんとかしろ。

私は、半世紀にわたり計算機の進化を見てきた者だが、情報技術の合理化の果てに待っているのは、ガラス細工の文明であろう。土の上を歩く時間を、土にふれる時間をあえて確保すること。ハイデガーのいう「エルデ」である。それが、普通に、知性存在の生存戦略なのである。

 

|

« 流出「28項目和平案」をロシアはどう受け取るか | トップページ | オデッサの運命 »