「AIを入れれば、地雷は安全になるのでは?」

そう聞かれたら、多くの人は「たしかに」と思うかもしれない。無差別に人を傷つける地雷の問題は、「判断できないこと」にある。ならば、AIが戦闘員と民間人を識別できるようになれば、問題は解決するのではないか——。

この直感は、一見まともに見える。しかし、技術・倫理・現実の三つの観点から丁寧に検討すると、「安全になる」という結論には到達しない。この記事では、その理由を順番に解説していく。


直感の正しさ、そして限界

まず、この直感の「正しい部分」を認めることから始めよう。

現在の地雷が最も批判される理由の一つは、無差別性だ。踏んだ者が戦闘員であろうと子どもであろうと、地雷は起爆する。1997年に対人地雷禁止条約(オタワ条約)が締結された最大の理由もここにある。紛争が終わった後も何十年にわたって被害が続く構造——それが地雷問題の本質だ。

もしAIが「戦闘服を着た兵士だけを識別して起爆する」ことが完璧にできるなら、確かに被害は減るかもしれない。「AIのおかげでマシになる」という部分は、否定できない。

しかしここで立ち止まって考えてほしい。「マシになる」と「安全になる」は、まったく別の話だ。


技術的な問題:AIは「完璧な判断者」ではない

誤判定は必ず起きる

AIによる画像・センサー識別は、急速に進化している。しかし現実の戦場では、以下のような状況が常態化している。

  • 農作業中の農民が迷彩柄の服を着ている
  • 子どもが大人の軍服を拾って着ている
  • 民間人が夜間に移動している
  • 雨や砂嵐でセンサー精度が著しく低下する

画像認識AIの誤判定率は、研究室の条件では1%以下に達する場合もある。しかし戦場では、照明・天候・角度・服装など無数の変数が組み合わさる。1000回に1回でも誤判定するシステムが、大量に設置されたとき何が起きるか。数字で考えれば明らかだ。

劣化・故障・予測不能な挙動

地雷は、設置後に誰も管理しない。AIシステムは時間とともに劣化し、センサーは汚損され、ソフトウェアはバグを抱え続ける。機械学習モデルは、学習時のデータ分布から外れた入力に対して予測不能な挙動をとることがある——これを「分布外問題(Out-of-Distribution)」と呼ぶ。

設置から5年後、10年後、その環境がどう変化しているかを誰も保証できない。AIシステムは「メンテナンスされ続けること」を前提に設計されている。しかし地雷は、設置したら終わりだ。この根本的な矛盾は、技術の進歩では解決できない。

ハッキングと悪用リスク

「判断するシステム」は、「判断を乗っ取れるシステム」でもある。通信機能を持つAI地雷は、電波妨害・スプーフィング・ハッキングの標的になる。敵対勢力が識別ロジックを無効化すれば、結局は従来の地雷と変わらない——あるいはそれ以上に危険な兵器となる可能性がある。


社会・倫理的な問題:「誰が責任を負うのか」

責任の所在が消える

人が地雷を踏んで死んだとき、AIが判断したのか、センサーが誤ったのか、設計者が悪かったのか、設置した国が悪かったのか——責任の所在が極めて曖昧になる。

これは単なる法的な問題ではない。責任の曖昧さは、抑止力を失わせる。「誰のせいでもない」状況が生まれると、民間人被害に対して誰も真剣に向き合わなくなる。AIを介在させることで、道義的責任が霧散するリスクがある。

「条件付き」になっても、問題の構造は変わらない

AI識別地雷が実現したとして、何が変わるか。「完全な無差別」から「条件付き」になるだけだ。

しかし地雷問題の核心は、紛争後も長期にわたって被害が続くという点にある。AIシステムも例外ではない。紛争が終結し、「敵」という概念が消えた後も、地中に埋まったAI地雷は判断し続ける。そのとき「戦闘員」と学習されたパターンは誰に向けられるのか。

さらに言えば、AIの識別精度をどこまで高めても、「起爆しない確率100%」は保証できない。ゼロリスクでない兵器が世界中に埋まり続ける構造は、変わらない。


本質的な結論:AIは判断を高度化するが、リスクを消せない

ここまでの議論を整理しよう。

AIを搭載した地雷が実現したとして、確かに「マシ」にはなるかもしれない。誤爆の頻度は減るかもしれない。しかしそれは「安全になった」ことを意味しない。

なぜか。理由は三つある。

第一に、AIは完璧ではない。 どれほど精度が上がっても、誤判定はゼロにならない。そして地雷は大量に設置され、長期間にわたって機能する。誤判定の確率がわずかでも、累積すれば必ず被害が出る。

第二に、設置したら止められない。 AIシステムは継続的なメンテナンスと管理を前提とする。しかし地雷は、設置後に放棄される。劣化・故障・ハッキングに誰も対処できない状態で、自律判断システムが動き続けることの危険性は、AIの初期精度がどれほど高くても解消されない。

第三に、責任の構造が壊れる。 被害が生じたとき、誰が責任を負うのかが不明確になる。これは法的問題にとどまらず、被害を防ごうとする動機そのものを弱体化させる。


まとめ:認識をアップデートする

AI技術の進歩は、多くの問題を解決してきた。医療診断の精度を上げ、交通事故を減らし、工場の安全性を高めた。「AIが入れば良くなる」という期待は、多くの場合で正当化されてきた。

しかし地雷という文脈では、この直感が危険な方向に働く。「AIで識別できるなら、地雷を使い続けても構わない」という議論の根拠になりかねないからだ。

「安全になる」と「マシになる」は別物だ。そして、マシになることが「容認できる理由」にすり替わるとき、私たちは重大な誤りを犯す。

AIは判断を高度化する道具だ。しかしリスクを消す魔法ではない。地雷が問題である理由——紛争後も何十年も被害が続く非人道性——は、AIを搭載したところで消えない。


一言まとめ:AIは地雷を「賢く」することはできるが、「安全」にすることはできない。問題の本質は、止められないシステムが人を殺し続けることだからだ。