自律兵器の規制から考えるAI時代の戦争と人間のかかわり

開発途中のAI搭載兵器

 

2017年11月13-17日に、ジュネーヴの国連で、特定通常兵器使用禁止制限条約(CCW)の政府専門家会議(GGE)が開催され、LAWSの規制に関する検討プロセスが始まった。LAWSは、機械の起動から作戦終了まで、事前にプログラムされた命令に沿って自律的に実施する兵器システムを一般的に表す言葉である。兵器システムが命令を実施する際に、その具体的方策は機械がAI(人工知能)などを用いて自律的に行い、命令自体も兵器が運用される環境の下で最適化するなど、人間の手を離れたところで作戦行動を行うシステムとされている。

 

LAWSは、将来開発が展望される兵器であり、各国で開発途上の段階にあるもので、完成した形は存在しないとされる。2010年代に入り、遠隔で操作されるドローンの攻撃が、捜査員の判断ミスなどで民間施設を誤爆する付帯被害の問題など、兵器と人道性の問題が国連などで取り上げられる中で、LAWSの問題に焦点が当たるものとなった。

 

LAWSは実存しないものの、各国はすでにAIを搭載した次世代兵器システムに関する検討を開始している。米国の「第三のオフセット戦略」では、ロボットやAIなどの新技術を組み込んだ自動兵器が提案されており、自動化兵器戦略では、集団の振舞いをもとに作られたスウォーム技術(群知能)を利用した無人兵器システムの開発方針が出されている。スウォーム技術とは、「蚊柱」や「イワシの大群」などで見られるように、個体同士が何らかの手法で通信し、統一的な行動をとると共に、たとえ密集状態でも衝突しない交信を行うものである。機械と機械のコミュニケーションの確立が、技術の重要なカギになる。

 

しかし、米国防総省は2012年に国防総省指令3000.09を発出し、自律兵器を一端稼働されると自律的に標的を選択して攻撃を加える兵器と定義し、管理可能な兵器が完成するまで米軍による運用を禁止している。ただし、戦術効率の観点から、攻撃指令を機械に委ねることへの関心は高く、米軍の各研究所の研究開発は継続している。米国の議論では、自律兵器は人間が判断するより速いペースで攻撃が可能なため、政軍関係を歪める可能性があると指摘されている。

 

ただ、ロシアのカラシニコフ社は、既に軍事見本市の「アルミナ2016」で無人システムの一部を公開しており、2017年にはニューラルネットワークを利用した兵器開発を表明している。アジアでも、韓国のサムスン社の子会社は、無人化された防御兵器システム(名称はSamsung Techwin SGR-A1)を発表している。イスラエルのハーピー(Harpy)やアイアンドームなどの各種兵器システムでも、自律兵器の完成が展望できる段階に至っている。

 

 

軍備規制と正当な技術開発の狭間で

 

このような動きに対応するように、2014年以降、国際社会は人道問題への関心を出発点として、CCWにおいてLAWS規制のあり方を議論している。プロセス開始直後の2014年から3回開催された非公式専門家会合、そして2017年のGGEを通じて、各国はLAWSが「有意の人間の管理(meaningful human control)」もしくは「有意の人間の判断(meaningful human judgement)」の下に置くべきことに、広範な同意があることが分かった。

 

しかし、CCWにおける議論のなかで、LAWS自体は未定義なまま残された。さらに、攻撃の判断における「人間の有為の介在」も、国際社会において、コンセプトには同意があるものの、その現実の在り方に対する理解は多様である。それゆえに、議論の成熟がない状態の下で、国際社会が厳格で実効的な規制を設けることは不可能であるとして、規制を設けること自体、正当な技術発展を阻害すると警戒する国は多い。

 

国際的な市民社会団体は、かつての対人地雷や小型武器と同様に、LAWSの規制に関心を持つ団体の連携を目指し、2013年に「殺人ロボット禁止キャンペーン(Campaign to Stop Killer Robot)」を立ち上げている。それに先立つ2009年には、「ロボット軍備管理国際委員会(International Committee for Robot Arms Control: ICRAC)」が設立され、2010年に当初のベルリン宣言を修正した後、2014年に設立趣意書を再確認している。この趣意書に書かれている、ロボット兵器の規制に関する方向性としては、人間の殺傷に関する決定を機械に委ねない、また、規制や禁止に関する法的規範を求めるなどの内容が含まれている。

 

この問題には、各国のAI研究者なども関心を寄せており、豪州のニューサウスウェールス大学のトビー・ウォレシュ教授、テスラ社やスペースX社のイーロン・マスク氏などは、AIの軍事利用の即時停止を求める書簡を2017年に豪州政府などに送付している(2015年にもAI研究者やスティーブ・ホーキング博士などが同様の内容を公開書簡として公表している)。ウォレシュ教授は、2017年のGGEに合わせて、スウォーム兵器が、ネット上で顔認証を登録した大学生等を襲撃する短編映画を作成し、同時にそれをYouTube上でも公開して話題となった。

 

この映画は、2017年のGGEのサイドイベントでも紹介されたが、多くの参加者より、そこで描かれたLAWSの形は国際社会を「ミスリード」する、として不評であった。この前から、CCWの議論では、LAWSや、自動兵器一般につき、メディア等が米国映画の『ターミネーター』を例示することで恐怖を煽ることを戒める意見が出されており、各国は、議論が「恐怖」に支配されて歪められることを警戒していた。

 

ただし、LAWSとはどのような兵器であるか具体的に示さないまま議論を進めることには批判がある。規制対象を未定義なまま議論を進める方針を堅持した、2017年のGGEの議長のインドのギル大使(Amandeep Singh Gil)の議事運営の問題点を指摘する声も聞かれた。

 

実際、規制対象を明示せず、将来の可能性を議論の対象とする軍備管理軍縮交渉には大きな欠点がある。それは、交渉の終結点が不明となり、議論を継続することだけが目的となってしまうことである。しかし、その兵器そのものや、兵器関連の技術開発の可能性に、民生および軍事などの両面でポジティブな意義が感じられる場合、その可能性を追求するインセンティブが生まれ、議論の停滞は各国の歓迎するものとなる。要するに、「時間が稼げる」ということである。時間を使うことで、将来の技術発展をも包括的に含んだ、効果的な規制措置が検討される可能性が高くなる。

 

ただし、将来の規制措置を考える上で、技術を規制する方法にも留意する必要がある。抽象的な表現方法になるが、技術の規制のラインが、今現在の自分の技術レベルの「下」になる場合、それは技術後発国の「キャッチアップ」を阻止することが目的になる。別の観点でいうと、それは拡散防止が目的、ということになる。

 

しかし、規制ラインが「上」に引かれる場合、それは「保有規制」もしくは「タブー化」ということになる。この場合、特定の技術の開発を禁止する方法と、当該技術を使用していい国を決める方法(聖域化)がある。規制ラインを自分より「上」に設定することを許す場合、それは技術的後進性を受け入れることを意味する。

 

米国や中国、さらにはロシアなどの技術先進国(もしくは技術開発の意思を持っている国)は、技術の「タブー化」以外は受け入れるだろう。日本やドイツなどの技術国は、規制ラインが自分の「上」に来ることを、全力で回避するよう行動している。

 

未確定な技術の軍備管理軍縮を進めるもう一つの問題は、規制対象を明確にすると、比較的簡単に結論に至るが、規制内容に同意できない国は結果にコミットしないため、交渉が不成立か、不完全な条約や措置に至る可能性が高い。ただし、短期的な成果が望ましいと考える国や市民社会団体は、それぞれの事情から、この方策に飛びつく傾向がある。2017年に合意された核兵器禁止条約も、その一例であるし、過去、対人地雷、クラスター弾など、条約成立という意味では成功だが、普遍的な措置としては、未だに不完全な状態にある軍備管理軍縮条約も、その歴史に加えていいだろう。【次ページにつづく】

 

 

シノドスのコンテンツ

 

●ファンクラブ「SYNODOS SOCIAL」

⇒ https://camp-fire.jp/projects/view/14015

 

●電子メールマガジン「αシノドス」

⇒ https://synodos.jp/a-synodos

 

●少人数制セミナー「シノドス・サークル」

⇒ https://synodos.jp/article/20937

 

 

 

 

1 2
シノドス国際社会動向研究所

vol.256 

・熊坂元大「「道徳教育」はこうすれば良くなる」
・穂鷹知美「終の住処としての外国――スイスの老人ホームにおける 「地中海クラブ」の試み」
・徳山豪「アルゴリズムが社会を動かす」
・鈴木崇弘「自民党シンクタンク史(1)――シンクタンク創設への思いとその戦い」