ついに実践投入へ・・・殺人AIが抱える4つの問題点

ビジネス

皆さん一昨日から世間をにぎわしている殺人兵器AIのお話をご存じでしょうか?
内戦が起きているリビアにて、トルコ製の無人AI兵器が導入され使用されていたことが分かったのです。

 トルコ・アンカラの工業施設に並ぶ軍事企業STMの小型無人機Kargu。リビア内戦で使われたKargu-2の改良前の型だ=2020年6月(ゲッティ=共同)
引用:デイリー(殺人AI兵器、世界初使用か昨年リビアで国連報告書)                                                                 

これは一見普通のドローンのように見える機械ですが、人間を自動追尾し攻撃できる機能を有していることが分かっています。

かねてより研究は進められていたものの、殺人AIが実践に投入されたのは今回が初めてであり、世界から大きな批判が集まっています。

世界各国で研究はしているのに使用すると批判が寄せられるのはなぜなのか。

今回はそんな殺人AIが抱えている問題をご紹介致します。

倫理的問題

最初にあげられる問題として倫理的にAI殺人兵器は使うべきではないというものが挙げられます。

そもそも戦争自身が倫理的に許される行為ではない、と断じてしまえばそれまでではありますが、戦争の中でもとりわけAIによる攻撃は忌避される傾向にあります。

良い殺人、悪い殺人など論じるつもりはありませんが、戦争という邪悪なものにこそ、やってはいけないルールを設けるべきということなのかもしれません。

人に過剰な苦痛や恐怖を与えてしまうためにウィルス兵器の使用が禁止されていることと同じ理由ですね。

国際ルール違反

実はAI兵器の使用は2019年にスイスのジュネーブで行われた国際会議によって禁止されているのです。

禁止されているのであれば、なぜ今回使用されたのか。

その理由は簡単で、この国際ルールには破った場合の罰則などが設けられていなかったためです。

あくまで各国の合意で「AI兵器は使わないようにしよう!」

と取り決めた口約束にすぎないため、大きな拘束力は持たないわけですね。

ここに拘束力が生まれない限り、今後もAI兵器の開発や使用は続いていくでしょう。

無差別攻撃の危険性

たった今AI兵器は国際ルールで使用が禁止されている

とお話しましたが、そもそもこのルールも厳密にはAI兵器のすべてを禁止しているわけではありません。

国際ルールで禁止されているのはあくまでも

「AIが標的の判断と攻撃を行う兵器」

に限られています。

詳しくご説明すると、AI兵器には

「標的の識別だけをAIが行う兵器」

「人間が識別した標的に攻撃する兵器」

「標的の識別、攻撃全てをAIが行う兵器」

などいくつか種類がありますが、

禁止されているのは3つ目の兵器だけなのです。

なぜここを禁止しているかというと、

今のAIが敵の識別等を完璧に行えているわけではなく、どちらかの判断を人間が行わなければ、AIが攻撃すべきでない人間を攻撃する可能性があるからです。

兵器の主権はあくまで人間。

ここが大切になってくるわけですね。

AI兵器の暴走

映画 ターミネーター2 予告編

最後の問題は正しくターミネーターの世界。

AI兵器を発展させすぎると、AIの判断により人間と敵対する可能性が生まれるという問題です。

以前の記事でAIに過剰な偏見や偏った知識を持たせると、攻撃性が増すことや、人間に対して攻撃する意思を見せることが明らかになっています。

マイクロソフト社が開発した「Tay」や人工知能「ソフィア」が有名ですね。

→シンギュラリティ到達寸前?~AIにまつわる怖い話3選~

だからこそ兵器などの主権までAIに委ねることは人間を破滅に導きかねない大変危険な行為なのです。

AIは利用しても依存するべきではない、これは兵器に限った話ではないでしょう。

最後に

さて今回は殺人AIが抱えている問題についてお話してみましたがどうでしたでしょうか?

巷では社会主義国家と資本主義国家の間で第三次世界大戦が勃発する危険があると言われていますが、

もしかすると相手は人間ではなく、発達した殺人AIになるかもしれません。

ありえない、と思いたいですが一概にないとも言い切れなくなってきたような気がしませんか?

コメント

タイトルとURLをコピーしました