2018年04月21日 08時28分

AI殺人兵器「キラーロボット」は第三の兵器革命? 「国際条約で規制すべき」の意見も

AI殺人兵器「キラーロボット」は第三の兵器革命? 「国際条約で規制すべき」の意見も
キラーロボットの禁止を訴えるリーフレット(NPO法人難民を助ける会)

人工知能(AI)を搭載した「キラーロボット」の規制のあり方や、日本の役割について考える勉強会が4月17日、東京・永田町でおこなわれた。脳科学者として知られる茂木健一郎さんが、人工知能の兵器活用について「あらかじめ国際条約で規制すべきだ」というメッセージを寄せた。キラーロボットはまだ実用化されていない兵器だ。なぜ今からその規制を考えるべきなのか。

●核兵器につぐ「第三の兵器革命」がおきると懸念されている

キラーロボットは正式な定義はないが、この日の勉強会の主催団体の1つ、NPO法人「難民を助ける会」によると、人間の判断・命令・操作がなくても、自動的に攻撃目標をさだめて、武力行使するAI兵器のことをさす。自律型致死兵器システム(LAWS)とも呼ばれている。

現段階では、実用化されていないが、アメリカやロシアなどが開発しているという。このまますすんでいけば、将来的に実戦投入されて、核兵器につぐ「第三の兵器革命」がおきると懸念されている。

「核兵器が事前禁止だったなら、広島、長崎のような惨禍はおきなかった」(難民を助ける会理事長、長有紀枝さん)

このような状況のもと、国際条約で、その開発・使用を食い止めようという動きがすすんでいる。拓殖大学の佐藤丙午教授によると、世界的にも、キラーロボットの規制については、おおまかなコンセンサスがあるという。

だが、民間と軍事の技術面での境界はあいまいで、民間のAI技術まで規制することにつながりかねないため、国際条約(CCW)の専門家会合では、慎重な議論がおこなわれているようだ。

●独裁者に利用される危険性がある

「ロボット開発に反対しているわけでない。ただ、キラーロボットが世界を変えかねない兵器だけに、予防的な規制をすべきだと考えている」

主催団体の1つ、国際人権NGO「ヒューマン・ライツ・ウォッチ」日本代表の土井香苗さんはこのように述べる。そのうえで、(a)〜(c)のような問題点を指摘した。

(a)ロボットは同情心を持っていない

(b)独裁者が持ったら、自国民の弾圧に利用される危険性がある

(c)兵士が死なないことで、戦争という選択が容易になり、戦争が増える

●国際人道法違反の刑事責任を誰がとるのか?

土井さんによると、法的問題としては「国際人道法」(戦争犠牲者の保護のためのジュネーブ諸条約と追加議定書)がかかわってくるという。

国連広報センターのホームページによると、国際人道法とは、戦争の手段や方法を規制する原則や規則、それに文民、病人や負傷した戦闘員、戦争捕虜のような人たちの人道的保護を扱ったものだ。

この中には、一般住民と戦闘員を区別しないといけない、一般住民を攻撃ターゲットにしてはならない、といった規定がある。キラーロボットについては、こうした区別・判断ができるのか(プログラムされるのか)と疑問視されているわけだ。

さらに、国際人道法違反の刑事責任を誰がとるのか(指揮官なのか、プログラマーなのか、製造者なのか)といった問題もある。「(キラーロボットができると、)戦争の悲惨さを食い止めるためにつくった法律(条約)の違反を取り締まれなくなり、法律が意味のないものになる」(土井さん)

●「人間がコントロールできず、暴走する可能性もある」

脳科学者の茂木健一郎さんはこの日の勉強会に参加しなかったが、次のようなビデオメッセージを寄せた。ほぼ全文で紹介する。

「人工知能の研究は、大変重要です。その研究開発は、われわれの文明にさまざまな発展をもたらすと思います。一方、それが兵器に適用されることは大変危険です。人工知能は、ある評価関数を与えられると、それにしたがって自分自身を改良する能力を持ちえます。人間がコントロールできず、暴走する可能性があります。

とくに人工知能が兵器に使われますと、今まで人間が介在して判断してきた戦場での戦闘行為が、自動的におこなわれることによって、制御不可能な事態になることが予想されます。たとえば、無人攻撃機(ドローン)が、敵を認識して、攻撃することを自動的にやるようになると、人間の介在するような倫理的な判断ができなくなる可能性があります。

もともと人間の脳は、長い進化の過程で、生物としてのさまざまな直感や倫理観、それとともに知能を発達させてきたわけです。ところが、人工知能は生命ではないので、その知能の部分は大変素晴らしいが、一方で、生物として当然の状況判断、直感、何よりも生存本能を持たないわけです。

このような特徴を持った人工知能をさまざまな民生分野に活用するのは良いんですが、これを兵器に活用するのは、最悪な組み合わせだと考えられるわけです。人工知能を兵器に活用することは、あらかじめ国際条約で禁止する措置が強く求められると思います」

(弁護士ドットコムニュース)

[弁護士ドットコムからのお知らせ] アルバイト、協力ライター募集中!

弁護士ドットコムニュース編集部では、アルバイトや協力ライター(業務委託)を募集しています。正社員、契約社員の編集スタッフも募集中です。

詳細はこちらのページをご覧ください。
https://hrmos.co/pages/bengo4/jobs/0009608

この記事へのコメント

ブリキロボット 50代 男性

「人間の介在する倫理的な判断が出来なくなる」
今までの人類は戦場で倫理的な判断をしてきたのでしょうか?
拷問・虐殺・殺戮
AI搭載の自立型ロボットに任せた方が遥かに倫理的です

萬屋 男性 50代

は?ドラマ見過ぎだろ。

コメント内容を確認する
コメントの送信に失敗しました。

コメントの送信時にエラーが発生しました。
もう一度コメントを入力してください。

再読み込みする
匿名ユーザー 30代 女性

>「核兵器が事前禁止だったなら、広島、長崎のような惨禍はおきなかった」

禁止したところで国際条約を守らない北朝鮮みたいな国があるわけで…
核にしろAI兵器にしろ、技術的に実現可能なものなら誰かが絶対に使いたがることは避けられない気がします

コメント内容を確認する
コメントの送信に失敗しました。

コメントの送信時にエラーが発生しました。
もう一度コメントを入力してください。

再読み込みする
コメント内容を確認する
コメントの送信に失敗しました。

コメントの送信時にエラーが発生しました。
もう一度コメントを入力してください。

再読み込みする
バナーの画像、書かれている内容は「あなたの体験を記事にしませんか?体験談募集」