胡散臭い「ロボット兵器/AI兵器反対社説」
応援いただけるならば、クリックを⇒ https://www.blogmura.com/ranking.html
「殺人ロボット」などと表現され、イメージされることも多い「ロボット兵器」ないし「AI兵器」と呼ばれる兵器を、規制ないし禁止しようって運動は、数年前から何度か報じられ、弊ブログでも記事にしたことがある。
無論、私(ZERO)が「殺人ロボット禁止条約(仮称)」なんて「お花畑全開」としか思えないようなシロモノを取り上げるのだから、肯定的好意的な訳も無い。かなり懐疑的で、否定的で、辛辣と言っても良いような記事になっている。
平たく言えば、「禁止すべき”殺人ロボット”をどう定義して、どう禁止するのかサッパリ判らない/イメージできない/想像できないような”殺人ロボット禁止/制限条約(仮称)”は、失敗に終わるだろう。」である。
それは、「殺人ロボット」に随分と先立つ「クラスター爆弾禁止条約」や「対人地雷禁止条約」の実績から、容易に推論推定できることだ。
クラスター爆弾禁止条約は、「クラスター爆弾の定義」には成功したと言えそうだが、アメリカ、中国、ロシアなどの軍事大国ばかりか、南北朝鮮から中華民国まで批准していないモノだから、「我が国周辺にクラスター爆弾禁止条約批准国は無い」状態。この状態で我が国はクラスター爆弾禁止条約を批准し、当時は輸入して装備していたクラスター爆弾を破棄しなければならなくなった。
「貴重な外貨」って言い方は(幸いに、最早)死語かも知れないが、「外貨の無駄遣い」したことは間違いが無い。
対人地雷禁止条約も批准国という点では似たようなモノ。アメリカがなにやら「色気を見せている=そのうち批准するかも知れない兆候がある」分だけはクラスター爆弾よりマシかも知れないが、やはり「我が国がこの辺りで唯一の批准国」であることは変わりが無い。
さて、そのような冷厳たる史実事実実績にも関わらず、今度はアカ新聞をはじめとして、一応は「アカ新聞では無い」読売新聞(*1)までもが、以下のような「殺人ロボット禁止条約(仮称)を要望する社説」を掲げているのである。
-
<注記>
- (*1) でも、確か「A級戦犯分祀論」であり、その点では「アカ並み」なんだが。
- 教育勅語にも、下手くそな理屈で批判していやがったしな。
①【朝日社説】ロボット兵器 法規制へ向けて議論を
ロボット兵器 法規制に向けて議論を2019年8月25日05時00分
【1】 人の生命を奪う判断を機械にゆだねることを認めるか否か。国際的なルールづくりはこれからが正念場だ。【2】 ロボット兵器の規制をめぐる専門家会合がスイス・ジュネーブで開かれ、3年間にわたった議論を報告書にまとめた。示された指針には、ロボット兵器の行為にも国際人道法を適用することや、その使用には人間が責任を持つことなどが盛り込まれた。当然の結論といえる。【3】 だが、条約などの形で法的拘束力をもつ規制とするまでの合意には至らなかった。専門家会合は今後も話し合いを続けるという。実効性のある具体的な制度づくりに向けて、さらに検討を深めなければならない。【4】 対象は、人工知能(AI)を備え自律的に作動して敵を殺傷する兵器だ。自律型致死兵器システム(LAWS)といい、殺人ロボットとも呼ばれる。【5】 米国やロシアをはじめとする開発を進める国と、中南米、アフリカ諸国など禁止条約を求める国との溝は深い。人間の関与が必要という点ではほぼ一致しても、「関与」の程度をめぐる認識は大きく隔たっている。【6】 例えば、人間の司令官による包括的な指揮・命令があれば、現場での個々の判断や動きはロボット任せで構わないとする主張がある。紛争地に投入されれば、殺し、傷つけることへの痛みを感じない兵器が生身の人間と交戦するという、映画のような光景が現実のものになる。【7】 一片の人間性も存在しない戦争とは何か、社会はそれを許容するのかという、人間の存在や倫理に深く関わる問題だ。【8】 ロボット兵器こそ国際人道法の実践につながるという言い分もある。敵の識別や攻撃行動が正確になり、間違った殺傷が減る。違法行為があっても詳細な記録が残るので、検証や報告が容易になる。結果として人道にかなう、という理屈だ。【9】 しかしAIの学習機能が深化するほど、何を基準に識別・判断したのか、人間にはわからないブラックボックス化が進む。学習データの偏りが、AIの判断を誤らせる危険も指摘されている。加えて、状況が錯綜(さくそう)し、混乱する実際の戦場では、ロボットが予測不能な行動するのではないかとの懸念をいだく専門家は少なくない。【10】 安易なロボット兵器推奨論に乗るわけにはいかない。【11】 まずは、人間の手を離れて作動する完全自律型兵器については一切の使用禁止を実現させたい。そのうえで、標的の把握・識別・攻撃という各局面で、AIに任せると危険な要素を洗い出し、そこに拘束力のある規制をかけるのをめざすべきだ。【12】 人類の知恵が試されている。
②【毎日社説】AI兵器の国家指針 法規制につなげげるべきhttps://mainichi.jp/articles/20190824/ddm/005/070/052000c毎日新聞2019年8月24日 東京朝刊【1】 人工知能(AI)の判断で人を殺傷する「殺人ロボット」の兵器化が現実味を帯びる中、AI兵器を戦争で使用する際の判断はあくまで人間の責任で行われるべきだとする国際的な指針がまとめられた。
【2】 スイスで開かれた国連会合の報告書に盛り込まれた。法的な拘束力はないものの、将来的な規制につながるものとしてまずは評価したい。【3】 AI兵器については軍事の省人化・効率化を図る目的で米国、ロシア、中国などが開発にしのぎを削る。人間が遠隔操作する無人機はすでに実戦で使われているが、AIを組み込めば、人の判断が介在しない「機械が人を殺す」戦争も可能になる。【4】 米国などはAIの判断の方が正確で速く、人的なミスも防げると主張する。しかし、AIは本当に標的を誤ることはないのか。AIが暴走して人々を殺りくする映画のような事態も絵空事とは言い切れまい。【5】 AI兵器を戦場に投入できるようになれば、自国兵員の人的損害を避けられることから、戦争を始めるハードルが下がるとの懸念もある。テロリストや独裁者の手に渡れば、世界が脅威にさらされる。【6】 危機感を強めた国際NGOなどが禁止キャンペーンを展開し、5年前に始まったのが国連の規制論議だ。【7】 国連の会合では、AIの判断だけで人を殺傷する兵器を「自律型致死兵器システム」(LAWS)と呼ぶ。中南米やアフリカなどの諸国がLAWSの禁止条約を結ぶよう主張し、技術開発で先行する米露などが反対する構図が続いている。【8】 そうした中、規制推進派も反対派も合意できる理念的な内容だけでも文書化しようとまとめられたのが今回の指針だ。AI兵器の開発に対する明確な歯止めにはならないが、人間の責任を前提とすることや国際人道法の順守などが確認された。【9】 国連会合の報告書には来年から2年間、さらに議論を重ねることも盛り込まれた。いったん実用化された後の規制が困難なのは核兵器の先例からも明らかだ。手遅れになる前に法的規制の検討に進むべきだ。【10】 日本政府は自衛艦や潜水艦などの一部システムをAI化し、自衛隊の要員不足に対応する構想を持つ。その立場から合理的な規制策を積極的に提案してはどうか。
③【東京新聞社説】殺人ロボット 企業も「ノー」と言おう殺人ロボット 企業も「ノー」と言おう
2019年8月26日
【1】 人工知能(AI)が敵味方を判断して自動的に攻撃する殺人ロボット兵器の開発が進む。国連の専門家会合で規制に向けて一歩前進となる指針が決まった。戦場に出る前に止めなければならない。【2】 インターネットの政府広報オンラインに興味深いビデオがある。未来社会をイメージしたもので、タイトルは「空飛ぶマシンがアナタの町にもやってくる」。【3】 スマートフォンで宅配便の連絡を受けた女性が縁側に出ると、ドローンが降下してくる。ドローンは顔認証技術を使って女性が受取人だと確認すると、段ボール箱を渡す。中身はスニーカー。だが、ドローンが爆弾を運べば、殺人ロボットになる。これがこの問題のやっかいな面なのである。【4】 自動で標的を識別して攻撃の判断をする兵器を自律型致死兵器システム(LAWS)と呼ぶ。一昨年秋から規制のために、国連の政府専門家会合が開かれている。二十二日に「攻撃の判断に人間が関与すること」を柱にした指針がまとまった。【5】 LAWSは現在、米国や中国、ロシア、イスラエルなどが競って開発している。従来の先端兵器は主に軍人が操作したが、LAWSは人の関与がなく、AIがすべてを行う。【6】 本紙はロボット先進国の日本が禁止を働き掛けるよう主張していた。政府が今年「完全自律型の致死性を有する兵器を開発しない」と宣言したことは評価したい。【7】 指針ができたことで、倫理的な歯止め効果は期待できるが、法的拘束力のある条約化を目指してほしい。技術はあるが、開発しないと宣言している日本は、説得力のある仲介者になれるだろう。【8】 冒頭に紹介したドローン宅配の例でもわかるように、AIとロボットなどの組み合わせは軍民両用技術だ。技術がどのように利用できるかは、開発した企業がもっともよく分かっているはずである。【9】 ハイテク企業は、企業として何をするか、何をしないかを示す倫理指針を定めてほしい。兵器への転用を防ぐための仕組みをあらかじめ組み込むといった対策も考えてもらいたい。【10】 将来は「人間に危害を加えてはならない」といった倫理を教え込んだAIのみを出荷することが望ましい。【11】 こうした技術は、テロ活動や独裁国家での反体制派弾圧に利用される恐れもある。先端技術の未来のためにも、平和利用に徹するのが日本らしい生き方である。
④【読売社説】AI兵器の規制 攻撃判断を委ねるべきでない
AI兵器の規制 攻撃判断を委ねるべきでない
2019/08/23 05:00【1】 人間の意思が介在しない状態で、人工知能(AI)が自律的に判断し、敵を殺害する。そんな兵器システムが実用化されれば、戦闘の形態が一変しかねない。【2】 技術の急速な進展に伴う予想外の事態をいかに防ぐか。各国が議論を深め、現実的な規制に向けて歩み寄ることが重要である。【3】 AI兵器は、AIが戦闘区域の状況など膨大な情報を処理しながら作動する。自動運転車と同様に人為的な操作ミスを減らす効果や省力化、省人化が、安全保障上の利点として指摘されている。【4】 問題となっているのは「自律型致死兵器システム(LAWS)」だ。人間の命令なしに、AIが自ら標的を選択し、殺害する。【5】 人間が遠隔操作するドローンなどの無人兵器とは異なり、攻撃の責任の所在が不明確になりかねない。人間が戦闘を管理できなくなる可能性が懸念される。【6】 そもそもAIに生殺与奪の権利を握らせるべきでない、という主張もある。国際人道法や倫理面でLAWSが多くの問題点をはらんでいるのは明白である。【7】 スイス・ジュネーブで開かれた各国政府代表や専門家による会合は、LAWS規制に関するこれまでの議論を報告書にまとめた。【8】 「国際人道法などの国際法を守らねばならない」とし、LAWSの使用に人間の判断を介在させる必要性を強調している。【9】 文書に法的拘束力はないが、重視すべき原則を各国が共有した点では一歩前進だと言えよう。【10】 オーストリアやブラジル、途上国グループは軍縮推進の立場から、LAWS禁止条約を求める。一方、AI兵器の開発で先行する米国やロシアは、禁止や規制には慎重で、溝が生じている。【11】 今回の報告書を土台にLAWSの開発や運用で実効性のあるルールを作れるかが課題となる。【12】 例えば、規制の対象を、人間を直接殺害するよう設計された兵器システムに限る。攻撃の際、司令官の許可を得るプログラムを組み込むことで、「決断する人間の介在」を担保する。こうした具体案の議論を深める必要がある。【13】 米露をルール作りに引き込み、AI兵器の透明性や各国間の信頼を高めることが大切だ。一方で、民間のAI技術の研究・開発が、軍事転用の可能性を理由に規制されることは防がねばならない。【14】 日本は、完全自律型のLAWSは開発しないとの立場をとる。建設的な議論を主導する役割を果たしてもらいたい。
で、どんな規制をかける心算かね?
上掲①~④各紙社説から読みとれる「ロボット兵器/AI兵器に対する法規制」は、以下のようである。例によって丸数字は各紙社説を、【】内はパラグラフ番号である。
<1> 規制対象は、人工知能(AI)を備え自律的に作動して敵を殺傷する兵器 ①【4】②【7】④【4】
<2> 人間が関与しない完全自律型兵器の使用禁止 ①【11】②【7】④【12】
<3> 標的の把握・識別・攻撃という各局面で、AIに任せると危険な要素を洗い出して、そこに拘束力ある規制をかける ①【11】
<4> AIを組み込んだドローン等に、兵器への転用を防ぐための仕組みを予め組み込むといった対策 ③【9】
<5> 将来は「人間に危害を加えてはならない」といった倫理をAIへ組み込む。 ③【10】
「一見尤もらしいが、一体何をどうしろと主張しているのかサッパリ判らない」のが上掲③上記<4>から<5>の東京新聞社説だ。法規制と言うよりは「製造社倫理(自主規制)でナントカしろ」って主張らしいのだが、上記<4>「兵器への転用を防ぐための仕組み」をシレッと要求しているのだが、上掲③で事例として挙げている「兵器への転用」が「宅配ドローンが爆弾を届ける」なのであるから、「宅配ドローンがご自慢のAIで(なのだろうな・・・)、荷物が爆弾や毒物などの危険物であるか否かを判定し、安全な荷物だけを届ける」事が上掲<4>で要求されているコト、の筈である。
一体、宅配ドローンにどんな仕掛けとどんなAIを組み込んだら「荷物が危険物であるか否かを判定できる」のか、私(ZERO)なんぞには想像すら付かない。ドローン製造社を魔法使いか何かと勘違いしているのでは無いか、東京新聞は。
上記<5>は、「将来」と踏み込むだけに輪をかけて凄い。要は「AIにロボット三原則(のうち、一条だけとはいえ)を組み込め」って主張だ。それこそ、故アイザック・アシモフ老のSFの世界。言うだけならタダ。願う、妄想する分には構うまいが、「餅として描ける」かすら怪しい。
脱原発原理主義者である東京新聞らしいと言えば、実に「東京新聞らしい」妄想・願望ではあるが。
上記<4>と<5>は、東京新聞の妄想・願望でしか無いが、朝日が主張する上記<3>も、「幾らか具体的ではあるが、本質的な際は少ない」、つまりは「朝日の妄想・願望」だ。仮に上記<3>で朝日の主張するとおり「標的の把握・識別・攻撃という各局面で全ての危険要素を抽出」出来、「その危険用をはAI任せにしないという拘束力ある法規制」が実現したとしても、先ず確実にその法規制は「AIプログラムを規制するモノ」にしかならず、「AIプログラムのソースコードを確認する」事でしか検証できず、AI兵器出荷後に「AIプログラムを非合法なモノに書き換える」とか「非合法AIプログラムを搭載したハードウエアに換装する」ことで、比較的容易に突破できる法規制にしかならない。テロリストでも、人材を揃えれば突破できそうだし、国家ならば尚更だ。
つまり・・・「上記<3>で朝日が要求する法規制は、紳士協定や自己規範、或いは自己満足や自己陶酔とはなり得るが、実質・実効は甚だ疑問である。」尚且つその「甚だ疑問な実質・実効」さえ数多の軍事先進国が「殺人ロボット禁止条約(仮称)」を批准しない限り「絵にも描けない餅」でしかない。
更に言えば、「非合法なAIプログラムソースコードで比較的容易に突破できる法規制であり、実質・実効に多大な疑問がある」と言う点では上記<2>「人間が関与しない完全自律兵器の使用禁止」も同様である。「人間が関与する」ためには双方向データリンクなどの高度な技術が必要となるが、完全自律兵器ならば左様な「高度な技術」は必要ない。
で、結論。読売新聞まで参戦した各紙こぞって賛意を表する「殺人ロボット禁止条約(仮称)」であるが、上記<1>で辛うじて「殺人ロボット=ロボット兵器/AI兵器の定義」にこそ一定の成功をおさめたモノの、上記<2>から<5>程度の指針・議論では、左様なモノは「自己申告の自主規制と自己満足程度に終わる」であろう。
無差別攻撃は野放しですが、何か?
更に、チョイと捻った見方をするならば・・・これも以前記事にした所だが、所謂「殺人ロボット」=「ロボット兵器/AI兵器」が「人を殺す」と言うのは、不気味ではあろうし、嫌悪する向きが多いのも理解するが、「殺傷力」という点では「大したことない」のである。
上掲③東京新聞社説が事例とする「爆弾を運ぶ宅配ドローン」の殺傷力は「その宅配ドローンが運べる程度の爆弾」でしか無い。上掲③ではスニーカーを運んでいるようだから、運べる爆弾は数kg程度だろう。一人か二人を殺傷するには足りようが、家一軒吹き飛ばすような威力は無い。
SF映画「ターミネーター(の、特に一作目。シュワちゃんの出世作、だな)」の様な「目標とされ狙われた主人公を追い回す殺人ロボット」の殺傷力は、その携行装備する銃火器程度でしか無い。如何に(シュワちゃん演じる)殺人ロボットが、怪力敏捷であろうとも、だ。
有人機ならばトン単位で爆弾を運べる。ミサイルでも十kgから百kg単位の弾頭を運べるモノ(*1)はザラにある。当たり前ながら現行の/現存する有人機やミサイルの「攻撃決定権」はAIならぬ人間様が握っているが、一度「爆弾投下スイッチ」なり「ミサイル発射スイッチ」をONにしてから先は、「原則、事態は自動的に進行し(*2)、粛々と目標は攻撃される。
家一軒丸ごととか、街区一区画全部を攻撃し、破壊できる兵器が幾らも「人間様の判断で」攻撃敢行できる現状・現実・今の世界で、「その建物や街区に入って一人ずつ選択選別して(或いは無差別に)殺していく”殺人ロボット=ロボット兵器/AI兵器”を、禁じたり、法規制したりすることに、どれほどの意味/意義があるのだろうか?
正義感や爽快感はありそうだし、自己満足にはなるだろうが、ヒョッとして自己陶酔に終わり・・・へたすると”タダの偽善”ではないのか?
前述の通り「トテモ有効な法規制とはなりそうに無い」上掲「殺人ロボット=ロボット兵器/AI兵器 法規制賛成社説」を読むと、益々その感を強くするぞ。
「人類の知恵が試されている。」①【12】などと、上掲①朝日社説は尤もらしく「しめて」いるが、そりゃ朝日の主張する「殺人ロボット禁止条約(仮称)」が「如何に困難か」を、自覚し、認めていると言うことだろう。
であるならば、ロクに「実現性のある法規制方針」すら示すこと無く、「人類の知恵」に丸投げとは、随分と無責任な主張では無いか
-
<注記>
- (*1) 対戦車ミサイルや、肩撃ち式対空サイルなどは小型で、弾頭も数kg程度のモノが多いが。
- (*2) 例外は、双方向データリンクを搭載してMan in the Loap機能を有する、ごく一部のミサイルだけだな。