教養なき錯乱坊~司法予備試験編~

教養なき錯乱坊~司法予備試験編~

司法予備試験合格を目指す大学生のブログ
国立大学法学部2年生です
現在平成29年度行政書士試験合格に向けて鋭意(笑)勉強中
本、漫画のレビューもやってます

Amebaでブログを始めよう!

日本の場合

 

動向まとめ

<研究者側>

2017年2月 人工知能学会:「人工知能学会 倫理指針」

<政府側>

2017年7月 AIネットワーク化社会推進会議:『報告書2017』

2018年7月 AIネットワーク化社会推進会議:『報告書2018』

 

 

日本のAIに関する法規範・倫理規範策定の姿勢

 日本では、総務省のAIネットワーク化検討会議とその後継組織であるAIネットワーク社会推進会議でAIのもたらす社会的影響・リスクの評価、それに対する対応が議論されている。

 そこでは現在、非拘束的・非規制的なソフトローとしてガイドラインを策定し、それを国際的に共有しようという取り組みがなされている。

 その背景には、AIの開発・利活用はまだ始まったばかりであり、それを法律などのハードローで規制することは適切ではないこと、AIが及ぼす影響やリスクはネットワークを通じて世界的に広がるため一国で規制するには限界があること、といった事情がある。

 具体的な動向としては、目下「AI開発ガイドライン」「AI倫理ガイドライン」を策定することが目指されている。

 

2016年 AIネットワーク化検討会議:『報告書2016』

 まず、目指すべき基本理念たる「智連社会」を提示した。AIネットワーク化の進展が「智連社会」の形成にどのような影響を与えるのか、その際の人間とAIネットワークとの関係に関する評価、及びAIネットワーク化が社会・経済にもたらすリスクの基礎的な検討を行った上で、今後の課題を整理した。

 

 

2017年 AIネットワーク化社会推進会議:『報告書2017』

 『報告書2016』の成果を踏まえて、AIの開発において留意することが期待される事項をまとめた「AI開発ガイドライン案」を取りまとめた。

 さらに、AIシステムの具体的な利活用の場面を想定してAIネットワーク化のもたらす影響を検討し、今後の課題を整理した。

 

 

AI開発ガイドライン案

<目的>

「AIネットワーク化の健全な進展を通じてAIシステムの便益増進とリスク抑制を図ることにより、利用者の利益を保護するとともにリスクの波及を抑止し、人間中心の智連社会を実現すること」

 

<特徴>

○国際的なもの

 ×国内法を目指すもの

○各国のステークホルダー間で価値観を共有するためのもの

 ×AIの開発を規制するためのもの

○ソフトロー

 ×ハードロー

 本ガイドライン案は、AIの研究開発についての国際的な議論のたたき台として作成された。つまり、日本の国内法のために作成されたものではなく、国際的な議論を通じて各国のステークホルダー間で価値観を共有することによって、上記目的を達成することを意図するものである。

 国際的な価値観の共有を目指す理由は、AIの研究開発がグローバルにすすみ、その影響やリスクもネットワークを通じて世界的に及び、一国で規制をどうするかを考えても限界があるからである。

 そして、国際的な価値観の共有を目指す以上、具体的な義務を定める「ハードロー」は適さない。そこで、本ガイドライン案は非規制的かつ非拘束的ないわゆる「ソフトロー」とされている。

 

 

2018年 AIネットワーク化社会推進会議:『報告書2018』

 『報告書2017』の成果を踏まえて、引き続き、AIネットワーク化が社会・経済にもたらす影響を検討するとともに、AIの利活用において留意することが期待される事項についてまとめた「AI利活用原則案」をまとめた。

 

 

AI利活用原則案

<背景>

 『報告書2017』で「AI開発ガイドライン案」が策定されたが、AIによって良い社会を目指すには、研究・開発者だけの取り組みでは不十分であり、AIの利用者の取り組みも重要である。

 例えば、制御可能性に関していえば、AIは利用者が利用していく間にも学習を続けて賢くなっていくが、これは裏返すと利用次第では開発者の予測を超えて変化していくことを意味する。

 セキュリティに関しても、自動運転車の利用者がソフトウェアのアップデートを怠ることによち事故が起こることも有りうる。

 また、利用者が安心してAIを利用するために、例えばAIが事故を起こして他人に損害をあたえた場合の賠償責任の所在についてなどの制度作りが必要である。

 

<目的・特徴>

 「AIの利活用原則案」は、「AI開発ガイドライン案」と同様に、「AIネットワーク化の健全な進展を通じてAIシステムの便益増進とリスク抑制を図ることにより、利用者の利益を保護するとともにリスクの波及を抑止し、人間中心の智連社会を実現すること」を目的とし、国際的な議論のたたき台として、ソフトローとして作成された。

 

 

今後進めていかなくてはならない法的・倫理的規範

<AI開発ガイドラインの策定・AI利活用原則の策定>

 現時点では、AIの開発や利活用は初期段階であり、法律などのハードローによる規制は適当ではなく、ベストプラクティスの共有や非規制的・非拘束的な指針などのソフトローにより、多様なステークホルダ間において国際的な合意形成を図ることが重要である。

 従って、ハードローの整備よりむしろ、ソフトローたる「AI開発ガイドライン」「AI倫理ガイドライン」を策定することが優先課題である。

 

<その他AIネットワーク化を推進するための具体的な法制度のあり方の検討>

 また、現時点でAIについてのハードローの整備は適切ではないものの、AIネットワーク化の健全な進展に向けた環境整備のために、より具体的な事項の検討も今後行っていく必要がある。

 すなはち、政府としては以下の事項について法制度等の在り方を検討していく必要がある。

ア AIの事故等に関する法的責任の所在の在り方

イ 各分野におけるAIの利活用と業法等との関係の整理

ウ AIの学習等に用いられるデータ、AIにより作成されたモデル、AI創作物 等に関する知的財産制度上の保護と利活用の在り方

エ AIの利活用に関する個人情報の保護と利活用の在り方

オ AIネットワークに関する通信の秘密の保護(AI間の通信の秘密の保護の範囲及び程度など)の在り方

 

 

 

 

EUの場合

 

動向まとめ

<現在までのAIに関する法規範・倫理規範>

2014年9月 欧州委員会:「ロボティクス規制に関するガイドライン」

2017年1月 欧州議会:「ロボティクス憲章」

2017年2月 欧州議会:「ロボティクスにかかる民法規則に関する欧州委員会への提言」

2018年3月 欧州委員会:「EU条約・基本権憲章に含まれる価値に基づく倫理原則」

<今後策定する予定のAIに関する法規範・倫理規範>

~2018年末  AI開発の倫理ガイドライン

~2019年半ば 製造物責任指令の解釈ガイドライン

~2030年   自動車の安全基準の統一のための指針

 

 

EUのAIに関する法規範・倫理規範策定に対する姿勢

①公的機関主導の策定

②EU内で統一的な法的・倫理規範の策定

③ソフトローに加えてハードローも

③米IT企業に対する警戒

④ロボティクスを中心とした議論

 ①②EUはAIのもたらす問題について、欧州議会・欧州委員会といったEUの組織が包括的枠組みを制定しようと取り組んでいる。というのも、同じEU内で加盟国ごとに大幅に異なるルールを作られると、輸出入時の障壁となり事業展開に支障が出かねないという事情があり、従って、ある程度域内各国で足並みを揃えるものとしての統一ルールを策定する必要がある。そこで、欧州議会・欧州委員会などEU全体を統括する公的機関が中心となって議論を進めている。

 ③EUでは非拘束的なソフトローの策定もある一方で、ハードローの策定も行っている。例えば、2018年に施行されたGDPR(一般データ保護規則)は、プロファイリングについて、自動処理のみに基づいて重要な決定を下されない権利や透明性の要請を定めているが、これはAIのもたらす問題に対応しようとするものである。国レベルでは、ドイツで自動運転車の実現に向けて、事故の場合の責任主体の明確化のために道路交通法が改正された。

 ④EUの法的・倫理的規範において、米IT企業が念頭に置かれていることがある。ITジャイアントと呼ばれる米国の大企業がAI分野で圧倒している。それを踏まえて、米国IT企業からEU市民の個人情報を守ろうとしたり、米国の基準を強いられることのないようEUがAI・ロボティクス分野における規制の世界的な主導権を握ろうとしたりしている。

 ⑤EUはこれまで、「ロボティクスに関するガイドライン」「ロボティクス憲章」「ロボティクスにかかる民放規則に関する欧州委員会への提言」と、AIも含んでいるもののロボットを主軸においた議論を進めてきた。これは、欧州(特にドイツ)の産業構造が影響している。ドイツは製造業に強みがあり、インダストリー4.0も製造業を中心とするICTの政策である。こうした事情もロボットについての規範作成の背景にある。

 

 

2014年9月 欧州委員会:「ロボティクス規制に関するガイドライン」

<概要>

 欧州委員会の支援を受けた「RoboLaw プロジェクト」の成果として、本ガイドラインでは、ロボットと法を考える際の基本的な考え方がまとめられた。

 具体的には、自動運転車、手術支援システム、ロボット義肢、介護ロボットそれぞれについて倫理的。法的分析を行い、課題を明確化した。

<そもそもロボットに関する規制は必要か>

 本ガイドラインでは、冒頭で「なぜ規制が必要なのか」が検討されている。

 まず、厳格すぎる規制がイノベーションを抑圧する点が指摘された一方で、規制が不明確で誰がどのような責任を負うか等が曖昧であれば、これもまたイノベーションを阻害する可能性が指摘された。

 そこで、両視点を踏まえて、ロボティクスのイノベーションを促進できる枠組みの形成が必要であるとした。

 

 

2017年2月 欧州議会:「ロボティクスに関する民法規則に関する欧州委員会への提言」採択

<概要>

 「RoboLaw プロジェクト」の成果を踏まえて、ロボットの進展によるリスクの分析・対応についての議論が進み、「ロボティクスに関する民法的規則に関する欧州委員会への提言」が報告書としてまとめられた。

 そこでは、ロボットやAIにおけるの様々な倫理的・法的課題についての提言がなされた。

<電子人格に関する議論>

 本提言では、将来的に自律的なロボティクスに法人のような人格を与えることによって、人工知能が損害を生じさせた場合に責任を課せるようにすることが提言された。

<ロボット税に関する議論>

 当初の案では、いわゆる「ロボット税」の導入が示されていたが、議会で可決された内容からは、「ロボット税」に関する記述は全て削除された。

 ロボット税とは、AIなどに搭載したロボットの登録を企業に義務付け、ロボットを所有する企業等に、ロボットの活用で得られた利益の一部を負担させるものである。AIの利活用により、雇用の喪失・税収の減少・社会保障制度への打撃という社会的な影響が予測されるが、そこで持続的な税制や社会保障制度のためにロボットに対して税を課そうという趣旨である。

 しかし、「ロボット密度」と雇用者数との間に正の相関関係がありロボットが雇用を奪うわけではないという意見や、ロボットを課税対象とすることにはロボットの普及を阻害するという意見が産業界から出され、欧州議会での採択対象とはならなかった。

 

 

2017年1月 欧州議会:「ロボティクス憲章」

<概要>

 「ロボティクスに関する民法規則に関する欧州委員会への提言」と同時に、AIに関する抽象的な規範として、開発原則や利用指針などからなる「ロボティクス憲章」が提案された。

 ロボティクス憲章はⅰロボット開発者の倫理規範、ⅱ研究倫理委員会の規範、ⅲ設計者及び利用者のライセンス、で構成されている。

<抽象的な規範をたてる意義>

 ロボティクス憲章は抽象的な規範にとどまり、法的拘束力もない。しかし、ロボットやAIが利用される場面は様々であり、このような原則を検討せずに問題が生じるたびに個別の法改正や立法を行うと、場当たり的なルールの作成になりかねず、全体として整合性の取れない制度となってしまい、開発利用者の混乱や不平等を招く恐れがある。それを避けるためには、多様なロボット・AIの利用局面において、統一的な視点を持っておく必要がある。

 

 

今後の予定

 欧州委員会は2018年4月、AIに関する3つの方針を示した。その3つの方針のうちの一つがAI

の関する倫理的・法的枠組みの確保である。

 具体的には、個人データ保護・透明性を考慮した「AI開発の倫理ガイドライン」を2018年末までに、AIが損害を生じさせた場合の賠償責任の所在に関して「製造物指令の解釈ガイドライン」を2019年半ばまでに策定する予定である。

 

ドイツの場合

 

自動運転車に関する法整備

 ドイツにはBMW、ベンツ、フォルクスワーゲン等、自動車会社が多くあり、これらの企業が自動運転車を開発・商品化するのを後押しする狙いがある。

 

2017年6月 道路交通法改正

<自動運転車の法的問題>

①自動運転車のAIシステムがハッキングされる恐れ

②自動運転車のシステムが適切にアップデートされない場合、事故を起こす恐れ

③自動運転車が事故を起こした場合、責任の所在がシステムにあるのか人間にあるのか不明確になる恐れ

<概要>

 レベル3の自動運転車の今後の普及をにらみ、事故が起きた際の責任の所在の判断を可能にするものである。具体的には、車両に運転データを記録する機能を搭載することを義務付けることで、運転データを解析して責任の所在がシステム(を開発した製造者)にあるのか、運転手にあるのかを判断しやすくした。

 

 

2017年8月 自動車とコネクテッドカーの倫理規則20項目

<概要>

 道路交通法改正は、レベル3の自動運転車に対応するものであるが、完全自動運転車(レベル4なし5)の走行に十分な法整備ではない。そこで、完全自動運転車を見据えた具体的な本ガイドラインが策定された。

<自動運転とコネクテッドカーの倫理規則20項目の骨子>

・自動運転のアルゴリズムは事故が避けられない場合に、物や動物よりも人間の保護を優先すること、そして人間は男性か女性かあるいは老人か子供かによって区別することなく平等に認識すること。

・責任の所在の判断をしやすくするために走行データの記録を義務付けること。

・運転者は運転をシステムに委ねるのか、自分で行うのかを自ら決定しなくてはならないこと。

 

 

自動運転以外の分野におけるガイドラインの策定

 上述のように、ドイツでは自動運転に関するガイドラインや法律は整備されつつあるが、ほかの分野でのAI化に伴うガイドラインの策定も、行われていく予定である。

 データ・プライバシーや倫理的側面について、「データ倫理委員会」が今後一年かけて検討し、2020年までに報告を行い、ゆくゆくはガイドラインを策定していく予定である。

 また。民間企業レベルでは、ドイツテレコムやSAPが会社独自のガイドラインを策定している。

 

 

 

フランスの場合

 

フランスのAIに関する政策

 AIの開発の分野において米国・中国等に遅れを取ってしまったことに対する危機感から、マクロン大統領が2018年3月に新戦略を発表した。この新戦略は、フランスのAIエコシステムを発展させ、AIについての世界的リーダーとなることを目指すものである。この新戦略をまとめた報告書において、AIの倫理問題、公平性の問題、セキュリティの問題についても取り上げられている。

 AIの諸問題に対する法的・倫理的規範の策定については、今後取り組んでいく必要があると考えられる。

 

 

アメリカの場合

 

動向まとめ

2016年9月 Partnership on AI:Tenets

2016年9月 NHTSA:自動運転車の開発・走行に関する包括的な指針

2016年12月 IEEE:「倫理と調和するデザイン」

2017年1月 FLA:「アシロマ23原則」

2017年9月 NHTSA:自動運転車の開発・走行に関する包括的な指針・改訂版

2018年5月 Microsoft:「Future Computed:AIとその社会における役割」

2018年6月 Google:AIに関する倫理ガイドライン

 

 

アメリカのAIに対する法規範・倫理規範策定に対する姿勢

 米国政府はAIに対する規制について、AI技術による社会的便益の最大化を損ねないように消極的である。米国においては、政府主導でなく、むしろ産業界・学会が主導して、AIに対する倫理的ガイドラインを策定する動きが主である。

 というのも、トランプ政権は、AIに対する包括的な規制が米国の技術の競争力を低下させるのではないかと危惧しているからである。その念頭には中国がある。トランプ政権は、中国がAIの研究開発に対して規制を行うことなく、国の援助のもと急速にAIの研究を進展させ、技術力を高めつつあると見ている。米国が中国に追い抜かれずAI分野でトップを走り続けるには、政府レベルのルールを模索せず、各企業に委ねることが鍵となるとさえ考えている。

 また、米国で特徴的に議論されている対象として、AIの軍事利用の問題があげられる。

 

 

2016年9月 Partnership on AI:Tenets

 アマゾン、グーグル、フェイスブック、IBM、マイクロソフト、の5社が「Partnership on AI」をAIの社会的影響について議論するためのプラットフォームとして設立した。(なお、2017年1月にアップルが、5月にソニー等が新たに参画した。)設立時に、AI技術の潜在的な課題への対処などに努めること等を内容とする、「信条(Tenets)」を公表した。

 

 

2016年12月 IEEE:倫理と調和するデザイン

 学会の取り組みとしては、IEEE(米国電子電気学会)が「倫理と調和するデザイン」という報告書を公表。一般原則として、人類の便益、責任、透明性、教育・啓発があげられている。各論としては、経済的・人道的課題の他に、自律型兵器システムの見直しが言及された。

 

 

2017年1月 FLI:アシロマ23原則

 アシロマにおいて産業界の国際会議が開催され、AIの研究・倫理・将来的な課題についての方向性が議論された。その成果として「アシロマ23原則」が公表された。

 AI研究の方向性を示す産業界のガイドラインとして先進的な考え方がまとめられており、スティーブンホーキング博士をはじめとして、広く専門家の支持を受けている。しかし、法的拘束力がなく、企業や研究者に対する実効性に関しては弱いと言わざるを得ない。

<アシロマ23原則の骨子>

①AIはむやみに開発するのではなく、人類にとって有益な知能を作るべき。

⑥AIシステムが安全で検証可能なものでなければならない。

⑩AIの目標と行動は人間の倫理観・価値観と一致するようにデザインされなければならない。

⑫⑬AIは人間の自由やプライバシーを侵害してはならない。

 

 

2018年5月 Microsoft:「Future Computed:AIとその社会における役割」

 Microsoftが同社のAI製品およびサービスにおいて満たすべき6つの倫理的要件。

①プライバシーとセキュリティ:個人情報が悪用や盗用から保護されていること。

②透明性:AIの判断過程の情報を人々が理解できるようい提供すること。

③公平性:同様の事象・対象に対して同様の判断がなされること。

④信頼性:明確な条件のもとで動作し、予期せぬ状況においても安全に応答し、想定外に進化しないような信頼性が担保されること。

⑤多様性:広範な人間のニーズと体験に対応できること。

⑥説明責任:AIシステムの動作について、設計・展開する人々は「説明責任」を負い、そのための基準を明確化すること。

 

 

2018年6月 Google:倫理ガイドライン

 AIの軍事利用を禁じることが盛り込まれている。

<AI利用の目標>

①社会的に有益であること

②不公平性や偏見を助長しないこと

③AIを安全に設計し、慎重に検証テストすること

④AIシステムにつき説明責任を果たすこと。

⑤プライバシー保護の設計原理を組み込むこと

⑥AI知識を人々にオープンな形で共有すること

⑦以上の原則に合致するよう、有害な利用を制限すること

<AI利用を追求しない分野>

①全体的な害を引き起こす、ないし引き起こす可能性の高い技術

②人々を傷つける、または傷つけることを直接助ける武器やその他の技術

③国際的な規範に違反して監視情報を収集または利用する技術

④国際法および人権に関して広く共有された原則に反する目的を持つ技術

 

 

2016年9月  NHTSA:自動運転車の開発・走行に関する包括的な指針

 運輸省道路交通安全局(NHTSA)は自動運転車の開発・走行に関する包括的な指針を公表した。指針には15つからなる安全審査項目が盛り込まれた。なお、法的拘束力はない。

 

2017年9月 NHTSA:自動運転車の開発・走行に関する包括的な指針の改訂

 実質的に企業を縛らない内容。トランプ政権に変わり、基準がゆるまった。各国・地域の動向の特徴まとめ

 

日本

EU

米国

・公的機関

・国際的な共有を目指す

・ソフトロー

・公的機関

・EU域内で統一基準

・ソフトローとハードロー

・ロボティクス中心の議論

・米IT企業を意識

 

・民間機関主導

・各々が基準

・ソフトロー

・中国を意識

・AIの軍事利用の問題

 
 
 

AIネットワーク化の進展に伴い、AIとAI、AIと人間、人間と人間が連携・協調できるようになる。ここでは、人の能力がインターネット等の情報通信ネットワークとつながることによって、より能力を発揮する機会が広がっていく。すなはち「智のネットワーク」が形成していくことが期待されるだろう。

 「智連社会」という社会像は、このような問題意識に基づいて構想したものであり、AIネットワーク化が進展した場合において、その力を健全に活用する姿として、「人間が主体的に技術を使いこなすことによってAIネットワークと共生し、データ・情報・知識を自由かつ安全に創造・流通・連結して『智のネットワーク』を形成することにより、あらゆる分野におけるヒト・モノ・コト相互間の空間を越えた協調が進展し、もって創造的かつ活力ある発展が可能となるという人間中心の社会像」である。

 

<機能に関するリスク>

①セキュリティに関するリスク ②情報通信ネットワークに関するリスク ③不透明化のリスク ④制御喪失のリスク

 <法制度・権利利益に関するリスク>

⑤事故のリスク ⑥犯罪のリスク ⑦消費者等の権利利益に関するリスク ⑧プライバシー・個人情報に関するリスク ⑨人間の尊厳と個人の自立に関するリスク ⑩民主主義と統治機構に関するリスク

 

9つの原則からなる。①連携の原則 ②透明性の原則 ③制御可能性の原則 ④安全の原則 ⑤セキュリティの原則 ⑥プライバシーの原則 ⑦倫理の原則 ⑧利用者支援の原則 ⑨アカウンタビリティの原則

 

10つの原則からなる。①適正利用の原則 ②適正学習の原則 ③連携の原則 ④安全の原則 ⑤セキュリティの原則 ⑥プライバシーの原則 ⑦尊厳・自律の原則 ⑧公平性の原則 ⑨アカウンタビリティの原則

 

Tayがインターネットでヘイトスピーチを教え込まれた結果、ヘイトスピーチを発信するようになった事例がある。

 

例えば「ロボティクス憲章」

 

 

 GDPRはEUにおける「規則」にあたり、法的拘束力をもつ「ハードロー」である。また、違反すると極めて高額な制裁金が課される。

 

 GDPRのこと

 

ロボティクスに関する民事法的規則に関する欧州委員会への提言」では、明記されていないがおそらく米国を想定して、他国の定める基準を強いられないようEUが主導的役割を担わなければならないことが強調された。

 

 ロボット・AIの概念は今尚議論されている。ロボットの定義については、「ロボティクス規制に関するガイドライン」で、①用途、②活動環境、③性質、④HRI、⑤自律性の観点から定義が試みられた。

 

 自立型のスマートロボットなどの定義・分類の検討、倫理原則の確立、自律型ロボットの責任帰属の明確化、自動走行車に関する強制加入保険制度の導入、ロボットに関する技術的・倫理的・法的問題について助言する専門機関の設立、電子人格の可能性、など。

 

「電子人格」の概念導入にはAIの専門家らから強い批判がある。まず、技術的観点から、ロボットの能力が過大評価されており、「電子人格」の概念はSFやセンセーショナルな記事によって生み出されたものであるという批判である。さらに、倫理的・法的観点からもロボットに法的地位を与えることは不適切であるという批判がある。

 

 労働者1万人あたりのロボット台数

 

 12項目がある。有益性、無害性、自律性、正義、基本権、予防性、包摂性、答責性、安全性、可逆性、プライバシー、利益の最大化・最小化

 

 法令の解釈において論拠や参照点とすることはできる。

 

 自動運転車には、どれだけ運転にシステムが関与するかによって0~5の6段階がある。

レベル0:完全手動

レベル1:加速・減速・ハンドル操作のいずれかにおいて運転を支援

レベル2:加速・原則・ハンドル操作のうち複数において運転を支援

レベル3:運転しやすい環境では自動運転で、そう出ない場合や緊急時は人間の運転

レベル4:基本的に運転手不要。しかし、走行環境によっては運転手が必要。

レベル5:全ての状況において完全に自動運転。

 

経済的な依存関係や協調関係、あるいは、企業間の連携関係などを表す。

 

もっとも、中国共産党中央委員会・国務院も2017年7月に公開した「次世代AI開発計画」において、AIに関する倫理規範・規格・規制の導入が必要であるとの認識を示しており、2030年には、AI分野において技術面だけでなく倫理・法政策面でも世界で主導的な地位に立つとの目標を掲げている。