AIの成長を促進するには、法定責任への新しいアプローチが必要です

To Spur Growth in AI, We Need a New Approach to Legal Liability

 

 

 

人工知能(AI)は、サイバーセキュリティから環境保護に至るまでの業界を席巻しています 。Covid-19のパンデミックは、この傾向を加速させただけです。AIは何百万人もの人々の生活を向上させる可能性がありますが、必然的に人や当事者を傷つける事故引き起こすことにもなります。実際、自動運転車の衝突などの事故によってすでに発生しています。しかし、米国やその他の国の時代遅れの責任システムは、これらのリスクを管理することができません。これは、これらのリスクがAIの革新と採用を妨げる可能性があるため問題です。したがって、私たちが責任システムを改革することが重要です。そうすることで、AIの革新と採用を加速することができます。

誤って割り当てられた責任、いくつかの点でイノベーション妨げる可能性があります。他のすべてが同じであれば、2つの業界のいずれかにシステムを実装しようとしているAI設計者は、設計者により多くの責任を負わせる業界を回避できます。同様に、AIアルゴリズムが何らかの補償なしにさらなる責任リスクを伴う場合、AIシステムのエンドユーザーは採用に抵抗します。これらの問題に対処するには、責任の改革が必要です。私たちが提唱する変更の多くは、エンドユーザー(医師、ドライバー、その他のAIの消費者)からより上流のアクター(デザイナー、メーカーなど)まで、プレーヤー間の責任の再調整を伴います。

実装が簡単なものから難しいものの順に説明します。私たちは米国の責任システムに焦点を当てていますが、私たちの推奨事項の根底にある原則は多くの国に適用できます。実際、どこでも責任を無視すると、AIの安全でない展開とイノベーションの妨げの両方につながる可能性があります。

標準治療の改訂

業界が責任負担を変更するために行うことができる最も簡単な変更の1つは、ケアの基準を採用および変更することです。これは、特定の状況に応じて法律またはその他の専門的基準が要求する行為です。これらの効果は、医学、法律、およびその他の職業で最も強くなります。現在の業界のプレーヤーが自分の業界とAIがどのように適合するかについての専門知識と先見性を持っている限り、標準治療を変更することでAIとの戦いと促進の違いを生むことができます。

たとえば、放射線科医が画像の唯一の読み取りを提供する代わりに、AIシステムは画像の最初の読み取りを提供し、放射線科医はその後の二次読み取りを提供することができますこれが放射線診療の標準治療になると、AIの潜在的な責任負担は、医師が特定の標準治療に準拠している場合、個々の医師の負担が少なくなります。AIが医療行為においてより大きな足場を築くにつれて、臨床医と医療システムが協力して、AIを標準治療に統合することにより、AIの安全な導入を促進することができます。

誰が支払うかを変える:保険と補償

保険と補償は、責任を再調整するための他のソリューションを提供します。これらの2つの概念は関連していますが、異なります。保険は、多くの保険契約者が自分自身を保護するためにリソースをプールすることを可能にします。補償により、2つ以上の当事者が契約の責任を定義、分割、および分配することができ、本質的には当事者間で責任がシフトします。どちらも、AIの利害関係者が互いに直接交渉して、責任ルールを回避することを可能にします。

保険会社は、保護を提供する業界のあらゆるニュアンスを理解することをビジネスにしています。実際、彼らはしばしば特定の分野の最良の、そして最悪の慣行にさらされています。データ収集のため、保険会社はAIテスト要件や特定のアルゴリズムの禁止などの慣行を義務付けることができます。これらは、業界が発展し、保険会社がデータを収集するにつれて、時間とともに変化する可能性があります

実際、一部の自動車保険会社は、自動運転車ガイダンスソフトウェアなどの新しいAIテクノロジーのデータ収集の取り組みすでに後援しています。保険会社はより安全な車を選択して事故を回避したことでドライバーにすでに報酬を与えているように、特定のより効果的なAIプログラム選択することでユーザーに低い料金で報酬を与えることができますしたがって、保険会社は2つの方法でAIの採用を促進します。1)すべての保険契約者にリスクを分散させることで責任コストを鈍らせること、2)AIの使用を検討している企業向けのベストプラクティスを開発することです。

一方、補償は、2つの当事者間にある程度の責任の確実性を提供する可能性があります。補償条項は、医療システムと製薬会社またはデバイス会社との間の臨床試験で責任を配分するためにすでに使用されています

ルールの刷新:責任のデフォルトの変更

保険と補償は現在の負債システムを採用し、参加者がその端をいじくり回すことを可能にします。しかし、AIは単なるいじくり回し以上のものを必要とするかもしれません。デフォルトの責任オプションの変更が必要になる場合があります。たとえば、ほとんどの州での自動車事故のデフォルトのルールは、別の自動車を追突する自動車の運転手が事故の責任を負うというものです。「自動運転」車が人間が運転する車と混ざり合っている世界では、そのルールはもはや意味をなさないかもしれません。AIシステムは、車の乗員をそのような責任から保護するようにプログラムすることができ、したがって、別の車線またはより危険な状況(たとえば、破片のある車線)に曲がろうとする可能性があります。

AIが人間を覆すと信頼する場合、誰が責任を負いますか?責任は人が事故を起こすことを前提としています。従来のデフォルトの責任規則を変更する必要があります。裁判所は事故から生じる決定を下すときにいくつかの作業を行うことができますが、立法府や規制当局はAI事故に対処するために新しいデフォルトルールを作成する必要があるかもしれません。これらは、AIエラーをユーザーに帰するなど、鈍くても明確にすることができます。または、ユーザーとデザイナーの間で事前に責任を配分するなど、より微妙な違いがあります。

新しい裁定人の作成:特別裁判所と責任システム

実際、大規模なデータセット、特殊な処理、またはニッチな技術的懸念のために、従来の責任メカニズムでは傷害に対する責任を処理することが難しい場合があります。1つの解決策は、特定の種類のアルゴリズム、業界、または事故に関する紛争を専門の審判に持ち込むことです。専門の審判は、問題を単純化し、事件を1か所にまとめるために特定の活動を責任から免除します。たとえば、病理学アルゴリズムや2つのアルゴリズムが相互作用することから生じる事故を裁定するスキルを開発する専門の審判を想像することができます。

最高の状態で、審判システムは、納税者または専門の裁定者によるユーザー料金によってサポートされるより単純なシステム、より単純なルール、および(願わくば)現在の法制度と比較してより低い取引コストに紛争を注ぎ込みます。そして、専門的な裁定は、従来の責任スキームと共存することができます。

フロリダとバージニアは、特定の新生児の神経損傷に特化した裁定システムを構築しました。米国連邦政府は、公衆衛生上の緊急事態と戦うために使用される薬物や装置によって負傷した人々に補償を提供するための対策プログラム確立しました。これは、Covid-19パンデミックのために多くの人が経験する可能性のあるシステムです。また、医療以外では、多くの州が正式な法廷制度の外で決定される労働者災害補償給付を提供しています。

責任を完全に終わらせる:総合的な規制スキーム

従来の責任システムからいくつかの紛争を取り除くという抜本的な解決策でさえ、十分ではないかもしれません。たとえば、一部のAIアプリケーションは非常に重要であると見なされる可能性があるため、包括的な一連の規制を通じてミスを防ぎ、責任を免除しようとします。州間の送電を規制し、飛行機を着陸に導くAIシステムのエラー、およびその他のシステムは、不法行為法の措置を先取りする包括的な規制スキームを採用することにより、責任を完全に免除される可能性があります。

規制は、「ブラックボックス」アルゴリズムに適したモダリティである可能性があります。これは、入力を指定する人間ではなく、データから直接学習するコンピューターによって生成される、常に更新されるアルゴリズムです。トレーニング後の外部要因の変化を説明するために、ブラックボックスアルゴリズムは、精度を向上させるために、さらに多くのデータを使用して予測を継続的に改善します。ただし、変数の正確な同一性と重み付けを決定することはできません。ユーザー、設計者、または負傷者の誰も、「内部を見て」、ブラックボックスアルゴリズムがどのようにして特定の決定に至ったかを知ることはできません。この難しさにより、ブラックボックスの開発、テスト、または実装を管理する規制が、傷害が発生するたびに訴訟よりも適切になる可能性があります。

確かに、AIシステムを完全に指定しようとする規制スキームは、ほぼ確実にイノベーションを妨げるでしょう。しかし、これらのコストは、包括的な食品医薬品局の規制スキームが責任を完全に置き換えることができる医薬品開発などの特定の分野では許容できる場合があります

AIによって生み出された途方もない革新を考えると、オファリングが市場に出るまで、責任の懸念を無視するのは簡単です。AIの政策立案者、設計者、およびエンドユーザーは、AIに単に反応するのではなく、AIを促進するためのバランスの取れた責任システムを開発する必要があります。この21の構築ST 21ことが保証されます世紀の責任システムをST世紀AIが繁栄します。