人工知能 ( AI ) テクノロジーの急速な進歩が世界を魅了し続ける中、これらの強力なシステムが放置された場合に潜在的に壊滅的なリスクをもたらす可能性があると警鐘を鳴らす専門家の声が高まっています。選挙をひっくり返す可能性がある説得力のあるディープフェイクを生成する能力から、AI を利用した兵器が制御不能になる可能性まで、このテクノロジーに内在する危険性がますます明らかになってきています。しかし、これらのリスクを軽減するために必要な監視と規制は、AI 開発の猛烈なスピードに追いつくのに苦労しています。

この不確実性の状況において、AI イノベーションの最前線にある組織内部の仕組みや意思決定プロセスを直接知っている従業員や経営陣からの批判的な声が浮上しています。こうした人々は、自らの懸念を黙らせる非差別協定への署名を強制されることが多いが、現在、AI が社会にもたらす非常に現実的かつ差し迫った脅威について国民に警告するために名乗り出ている。

内部告発者が声を上げる

そのような内部告発者の 1 人は、画期的なChatGPTを開発したOpenAIの元研究者であるダニエル ココタジロです。ココタジロ氏は、AIに関連する潜在的な悲惨なリスクに対して責任を持って防御できる同社の能力に自信がないことを理由に辞任した。同氏は公式声明の中で、OpenAIが「速く動いて物事を打ち破る」という考え方を採用していると非難し、それはAIのように強力だが理解が不十分なテクノロジーに必要なものに対するアンチテーゼであると信じていた。

ココタジロ氏が声を上げるという決断は、個人的にかなりの犠牲を払った。彼はOpenAIから、事実上彼を黙らせる機密保持契約に署名するよう圧力をかけられ、同社は彼の既得権(伝えられるところによると170万ドル相当)を取り消すと脅した。それにも関わらず、ココタジロ氏は、このテクノロジーに対する懸念を公に表明する権利を守るために、この多額の金銭的利益を放棄することを選択した。

監視と規制の緊急の必要性

ココタジロさんの話は孤立した事件ではありません。 OpenAIの元従業員らによると、同社には従業員が同社の慣行について黙秘することに同意しない場合、既得権を取り消すと脅した過去があるという。この厄介なパターンは、AI 業界における効果的な監督と規制の欠如という広範な問題を浮き彫りにしています。

ハーバード大学法科大学院教授で作家のローレンス・レッシグ氏は、次のように指摘しています。企業がどのように技術を開発しているか、あるいは企業が講じている予防策を監視する法的権限を持つ機関は存在しない。」この規制空白により、国民はこれらの企業のなすがままになっており、企業はほとんど責任を負わずに今世紀で最も重要な技術進歩を達成しようと競っている。

「警告する権利」の誓約

この憂慮すべき状況に対応して、ココタジロ氏と OpenAI の現従業員および元従業員のグループは、会社員が報復を恐れることなく安全上の懸念を表明できるようにすることを目的とした「警告する権利」の誓約を打ち出しました。誓約書では以下のことを求めています。

  1. 差別禁止協定の取り消し: 企業は、従業員が会社の安全慣行を公然と批判することを妨げる差別禁止協定を取り消すことを約束する必要があります。
  2. 匿名の報告チャネルの確立: 企業は、従業員や元従業員が安全性に関する懸念を取締役会、規制当局、および独立した AI 安全組織に直接報告できる匿名のメカニズムを構築する必要があります。
  3. オープンな批判の文化の育成: 企業は、自社の知的財産を保護する限り、従業員や元従業員が安全上の懸念について声を上げることを奨励し、「オープンな批判の文化」を積極的に支援する必要があります。
  4. 内部告発者の保護: 企業は、リスク関連の懸念を提起する際に、機密情報を共有した従業員に対して報復しないことを誓約する必要があります。ただし、従業員が最初に企業が確立した機密かつ匿名のプロセスを通じて懸念を伝えた場合に限ります。

従業員のエンパワーメントの重要性

「警告する権利」の誓約は、AI 業界の規制に対する取り組み方の大きな変化を表しています。 AI の壊滅的なリスクに対する防御の最前線として企業の従業員に権限を与えることで、一般の人々が十分に理解していない可能性のある危険性を特定し軽減する上で、これらの内部関係者が果たせる重要な役割を認識しています。

レッシグ氏が指摘するように、「通常の内部告発者保護では、それ自体が規制されていない行為はカバーされません。したがって、これらの企業に対する効果的な規制がない限り、企業が無視しているリスクを特定できるのは従業員だけです。」 「警告する権利」という公約は、こうした個人が懸念を表明できるように構造化され保護された道筋を設けることで、AIの急速な進歩と規制監視の緩慢なペースとの間の溝を埋めることを目的としている。

内部告発者が直面する課題

もちろん、企業の従業員に AI のリスクについて発言できるようにすることには課題がないわけではありません。内部告発者は、たとえ正式な保護を受けていたとしても、その行為によって個人的および職業上重大な結果に直面することがよくあります。レッシグ氏は次のように述べています。「内部告発者は、たとえ一部の人から尊敬されていたとしても、お気に入りの同僚ではありません。そして、たとえ正式な保護があったとしても、声を上げるという選択は、必然的に将来の雇用の機会や友人関係に影響を及ぼします。」

この現実は、これらの人々を報復から守るだけでなく、より大きな善への彼らの勇気と献身を称賛する、彼らを支援するエコシステムを構築することの重要性を強調しています。 AI 業界内でオープンな対話と説明責任の文化を育むことで、企業は内部告発に伴う固有のリスクを克服し、より多くの従業員が懸念を表明するよう促すことができます。

規制と監視の役割

結局のところ、AI リスク危機の解決策は企業の内部告発者の肩だけに委ねることはできません。レッシグ氏が主張するように、「民間企業が壊滅的なリスクよりも利益を優先しないようにするために、私たちが自己犠牲に頼るのは不公平です。これは規制の仕事だ。」効果的な監視と規制の欠如により、国民は AI の潜在的な危険に対して脆弱なままになっており、この重大なギャップに介入して対処できるかどうかは政策立案者と政府機関にかかっています。

行動する義務

賭け金はこれ以上ありません。専門家が警告しているように、AI によってもたらされるリスクは、大規模なサイバー犯罪や新たな形態の戦争から人類滅亡の可能性まで多岐にわたります。これらは単なる SF のシナリオではなく、私たちが直ちに注意を払う必要がある非常に現実的な、現在存在する危険です。

企業の内部告発者に警鐘を鳴らす権限を与え、AI の開発と導入を管理する強固な規制枠組みを確立することで、このテクノロジーがもたらす壊滅的なリスクを軽減し始めることができます。それは気の遠くなるような挑戦ではありますが、私たちの現在と未来のために、真正面から取り組まなければなりません。野放しのAI進歩による壊滅的な結果が現実になる前に、今こそ行動すべき時です。

結論

AI のリスクを軽視すべきではありません。テクノロジーが猛烈なペースで進歩し続けるにつれ、壊滅的な被害をもたらす可能性がかつてないほど現実的になっています。企業の内部告発者に声を上げる権限を与え、効果的な規制監視を導入することで、私たちは AI によってもたらされる差し迫った脅威に対処し始め、責任ある倫理的な方法でこのテクノロジーの計り知れないメリットを確実に実現できるようになります。

私たちの社会の将来、そしておそらく人類の存在自体が危機に瀕しています。私たちは専門家の警告に耳を傾け、AI 業界の内情を見てきた人々の声に耳を傾け、私たちの集団の未来を守るために断固とした行動を起こす時が来ています。私たちが手をこまねいているわけにはいかない、リスクはあまりにも高く、その結果はあまりにも悲惨です。社会全体で力を合わせてこの課題に正面から立ち向かい、AI の可能性がその危険なリスクによって覆い隠されないようにしましょう。

 

 

 

 

 

記事全文を見るにはクリックしてください Rabbit