【シンギュラリティ後の世界〜加速する2045年問題---vol.213


『「GPT-4より強力なAIの開発を直ちに停止せよ」公開書簡にマスク氏やウォズニアック氏が署名』


非営利のAI研究組織FLIは巨大AI実験の一時停止を求める書簡を公開した。▶︎GPT-4より強力なAIの開発を少なくとも6カ月停止せよ」としている。▶︎マスク氏やウォズニアック氏、「サピエンス全史」のハラリ氏などが署名済みだ。▶︎AIの安全性について研究する非営利の研究組織Future of Life InstituteFLI328日、GPT-4よりも強力なAIシステムの開発と運用を少なくとも6カ月間停止するように呼びかける書簡を公開し、本稿執筆現在1000人以上が署名している。▶︎イーロン・マスク氏や、🇺🇸Appleの共同創業者、スティーブ・ウォズニアック氏の名前もある。▶︎人類にとって深刻なリスクをもたらす可能性のある一般的なタスクにおいて、人間と競合するようになったAIシステムに対する懸念から提示された。▶︎現在のAI技術が安全性や倫理性の問題を引き起こす可能性があるため、研究者や開発者に対して、これらのリスクを十分に評価し、必要な対策を講じるよう呼びかけている。▶︎また、AIがもたらす利益とリスクの均衡を保つために、国際的な協力と競争の制限が重要だと主張する。▶︎信頼性、アライメント、忠誠心などを確保するために必要な共通の安全プロトコルの開発と実施を提唱している。▶︎一時停止がすぐに出来ない場合、政府が介入してモラトリアムを設定する必要があるともしている。▶︎「サピエンス全史」で知られる作家のユヴァル・ノア・ハラリ氏、Stability AIのエマード・モスタークCEOGoogleLaMDAに貢献しているCharactar.aiのノーム・シェイザーCEOなども署名している。▶︎Googleやその傘下のDeepMindAmazonMicrosoft傘下のGitHubなどのエンジニアの名前もあるが、今のところMicrosoftOpenAIMetaなどAIに注力している大手の幹部や従業員の名前はない▶︎MetaのチーフAIサイエンティストを務めるヤン・ルカン氏は「私はこの書簡に同意しないし、署名もしない」とツイートした[*ITmedia NEWS 2023.03.29付記事抜粋]

E・マスク氏ら、AI開発の一時停止を訴える書簡を公開』


Elon Musk氏は、米国時間328日に発表された公開書簡で、多数のハイテク業界幹部や、人工知能(AI)、コンピューターサイエンスなどの分野の専門家らとともに、GPT-4」よりも先進的なAIシステムの開発を一時的に休止することを主要なAI研究施設に訴えた▶︎人間社会に対する「深刻なリスク」をその理由として挙げている。▶︎非営利団体の生命の未来研究所FLIFuture of Life Institute)によって発表されたその公開書簡には、Musk氏のほか、Apple共同創設者のSteve Wozniak氏、Stability AIの最高経営責任者(CEOEmad Mostaque氏、「サピエンス全史:文明の構造と人類の幸福」の著者Yuval Noah Harari氏など、1000人以上が署名している。▶︎書簡は、システムのトレーニングを直ちに少なくとも6カ月間停止することを求めており、一時停止は公開され、検証可能で、すべての主要なプレイヤーが参加すべきだとしている。▶︎「人間に匹敵するインテリジェンスを備えたAIシステムが、社会と人類に深刻なリスクをもたらす可能性があることは、広範な調査によって示されており、トップレベルのAI研究施設によって認識されている」と、書簡には記されている。▶︎また、「機械に私たちの情報チャンネルをプロパガンダと虚偽で埋め尽くさせるのか。▶︎充実したものを含めてすべての仕事を自動化するべきなのか。▶︎(中略)文明の制御を失うリスクを負うべきなのか」を私たちは自問すべきだとしている。▶︎OpenAIGPT-4を公開したのは、今回の公開書簡の数週間前のことだ。▶︎GPT-4は、驚異的な人気を集めるチャットボット「ChatGPT」のプレミアム版「ChatGPT Plus」を支える大規模言語モデル(LLMである。▶︎OpenAIによると、この新しいGPT-4は、これまでのバージョンよりも複雑なタスクを処理して、より繊細な結果を生成でき、誤った回答を生成する可能性が低いという。▶︎OpenAI独自の調査によって、このようなAIスキルにはリスクが伴うことが示されている。▶︎例えば、ジェネレーティブ(生成系)AIシステムは、信頼性の低い情報源を引用する可能性があるほか、「有害な行動や意図しない行動を取ることによって安全性の課題を増やし、悪意ある者が他人をだましたり、誤解を与えたり、嫌がらせをしたりといった行為を仕掛ける能力を高める」可能性があると、OpenAIは指摘している。▶︎AI専門家らは、適切な保護策がないばかりか、その意味合いを理解することもなく、企業各社がこぞって製品を提供している状況に困惑し、これが大局的にどこに向かうのか危機感を募らせている。▶︎「先進的なAIは、地球上の生命の歴史を大きく変える可能性があり、それに見合う配慮とリソースを注いで計画・管理する必要がある」と、書簡には記されている。▶︎「残念ながら、そのレベルの計画や管理は行われていない。この数カ月間でAI研究施設は、さらに強力なデジタル知性を開発して展開することを目指した制御不能な競争にがんじがらめになっているが、開発者を含めて誰もそれを理解、予測したり、確実に制御したりできない」[*CNET Japan 2023.03.30付記事抜粋]

=======================

『責任あるAI(レスポンシブルAI)とは?AI倫理」「説明可能なAI」とは何が違うか』


AIが社会に普及するにつれて、AIによって生じるさまざまなトラブルが現実のものとなってきました。▶︎結果、AIの取り扱いに関する社会的関心が高まり、AIをどのように扱うべきかについての議論が積極的に行われるようになりました。▶︎そうした中で生まれたのが「責任あるAI」という考え方です。▶︎そもそも、責任あるAIとは何か。▶︎類似するキーワード「AI倫理」「説明可能なAI」「人間中心設計」「AIガバナンス」との違いを整理しながら解説します。

《責任あるAIとは》

AIは潜在的にいくつかのリスクを抱えています。▶︎たとえば、AIが人種差別や性別差別につながる判断を下してしまうこともあれば、誤って個人情報を流出させてしまうこともあるでしょう。▶︎しかし、AIの判断や行動の責任をAI自身に求めることはできません。▶︎そこでAI開発に携わる企業には、開発したAIの公平性や安全性を担保していく責任があるのです。 ▶︎責任あるAIとは、AIが抱える公平性や安全性などに関わる問題を解消すべく、AIを開発する企業やそれを利用する関係者が責任を持って取り組む際の指針のことを指します。▶︎なお、この責任あるAIという言葉は、比較的広い意味で使われています。▶︎たとえば、アクセンチュアの定義によると、「顧客や社会に対してAIの公平性・透明性を担保する方法論」とされています。▶︎そのほか、開発するAI自体のことを指して「信用/信頼できるAI」という意味合いで使うこともあります。 ▶︎この「方法論としての責任あるAI」の考え方には、「信用/信頼できるAI」も含まれているため、本記事では方法論として責任あるAIというキーワードを扱いつつ、そこに含まれる「信用/信頼できるAI」についても解説していきます。 

責任あるAI、注目されはじめた背景

責任あるAIという概念は、社会的な課題を解決するために生まれた経緯があるため、まずは注目されるようになった背景から説明します。 ▶︎責任あるAIの考え方の出発点になるのが、私たちがAIを利用する上で、法的・倫理的な観点から「AI自身に責任をとらせることができない」という問題です。 ▶︎AIが人間に被害を与えてもAIは賠償金を払うこともできませんし、刑罰を与えても、謝罪をさせても、そこに大きな意味はありません。▶︎そのため、AIによって自律的に行われる「行為」に対して責任をとるのは基本的にはAIに関わる人間になります。▶︎多くの場合、AIの使用者か製造者が責任を負うことになるでしょう。 ▶︎しかし、使用しているAIについて詳しい情報が使用者に明かされていなければ使用者が責任を負うことは難しく、明かされていたとしても使用者が情報を理解できるとは限りません。▶︎また、製造者側も問題の原因が正しく把握できるようになっていなければ、本当に製造側に責任があるのか把握できないため、安易に責任を認めることも難しいでしょう。▶︎また、AIの問題は使用者と製造者の間に留まらず、AIに関わるあらゆる人間にさまざまな影響を与えます。▶︎その影響が大きすぎれば、使用者や製造者が責任をとれる範囲を超えてしまうこともあるでしょう。▶︎つまり、AIを扱う際に生じる「責任」の問題は、利用する関係者間の問題でなく、社会全体の問題なのです。▶︎こうした社会の要請に対して、AIを研究・開発・使用する上で「誰にどんな責任があるのか」を明確にすることが「責任あるAI」の重要な目的の1つとなります。 

責任あるAI、類似キーワードとの違い(図解)

AIに関わる責任の所在を明確にするための方法論(責任あるAI)を実行するためには、「AI倫理」や「説明可能なAI」「人間中心設計」「AIガバナンス」といったものが必要になります。▶︎それぞれの関係を整理したのが、下記の図です。 


責任あるAIと、関連キーワード「AI倫理」「説明可能なAI」「人間中心設計」「AIガバナンス」との違いを整理したイメージ図]

この図に沿って、それぞれの関係を説明すると、AIが守るべき原則を「AI倫理」によって規定し、その原則を守るために必要な技術として「説明可能なAI」が存在し、安全なAI運用を行うために人間とのインタラクションが考慮された「人間中心設計」というアプローチがあり、それらを実践するための環境を整えるのが「AIガバナンス」という位置付けになります。 ▶︎このイメージ図にならい、適切なガバナンスによって運用されるAIは、「信用/信頼できるAI」と言えるでしょう。さらに、この責任あるAIの方法論の中で目指すAIの在り方こそが、AIは人間を中心にして運用がなされるべきという「人間中心のAI」という考え方なのです。 ▶︎このほかにも細かな要素はありますが、まずはこの図で紹介した「AI倫理」「説明可能なAI」「人間中心設計」「AIガバナンス」について解説していきます。 

◆超重要関連キーワード:AI倫理

AI倫理とは、顧客や社会の利益を守るために、AIAIを運用する組織や人間が守るべく作られた規範です。▶︎責任あるAIを実践するためには、まずは企業・社員・AIが守るべきルールを定める必要があるということです。▶︎AI倫理はその基盤となる部分であり、最初に取りかかるべき課題です。 ▶︎倫理・原則は、拘束力のある法律ではないため、AIに関連する団体や企業がそれぞれの考えで倫理的な指針を定めており、内容が微妙に異なります。▶︎しかし、大まかな方向性は同じです。▶︎以下に、🇯🇵日本の人工知能学会、グーグル、マイクロソフトが掲げている倫理指針を比較してみましょう。 

《人工知能学会倫理指針》


GoogleにおけるAIの応用目的》


Microsoftの責任あるAIの基本原則》


それぞれ似ている部分もあれば、異なる部分もあることが見てとれます。▶︎また、異なる表現を使っていても詳しい説明を見てみると、内容的には同じことを言っている場合もあります。▶︎こうした倫理的な原則に関する議論はIEEE🇺🇸米国電気電子学会)の「倫理的設計(EAD_v2」で詳細に行われたほか、OECDでも「AI利用の原則」としてまとめられています。 ▶︎また、欧州委員会では「信用できる AIのための倫理的指針」や、それに基づく「倫理的アセスメント」などが出されています。▶︎AI倫理に関する指針には非常に多くの論点があり、それを整理する組織や団体によって内容が微妙に異なりますが共通点も多いです。▶︎共通点を大雑把にまとめると下記のようになります。 

説明責任

AIがもたらす結果とその過程に関して、企業はユーザーにきちんと説明しなければならない(例:不具合に関する公式な説明。▶︎データ利用に関するポリシーの公開など)。 

透明性

AIの入出力のプロセスやデータの利用方法について、企業・ユーザーが理解・把握できる構成になっていなければならない(例:AIのブラックボックス化の回避。ソースコードのオープン化など)。 

公平性

AIはすべての人々・社会に対して公平でなければならない(例:人種・性別に対する差別的な出力を行わない。社会に存在する差別を反映しないなど)。 

安全性

AIは高い信頼性と安全性をもって人々に提供されなければならない(例:徹底した検証の実施。一定水準以上の精度など)。 

包括性

AIはマイノリティを含めたすべての社会に対して利益をもたらす存在でなければならない(例:社会貢献。利益の共有。すべての人々に配慮された設計など)。 

◉協調性

AIは社会の中で人間と協調して実装されなければならない(例:人間を支援するAI▶︎人間に監視されるAI▶︎人間に危害を加えないAI…など)。 

権利保護

AIは人間のプライバシーを含め、各種権利の保護に努めなければならない(例:プライバシーに配慮したデータ設計。既存の職種に配慮した実装など)。

こうした論点はあくまで倫理原則の一例に過ぎませんが、基本的に「人間と社会に対して十分に配慮し、AIに関する説明責任を果たす」という点に重きが置かれています。▶︎このようなAI倫理を遵守するための方法として「説明可能なAI」「人間中心設計」などがあり、さらに責任あるAIが目指すべき社会の在り方を考えたものが「人間中心のAI」です。▶︎責任あるAIに関わる重要な技術・概念なので、しっかり抑えておきましょう[*ビジネス+IT 2023.01.18付記事抜粋/文:三津村直貴氏・フリーライター]

=======================

【掲載日】2023.03.29(水)