【シンギュラリティ後の世界〜加速する2045年問題---vol.237


⌘…Technology☆…Innovation $…Monetize

倫理・哲学/その他(*ニュースジャンル記号表示)]


■⁂🇪🇺EUAI規則案「ハイリスクなAI」の定義が重要に』


🇪🇺欧州議会とそれに関係するステークホルダーが人工知能(AI)を統治するための法律(🇪🇺EU AI Act/欧州AI規則案)を作成する一方、🇺🇸米国のある弁護士は🇺🇸米国EE Timesに対し、そうした法律は「AI以外の技術についても考慮する必要がある」と語った。


[▲欧州AI規制案]

法人および防衛向けAI搭載ソフトウェアの開発を手掛けるDiveplaneで総合弁護士兼CLO(最高法務責任者)を務めるMichael Meehan氏は「AI技術は、処理などをより簡単に、より迅速にするが、理論上は、AI技術で行えることは全てコードで書ける、ともいえる。▶︎つまり、AIでできることは、他の手法でもできる、ということだ」と述べる。▶︎Meehan氏はロースクールに入る前にコンピュータサイエンスで博士号を取得している。▶︎同氏は、自身が執筆した論文からある例を示した。▶︎その論文を書くにあたり、心拍数検出のためのコードを書いたが、プログラムの完成には3カ月を要したという。▶︎Meehan氏は「当時の私は(心拍数図上の)全ての波形を見て、実際のアルゴリズムの観点で心拍がどのように見えるかを把握しなければならなかった。▶︎一方、AIを使えば、全ての心拍を分類し、AIモデルをトレーニングするだけで、AIが心拍数を検出してくれる」と述べた。🇪🇺EUが、AIと同様の害を及ぼし得るコンピュータプログラムを禁止する上で既存の法律に頼っているならば、「なぜEU AI Actが必要なのか」とMeehan氏は疑問を呈した。

ハイリスク/ローリスクのAIの定義が重要に


Meehan氏は、EU AI Actの代わりに、AIAIの代わりになり得るコンピュータプログラムの事例をカバーするより幅広い「EU Automated Systems Act」を提案している。▶︎Meehan氏は「その法令について何も変える必要すらない。▶︎AIを定義する必要もない。▶︎リスクの高いことは禁止されるべきだし、リスクの低いことは問題ないとされるべきだ」と述べた。▶︎一方、14の産業団体から成るグループは最近、EU AI Actに関する共同声明を発表した。▶︎その中で、このグループは欧州議会に対し、同法令を策定する上でリスクベースのアプローチを維持すること、リスクの高いAIの定義を明らかにすること、同法令が既存の規制と重複しないこと、矛盾する義務を制定しないことなどを要請した。▶︎BSA The Software Alliance(以下、BSA)の広報担当者で、EMEAEurope, the Middle East and Africa)のポリシー担当ディレクタも務めるMatteo Quattrocchi氏は、EE Timesに対し「汎用AIから画像編集に至るまで、リスクが低いAIのユースケースまで含めようとする提案は数多く見てきた」と語った。▶︎Quattrocchi氏は「BSAは、EU AI Actがリスクの高いアプリケーションに焦点を当て、AIの特定のユースケースが引き起こす特定の懸念に対処することを提案している。▶︎例えば、特定の種類のAIに対する透明性を命じる条項52にそうした内容を含ませるといったやり方がある」と述べた。▶︎Lexologyによると、同法案のドラフト版の条項521)には、「プロバイダーは、自然人とのやりとりを目的にしたAIシステムを、やりとりしている相手がAIシステムであることを確実に自然人に知らせるように設計、開発するものとする。▶︎ただし、そのことが状況や利用の脈絡から明らかである場合を除く」とあるという。▶︎Quattrocchi氏は、BSAが、AIに対するリスクベースのアプローチを一貫して提唱してきたと述べた。▶︎そうしたアプローチでは、基本的権利を保護し、潜在的な害を回避/軽減し、経済のあらゆる領域でのイノベーションを実現するため、バリューチェーンに沿って責任が適切に割り当てられるという。▶︎Quattrocchi氏は「🇪🇺欧州議会がEU AI Act上の位置をまとめる中、われわれはこのメッセージを繰り返し述べたいと思う。▶︎このメッセージは、医療機器メーカーからセキュリティプロバイダー、園芸業界に至るまで、ヨーロッパ全土の多くの領域で共有されている」と述べた。▶︎European Garden Machinery FederationEGMF、ヨーロッパ園芸機械連盟)は、複数の業界団体による声明に署名した組織の一つである。▶︎同連盟のウェブサイトによると、🇪🇺欧州の園芸業界は「庭園/造園向け機材のメーカーや、森林地や芝を維持管理するための機材のメーカーで構成されている」という。▶︎同連盟にとっては、EU AI Actに含まれた関連用語の定義が極めて重要である。▶︎Quattrocchi氏は「EU AI Actは、AIの開発者や導入者に対する重要な法的義務を作り出す。▶︎そのため、企業が自社にどの順守要件が義務付けられているのかを確実に認識できるよう、ハイリスクユースケースの定義を可能な限り明らかにする必要がある。▶︎ハイリスクなAIの定義では、健康や基本的権利に対する害の重大なリスクにつながる使用のみをAnnex IIIの範囲内にすべきという点を明確にする必要がある」と述べた。

‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥

【用語解説】

◉『Annex III』=RoHS指令(ローズ指令:電気・電子機器(EEE)などの特定有害物資の使用制限に関するEUの法律)の適用除外用途のリストのひとつ。

‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥

EU AI Actのウェブサイトによると、同法案の要件の大部分を順守しなくてはならないのは、Annex IIIに含まれたAIアプリケーションのみだという。▶︎Quattrocchi氏は、リスクレベルはユースケースと密接に関連していると述べた。▶︎例えば、機械学習を用いて植物の写真を識別するアプリのリスクは低く、現実世界の人々に有害な結果をもたらしそうもない。▶︎一方で、ヘルスケアサービスで医療の専門家がAIシステムを使って治療法を提言する場合、リスクは高くなる可能性がある。▶︎法律が最終的にどのようなものになっても、大きな賭けとなる。▶︎Quattrocchi氏は「EU AI Actは、この種のものとしては初めての法律であり、信頼できるAIの開発、導入、普及に向けた取り組みを強化する機会を🇪🇺欧州にもたらている」と語る。▶︎「イノベーションを可能にし、基本的権利を保護すべき新しいルールを作るには、微妙なバランスで調整していく必要がある。▶︎BSAはその取り組みを全面的に支持し、政策立案者が必要な時間をかけて、🇪🇺欧州におけるAIの導入を加速させ、技術的リーダーシップを高められるような検討案を作ることを奨励する」(同氏)[*EE Times Japan 2023.04.06付記事抜粋]

■⁂OpenAI:『「AI の安全性に対する当社のアプローチ」を説明「年齢確認オプション検討中」』


🇺🇸OpenAI45日(現地時間)、「AIの安全性に対する当社のアプローチ」と題するブログを公開した。▶︎GPT-4より強力なAIの開発を直ちに停止せよ」という署名運動など、倫理的な反発や規制を求める動きを受けたものとみられる。▶︎GPT-4の公開に際しては、トレーニング完了後、組織全体で半年以上かけて安全で整合性のとれたものにするための作業を行い、外部の専門家にもフィードバックを求めたとしている。▶︎具体的な「アプローチ」としては、子供を守るためにAIツールの利用者が18歳以上(または保護者の承認を得た13歳以上)であるかどうかを検証するオプションを検討していると説明した。▶︎それ以外は、具体的な取り組みの説明はほとんどない。▶︎「悪用する方法をすべて予測することはできない」と認めつつ、その対策として新しいシステムのリリースは慎重かつ段階的に、十分な保護手段を講じて行っているとしている。▶︎また、最高レベルのモデルはAPIを通じて提供することにより、不正使用を監視して対策を講じることができるようにしているという。▶︎プライバシーに関しては、「トレーニングデータにはネットで入手可能な個人情報が含まれている」が、「可能な場合は」「個人からの個人情報のシステムからの削除要求に対応する」と語った(今のところデータ削除要求フォームなどはない)。▶︎同社は最近、「ChatGPT」と「DALLE」でユーザーデータをAIトレーニングからオプトアウトするよう申請できるようにした。▶︎「安全対策を強化し続ける」▶︎「利害関係者間のコラボレーションとオープンな対話を促進してきた」としているが、トレニングデータやコード、セーフティフィルタの実装方法などについて求められている透明性については触れていない[*ITmedia NEWS 2023.04.06付記事抜粋]

『ジェネレーティブAI の活用に及び腰なエージェンシー一方でコカ・コーラはAIアートを一般募集』


このほど、コカ・コーラ(Coca-Cola)は、生成(ジェネレーティブ)型AIツールを使って同ブランドのアートワークを作成し応募するよう、一般のファンたちに呼びかけた。▶︎優秀なアートワークは、ニューヨークやロンドンの広告看板に掲載される可能性があるという。▶︎同時に、同社はマーケティングにAI技術をどのように統合できるかを検討するため、コンサルティング会社のベイン・アンド・カンパニー(Bain & Company)とも提携していると報じられた。

現状のAI活用方法

コカ・コーラのような大手企業の多くが、ジェネレーティブAI技術をどのように活用できるかをエージェンシーに尋ねている。▶︎しかし、マーケターやエージェンシーの幹部によれば、現時点では消費者向けの仕事をジェネレーティブAIで制作しているところはほとんどないという。▶︎多くのマーケターは、実際の制作ツールとして舞台裏で活用するのではなく、AIを使った技術のPR効果AI技術を使っていること自体をPRに使っている)に依存していると、マーケターとエージェンシーの幹部たちは述べている。▶︎ロレアル(L'Oreal)の最高デジタル・マーケティング責任者のハン・ウェン氏は、同社が現在のマーケティング活動でAIをどのように使用しているかという質問に対して、「テストを行っている」と語った。▶︎「消費者の目標を達成するために、多くの方法でテストを行っている。▶︎コンテンツ制作を加速させる方法は議題となっており、ジェネレーティブAIの力がどのように活用できるかを考えなければならない」。▶︎同氏は続けて、「ブランド安全性のある複数のブランドでテストを行っており、この分野で働くクリエイターに対しても安全かつ公平な方法で進めている。▶︎この分野はまだ始まったばかりだ。▶︎ジェネレーティブAIの力は明らかだが、マーケティング組織として消費者の期待によりよく応えるために、これをどのように活用して意味のある方法で取り入れるかが問題だ」と述べた。▶︎(ウェン氏は、ロレアルがどのようにしてジェネレーティブAIをブランドに試しているかについて具体的には言及しなかった)。

リスクは潜み、慎重になるエージェンシー勢

マーケターとエージェンシーの幹部たちによると、彼らのクライアントはマーケティングにおけるジェネレーティブAIの活用に興味を持っている一方で、AIを既存のクリエィティブ・プロセスで使用する方法に焦点を当てており、一般向けに公開されるようなクリエイティブ作品をそのままAIで作成することは今はあまり考えていないようだ。▶︎さまざまなジェネレーティブAIプラットフォームが出版社やアーティスト、そのほかの関係者から許可を得ずにデータ学習や作品の生成を行なってしまっている。▶︎それが原因で、それらのプラットフォームを使用して作品を作成するクライアントにとって法的な問題が生じる可能性がある。▶︎ジャイアント・スプーン(Giant Spoon)の共同創設者であるジョン・ハーバー氏は、「表向きの作品に対しては懸念がある。▶︎まだ法的な闘いがこれから起きるだろう。▶︎誰も炭鉱のカナリアになりたくない。


‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥

【用語解説】

『炭鉱のカナリア(Canary in the coal mine)』=何らかの危険が迫っていることを知らせる前兆。これは、炭鉱で有毒ガス(危険)が発生した場合、人間よりも先にカナリアが察知して鳴き声(さえずり)が止むことから、その昔、炭鉱労働者がカナリアを籠にいれて坑道に入ったことに由来する。

‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥

それがクライアントの表向きの作品での(AIの)使用意欲を減速させている」と述べた。▶︎カラットUSCarat US)のイノベーション部門責任者かつシニア・バイスプレジデントであるマイケル・リュウ氏は、クライアントが法的問題の可能性を考慮して慎重になっており、クライアントの法務チームとジェネレーティブAIプラットフォームのデータ収集方法について話し合っていると説明した。▶︎ワンダーマン・トンプソン(Wunderman Thompson)のデータサイエンス部門ディレクターであるイリンカ・バルサン氏も同様の意見を述べた。▶︎これらのAIはマーケターやエージェンシーたちが独自に開発したわけではないため、ジェネレーティブAIプラットフォームが何を学習に使ったかについて疑問を持っているという。▶︎「この技術活用に関して、リスクを軽減することは難しい」と同氏は言い、ブランドがジェネレーティブAIの利用に関して「テストと学習の段階にあると捉えるべきだ」と指摘した。

安全な活用方法は?

その一方で、カラットUSはクライアントと共にAIを使用したプロジェクトに取り組んでいると、リュウ氏は明らかにした。▶︎具体的なことは語らなかった。現在の焦点については教育やテスト、学習にあると付け加えた。▶︎「これまでに多くのPR駆動型の取り組みがリリースされ、『自分たちはAIに取り組んでます』というアピールに留まっている」と同氏は言い、コカ・コーラのような大手マーケターが自分たちのブランドのためのアートや画像を一般人から求めるのは、「自社のアセット(資源)に限った範囲で遊ぶのが、AI活用に関しては最も安全な方法であるため」だと述べている。▶︎そのほか、「マーケティングでのジェネレーティブAIの可能性は、(現状では)まだ表面をかすめているに過ぎないだろう」と、ガット・マイアミ(Gut Miami)の最高データインテリジェンス責任者であるクリスチャン・ピエール氏は言う。▶︎2024年には主要な業界のアワードショーでのクリエイティブデータ部門のアイデアのほとんどが、ジェネレーティブAIやそれに触発された何らかの形であることになっても、驚かないだろう」[*DIGIDAY 2023.04.06付記事抜粋]

=======================

『「プロンプトエンジニアリング」の教科書”…無償でAIの上手な使い方を解説』


AIの研究に取り組む海外コミュニティー「DAIR.AI」が作成した資料「プロンプトエンジニアリングガイド」が無料公開されている。ChatGPTなどのAIの性能を十分に引き出すためにはどのような指示文(プロンプト)が効果的なのか学べる。

‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥

【リンク先】ChatGPTのプロンプトエンジニアリングの解説ページ

‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥‥

資料によると、プロンプトエンジニアリングとは「言語モデルを効率的に使用するためのプロンプトを開発し、最適化する比較的新しい学問分野」という。▶︎このスキルを身に付けることで、大規模言語モデルの性能や限界について理解を深められるとしている。▶︎プロンプトに関する基礎知識から使用アイデア、注意点などを記載。▶︎プロンプトエンジニアリングに関するテクニックの他、GPT-4など特定のAIモデルの特徴などについても言及している[*ITmedia NEWS 2023.04.05付記事抜粋]

=======================

【いまさら聞けないAI関連ワード-8

◉『責任あるAIResponsible AI』=AIが抱える公平性や安全性などに関わる問題を解消すべく、AIを開発する企業やそれを利用する関係者が責任を持って取り組む際の指針。▶︎社会の要請に対して、AIを研究・開発・使用する上で「誰にどんな責任があるのか」を明確にすることが「責任あるAI」の重要な目的の1つとなる。 ▶︎AIに関わる責任の所在を明確にするための方法論(責任あるAI)を実行するためには、「AI倫理」や「説明可能なAI」「人間中心設計」「AIガバナンス」といったものが必要になる。


=======================

【掲載日】2023.04.06(木)