始まった:AIが有権者を欺き、世界中で選挙を混乱させるために使われている

2024年3月18日

UNCUT-NEWS

Es fängt an: KI wird eingesetzt, um Wähler zu täuschen und Wahlen weltweit zu stören

投稿者 アリ・スウェンソン、ケルビン・チャンAP通信員

WEF、国連、そして世界のエリートたちは、民主主義を救うと主張しながらも、世界の民主主義を破壊しようとしている。WEFは2024年のダボス会議で、その存在を脅かす「偽情報」を主要テーマとし、ビッグテック、政府、「ファクトチェッカー」に対し、AIを使って反対意見を封じ込めるよう呼びかけた。従って、以下の記事は、組織的な詐欺師を偽装し、残りを皆のせいにするために作られたトロイの木馬と見るべきだろう。

文明世界は、人々が真実とプロパガンダを区別する能力を失い、現実への深刻な打撃に直面している。これはシミュラクラムである。

警告に書いたように、現実は2023年に裏口から姿を消すだろう、

ジャン・ボードリヤールは1981年、「シミュラクラの先取り」と題するエッセイでこのことについて書いており、その中で彼はシミュレーションとシミュラクルを区別している。

表象がシミュレーションを虚偽の表象として解釈することでそれを吸収しようとするのに対し、シミュレーションは表象の建物全体をシミュラクルムとして包み込む。これらはイメージの連続的な段階である:

それは深い現実の反映である;

深い現実を覆い隠し、非自然化する;

深い現実の不在を覆い隠す;

現実とは何の関係もない;

それはそれ自身の純粋なシミュラクルである。

つまり、現実のスイッチは反現実なのである。" 疑似現実は決して真実を隠すものではなく、何もないという事実を隠す真実なのである"

TN編集部
人工知能は、世界中の選挙における偽情報の脅威を増幅させている。スマートフォンと豊かな想像力さえあれば、誰でも簡単に、有権者を欺くための偽の、しかし説得力のあるコンテンツを作ることができる。

偽の写真や動画、音声クリップを作成するには、時間と技術力と資金を備えたチームが必要だったほんの数年前とは飛躍的な進歩だ。今日では、グーグルやオープンAIなどの企業が提供する無料・低コストの生成人工知能サービスを使えば、誰でも簡単なテキスト入力だけで高品質な「ディープフェイク」を作成することができる。

専門家は、AIとディープフェイクは今度の選挙でさらに悪化する可能性が高いと警告している。
政府や組織がこの脅威にどのように対応しているのか、ご覧いただきたい。

・米国では、FCCが有権者を脅すためのAIコールを禁止した。
大手テクノロジー企業は、世界中の民主的な選挙を混乱させるためにAIが使用されるのを防ぐための協定に署名した。
・また、ダボス会議の報告書によれば、AIによる誤報は世界最大の短期的脅威である。
・AIによる誤報や偽情報は、多くの国で人々が投票に行く際にリスクとなるだろう。世界を変える可能性のある2024年の25の選挙についての詳細を読み、APによる他の世界の選挙

 

レポートを見てみよう。

ヨーロッパとアジアの選挙に関連したAIの欺瞞の波は、数ヶ月間ソーシャルメディアに波及し、今年投票に行く50カ国以上への警告となっている。

イギリス・ケンブリッジの生成AIの第一人者であるヘンリー・アジダーは、「遠くを見るまでもなく、一部の人々は......何かが本物かどうかに関して明らかに混乱している」と述べた。

レイテント・スペース・アドバイザリーというコンサルタント会社を経営するアジダー氏は、「問題はもはや、AIの欺瞞が選挙に影響を与えるかどうかではなく、どの程度の影響力を持つかだ」と言う。

米大統領選が過熱するなか、FBIのクリストファー・レイ長官は最近、生成AIは「外国の敵対者が悪意ある影響力を行使することを容易にする」と脅威の高まりを警告した。

AIによる偽物は、候補者のイメージをぼかしたり弱めたりするために使われる。有権者は、候補者の方向性を変えたり、候補者から遠ざけたりすることができる。しかし、専門家によれば、民主主義にとっておそらく最大の脅威は、AIのディープフェイクの波が、見聞きするものに対する国民の信頼を損なう可能性があることだ。

AIディープフェイクの最近の例としては、以下のようなものがある:

モルドバの親欧米派大統領が親ロシア派政党を支持するビデオ。
スロバキアのリベラル政党の党首が不正選挙やビールの値上げについて語る音声クリップ。
保守的なイスラム教徒が多数を占めるバングラデシュの野党議員がビキニを着ている動画。
この技術は斬新で洗練されているため、AIフェイクの背後にいる人物を特定するのは難しい。専門家によれば、政府や企業はまだこの流れを食い止めることができず、問題解決に向けた迅速な行動もできていないという。

「技術が進歩しても、偽コンテンツの多くに明確な答えを見つけることは難しいでしょう」とアジャダーは言う。

信頼の構築

AIによる偽装の中には、候補者の所属について疑念を植え付けることを目的としたものもある。

ウクライナと国境を接する東欧のモルドバでは、親欧米派のマイア・サンドゥ大統領が頻繁に標的となった。地方選挙の直前に出回ったAIダンプでは、彼女が親ロシア政党の支持者であることが示され、辞任が発表された。

モルドバの政府関係者は、こうした活動の背後にロシア政府がいると考えている。今年の大統領選挙を踏まえ、ディープフェイクの狙いは「選挙プロセスや候補者、制度に対する信頼だけでなく、人々の間の信頼も損なわせること」だと、サンドゥの顧問であるオルガ・ロスカは語った。ロシア政府はこの記事へのコメントを拒否した。

中国もまた、生成AIを政治目的に利用していると非難されている。

中国が自国と主張する台湾では今年初め、AIによるディープフェイクが注目を集めた。

TikTokで拡散された偽のクリップは、米下院軍事委員会の副委員長であるロブ・ウィットマン下院議員が、1月に現職の政党候補が当選した場合、台湾に対する米軍の支援を強化すると約束していることを示していた。

ウィットマン氏は、中国共産党が台湾の政治に介入していると非難し、中国資本のTikTokを使って「プロパガンダ」を流していると述べた。

中国外務省の王文斌報道官は、同国政府はフェイク動画についてコメントせず、他国の内政に干渉することには反対だと述べた。台湾の選挙は「中国のローカルな問題」だと強調した。

現実をぼかす

純粋な音声によるフェイクは、写真やビデオとは異なり、加工された内容の痕跡がないため、確認が特に難しい。

ロシアの影響が影を落とすもう一つの国、スロバキアでは、議会選挙の数日前に、自由党党首の声に似た音声クリップがソーシャルメディアに出回った。ビールの値上げや不正選挙について話しているという内容だ。

人々は「耳よりも目で判断することに慣れている」のだから、有権者がこの欺瞞に引っかかるのは理解できるとアジャダーは言う。

アメリカでは、1月の予備選でニューハンプシャー州の有権者が、ジョー・バイデン米大統領を装ったロボット電話によって投票を棄権するよう促された。この電話は後に、AIによる欺瞞の危険性を強調したかったという政治コンサルタントのものであることが判明した。

メディア・リテラシーの低い貧しい国々では、低品質なAIの偽物でも効果がある。

バングラデシュでは昨年、与党を批判する野党議員ルメン・ファルハナがビキニを着ているように偽装された。このバイラルビデオは、保守的でイスラム教徒が多いこの国で怒りを巻き起こした。

「彼らはフェイスブックで見るものすべてを信用するのです」とファルハナは言う。

専門家たちは、ソーシャルメディアのプラットフォームが偽情報の温床となっている、世界最大の民主主義国であるインドの次期選挙を特に懸念している。

民主主義への挑戦

候補者のイメージを向上させるためにジェネレーティブAIを利用している政治キャンペーンもある。

インドネシアでは、プラボウォ・スビアントの大統領選挙キャンペーンを運営するチームが、広大な島国の支持者とより密接につながるためにシンプルなモバイルアプリを使用した。このアプリでは、有権者が写真をアップロードし、AIが生成した自分とスビアントの画像を作成することができた。

AIの偽造が増加するなか、世界中の当局が安全策を講じようとしている。

欧州連合(EU)はすでに、ソーシャルメディア・プラットフォームに対し、偽情報の拡散や「選挙操作」のリスクを減らすよう求めている。来年からは、6月のEU議会選挙には遅すぎるが、AIのディープフェイクに特別なラベル付けを義務付ける予定だ。しかし、他の国々ではすでにかなり先を行っている。

世界最大のテクノロジー企業は最近、AIツールが選挙に介入することを防ぐための協定に自発的に署名した。例えば、インスタグラムとフェイスブックを所有する企業は、自社のプラットフォーム上に現れるディープフェイクにフラグを立てると発表した。

しかし、自主的な協定に署名しておらず、監視が難しい暗号化されたチャットを使用しているチャットサービス「テレグラム」のようなアプリでは、ディープフェイクを抑制することはより難しい。

一部の専門家は、AIの欺瞞を抑制する取り組みが意図しない結果を招くことを懸念している。

ワシントンにある民主主義とテクノロジーセンターの上級政策アナリスト、ティム・ハーパーは、善意の政府や企業は、政治的コメントと「候補者を中傷する非合法な試み」の間の、時に「非常に薄い」境界線を踏みにじる可能性があると述べた。

主要な生成AIサービスは、政治的偽情報を抑制するためのルールを設けている。しかし専門家によれば、プラットフォームの制限を回避したり、同じセーフガードを持たない代替サービスを利用したりするのは、まだあまりにも簡単だという。

悪意がなくとも、AIの利用拡大には問題がある。人気のあるAIを搭載したチャットボットの多くは、有権者の権利を奪う恐れのある虚偽や誤解を招く情報をいまだに吐き出している。

また、脅威はソフトウェアだけではない。候補者は、自らに不利な印象を与える現実の出来事がAIによって生成されたものだと主張して、有権者を欺こうとするかもしれない。

バージニア州アーリントンにある選挙制度国際財団の研究者、リサ・レッペルは言う。