3月29日付で、イーロン・マスクをはじめとした千人以上がChat GPTの開発を半年中断する要請に著名したというニュースがTwitterでも公の新聞でも話題になりました。
3月31日にはイタリアがいち早くChat GPTをブロックしたというニュース。
イタリアがChatGPTをブロックしています
ついこの間までChat GPTというものすら知らなかったわたし。
なんだかすごいものがあるらしいと見聞きしているうちに、それにまつわるおもしろい記事なんかも見つけては読んで、少しずつ見聞を広げているところだった。
やっとどんなものなのかうっすらとわかってきたばかりなのに、その手のプロたちが危険だから開発を一時中止しろといい、イタリアが昆虫食ばかりかChat GPTもブロックするといい、、、えええ〜そんなに危険なところにまで開発が及んでいるの?
どこがどう危険なのか知りたい、知っておかねばと思っていたわたしの耳に、目に、ある信頼のおける方からの情報で下の記事が送られてきたので、翻訳しながらどうせ読むのだから、皆さんにもお裾分けしようかと思った次第。
下記の記事の翻訳機を使っての翻訳なので、変なところもあるかもしれない。
まだ確かめていないので、原文もリンクで下につけておきますた。
「人工知能は人類を滅ぼす」と警告するテクノロジー界のパイオニアたち
カリフォルニアのOpenAI社が11月に発表した人工知能チャットボット「ChatGPT」を皮切りに、人類はついにAIという全く新しい時代に突入したようです。
ほとんどの人は、この次のデジタル革命がもたらす潜在的かつ高い確率での影響にまだ気づいていません。しかし、AIの恐ろしい可能性は、何百万もの仕事がなくなり経済的に人間が不要になるだけでなく、最終的には自分たちを敵として見て戦うテクノロジーを育んでしまうという危険を実際にもたらしています。
今週、技術系起業家のアザ・ラスキン氏とトリスタン・ハリス氏は、急速に進化する自己最適化AI技術がもたらす手に負えない危険性について、恐ろしいと同時に示唆に富んだ公開対談を行った。
ラスキンとハリスは、ディストピア的な未来を警告していると公言した。
AIエンジニアは「パンドラの箱」を開けてしまった。
すでに多くの機器に搭載されたまだ比較的単純なAI技術は、情報過多、依存症、子どもの性犯罪化、注意欠陥、フェイクニュース、民主主義の解体につながっていました。
新しいAIは、すでに言語を画像に変換し、脳の活動を読み取ることができる。
また、内面の独白やイメージを再構築することもできる。
写真は嘘をつく
もう一つの危険は、技術がハッキングされることです。
ユビキタス監視の脅威があり、セキュリティギャップが容易に特定され、悪用される可能性があります。
ディープフェイクの技術はすでに、わずか3秒間の音声で声を模倣することが可能で、セキュリティシステムを騙すことができるほど本物らしくなっています。
この技術に基づくすべての技術、チェック、管理手段は、年内に崩壊し、時代遅れになる可能性があります。
今日、見たり聞いたりするものを、誰も信用できないのです。"写真は嘘をつかない"、音響やその他の感覚的な知覚は、AIに操作された処理では、もはや本物の入力と区別することができないため、信頼できない。
この開発は、国家の軍事や国家安全保障にも深刻な影響を及ぼす。国家はすでに、このことから必然的に生じる課題に対処することがほとんどできなくなっている。
AIモデルはますます速く成長し、時には指数関数的かつ幾何学的な速度で進化し、その過程で、まだ予見できない新しい、おそらく出現する能力を獲得することになる。
人間が彼らに投げかける質問を通して、彼らはますます訓練されていくだろう。
技術的特異点」の状態、すなわち彼ら自身の意識が出現する閾値は、いつ差し迫っても、越えてもおかしくない。
不穏な警告
ラスキンやハリスの不穏な議論から、AIに対するコントロールが、すでに人間からどれだけ抜け落ちているかがわかる。
最大の懸念は、テクノロジーがあらゆる人間の知性を凌駕してしまうことだと彼らは言う。
イーロン・マスクをはじめ、AI分野の主要な研究者たちが、少なくとも6カ月間のAI研究の中断を求める公開書簡に署名したことからも、この評価が2人のパイオニアだけでないことがわかる。
署名者たちは、少なくとも人間と同等の制御不能なAIは、「人類の差し迫った終焉」を意味する可能性があることを、明確かつ思い切った言葉で明らかにしている。
ChatGPTの出現により、より強力なマシンを開発するための「無制限な競争」が始まったのです。
人工知能は、ある程度、すでに人間と競合する可能性があるのです。
「このような機械を理解し、予測し、確実に制御することは、その発明者であっても、誰にもできません。
イタリア政府はすでに一歩進んでおり、この危険性を極めて深刻に受け止めた最初の欧米諸国として、ChatGPTを完全に禁止しました。
その理由は、運営会社であるOpenAIが、データのさらなる利用についてユーザーに十分な説明をしていなかったためです。
イタリアのデータ保護委員会Guido Scorzaは、「重要なのは、自分の個人データを誰がどう使っているのかわからなければ、自分の権利を行使するために個人データの使用を制御することができないということです」と説明しています。
開発はおそらくもう止めることができない
さらに、13歳未満の子どもにとって「絶対に不適切」な情報を見せないようにするフィルターもない。
データ保護法でAIの普及を阻むという作為は、しかし、技術革命を止めることはできず、せいぜい一時的に遅らせる程度であろう。
しかし、イタリアがいかに本気かは、OpenAIに対して、20日以内に告発に対する対策を提示するよう求めていることからもわかる。
さもなければ、同社は最大2000万ユーロの罰金に直面することになる。
欧州消費者機構(BEUC)の懸念は、問題の核心に迫るもので、EU委員会やEU加盟国に対し、ChatGPTや同様のチャットボットがどのように人々を「騙し、操る」ことができるか調査するよう促しているのです。
AIがもたらす危険に対する意識は急速に高まっているようです。しかし、同時に進むAIのさらなる発展に政治がついていけるかどうかは、間違いなく歯止めが利かなくなるため、疑問の余地がある以上です。
経験上、人は-あらゆる禁止事項や規制にもかかわらず-達成した技術を利用し、絶えずさらなる発展を試み、その過程で常に新たな限界を乗り越えていくものである。
一度達成された科学的ブレークスルーは、もう覆すことはできない。
今後、人類は、優れた超知能によって自己崩壊に向かってよろめくというダモクレスの剣を背負って生きていかなければならない。
いずれにせよ、AIによって文明が滅びる可能性があるという事実は、普遍的に説かれる気候のハルマゲドンよりも、はるかに現実的なシナリオである。
