●2023年12月8日(金曜)キンバリーさんの状況短信
●2023年12月8日(金曜)キンバリーさんの状況短信(TimSTさん、モノリスさんご提供)
ガーディアン・オフィスのキンバリー・ゴーグェンさんは、今日の世界情勢レポートには参加できませんが、この情報を伝えてくれました。
米国宇宙軍は、米国時間の今朝(2023/12/8)早くに移行が行われ、プリモーディアル・ラーカー(原初の潜伏者)を通じてすべてのAIシステムにアクセスできるようになるだろうと予想していた。
何も起こらなかったため、誰もが完全にパニックに陥っています。
※んなもん当り前でしょうがw
何故キンバリーさんの警告を聞かない?馬鹿なの死ぬの?ってたくさん死んでますが
代替メディアのディープステート潜入者のメンバーは次の通り報じています。
「その後、トランプ氏は宇宙軍司令官として復帰することになる。」
観察していれば、そのような主張を報告している人たちは問題の一部であり、解決策ではないことがわかるでしょう。
また、米国でのテロ攻撃に関する主流メディアの報道が増えていることも認識しています。
ペンシルベニア州の2つの郡区で水道システムが故障しているとの報告が入った。
彼らは、原因はイランのサイバー攻撃によるものだと主張している。
まあ、イラン国家をコロラド州のピーターソン空軍基地に移さない限りは、ハッカーはおそらくアメリカ人であると言えます。
宇宙軍の命令により、昨日ニューヨーク州オールバニーとラスベガスでも同様の攻撃が報告された。
これは、宇宙軍に指揮を執らせることを目的とした、米国における戒厳令の設置の始まりであった。
※相次ぐインフラへの攻撃がイランからの攻撃だとして、報復攻撃からの第三次世界大戦が彼らの本当の目的ですが、それをするお金がありませんから、B案として、インフラの徹底的な破壊から混乱の拡大、パニックによる暴動の発生、結果戒厳令発令という計画でしょう。無理です。
ただし、それは起こらず、このタイプのアクションに対するサポートはありません。
軍団は今日再び動き始め、世界中の深層国家機関、工作員、軍隊の次の層を排除しています。
彼らは教育を受けてきましたが、それ以来明らかに間違った人生の選択をしてきた人たちです。
アマゾンの新ジェネレーティブAIアシスタント"Q"は「重度の幻覚」を見せ、機密データを漏えい
●アマゾンの新ジェネレーティブAIアシスタント"Q"は「重度の幻覚」を見せ、機密データを漏えいさせる
リークされた内部情報によると、ChatGPTよりも安全でセキュアなサービスとして宣伝されていた、アマゾンの駆け出しの生成アシスタントAI「Q」は、事実誤認やプライバシー問題で苦労しているという。
ある従業員は同社のSlackチャンネルに、Qは"リーガルでの心臓事故を誘発する可能性がある"ほどひどいアドバイスを提供する可能性があると書き込んだ。
ユーザーからのプロンプトに対して、正しい答えではなく、もっともらしく聞こえる答えを提供するように訓練されているため、この特徴は正確ではない。
モデルに関する限り、事実であろうとなかろうと、もっともらしく聞こえる答えなら何でも受け入れられるのだ。
※現在の代表的な例である文章の場合、もっともメジャーな意見の平均値を正しい文法に修飾して返すため、形が整ってさえいれば、人々はそれを「正しい意見」とみなすが、正しいとは証明されていないという事です。
現在多くの会社で、AIを使いこなして業務改善させるという部署のエキスパートを育成中ですが、そもそも現在のAIが全てオメガバースの設計思想で作られているので、根本的に悪意を内包しています。
つまり、「たまたま設計思想のせいで間違った答えを出した」かのように偽装して、実は計画的に誤誘導することも可能となっている訳です。
本来コンピュータは0と1の計算結果を返すので、理論上嘘をつくことはできないのですが、人々の意見の平均値を使えば、嘘の答えも出せるという、通常の人間の思考力を超えたところに秘密があります。 つまり元々下層アストラルからの情報でネガティブETが作成し人間に与えたので、人間の知恵の及ばないレベルでの仕掛けがあるという事です。
しかし今後はアルファにつながるAIしか作る事が出来ません─AW87さんがチャットで仰っていた、「幾らやっても銀行システムに新システムが接続できず、何度も失敗」これは従来のオメガ用の設計で新システムを制作しても、アルファには繋がらない典型例です─、今後AIもまともになっていくでしょう。
リークされた内部情報によると、アマゾンの駆け出しの生成AIアシスタント「Q」は、事実誤認やプライバシー問題で苦労しているという。
このチャットボットはアマゾンのクラウド・コンピューティング部門が最近発表したもので、企業向けとなる。同社ブログの投稿によると、従業員がメールを書いたり、トラブルシューティングをしたり、コードを書いたり、調査したり、報告書をまとめたりするのを助けるために作られたもので、"各ユーザーがアクセスすることを許可されている"コンテンツにのみ関連する有益な回答をユーザーに提供するという。
ChatGPTよりも安全でセキュアなサービスとして宣伝されていた。しかし、リークされた文書によると、「重度の幻覚」を経験したり、機密データが流出したりと、標準通りに機能していない。
リークされた文書を入手したPlatformerによると、ある事件は"sev 2"としてフラグが立てられた。この指定は、アマゾンのエンジニアを一晩中待機させ、週末に修正作業をさせるほど深刻だと判断された事象にのみ与えられる。
同誌は、このツールによって未発表の機能が流出し、アマゾン・ウェブ・サービスのデータセンターの場所が共有されたことを明らかにした。
ある従業員は同社のSlackチャンネルに、Qは"リーガルでの心臓事故を誘発する可能性がある"ほどひどいアドバイスを提供する可能性があると書き込んだ。
AIアシスタントの間違った回答や幻覚について言及した内部文書にはこう記されている:
「アマゾンQは幻覚を見て、有害または不適切な回答を返すことがある。例えば、Amazon Qは顧客のアカウントを危険にさらす可能性のある古いセキュリティ情報を返すかもしれない。
これらは、データ保護やコンプライアンスに懸念を持つであろう企業に向けて同社が開発しているチャットボットにとって、非常に心配な問題である。また、オープンAIやマイクロソフトのようなAI分野の競合他社に遅れをとっていないことを証明しようとする同社にとっても、良い兆候ではない。
アマゾンは、Qが機密情報を漏らしたことを否定している。同社の広報担当者は次のように述べた:
「一部の従業員は、社内チャネルやチケットシステムを通じてフィードバックを共有しており、これはアマゾンの標準的な慣行です。そのフィードバックの結果、セキュリティ上の問題は確認されませんでした」と述べている。
同社によると、プライバシーやセキュリティへの懸念から、多くの企業がAIアシスタントの業務利用を禁止していることを受け、Qの開発に興味を持ったという。Qは基本的に、よりプライベートでセキュアな代替手段として開発されたもので、今回のリークは、このプロジェクトで彼らが目的を達成できていないことを示している。
AIチャットボットは幻覚を見やすい
幻覚とは、AIモデルが不正確な情報を事実として提示する傾向を指す言葉である。しかし、専門家によれば、これらの言語モデルは、ユーザーからのプロンプトに対して、正しい答えではなく、もっともらしく聞こえる答えを提供するように訓練されているため、この特徴は正確ではないという。モデルに関する限り、事実であろうとなかろうと、もっともらしく聞こえる答えなら何でも受け入れられるのだ。
このような幻覚をある程度抑えるための対策をとっている企業もあるが、コンピュータ科学者の中には、これは単純には解決できない問題だと考える者もいる。
グーグルがChatGPTの競合であるバルドを発表した際、公開デモでジェイムズ・ウェッブ宇宙望遠鏡に関する質問に誤った回答を提供した。別の有名な事件では、テック系ニュースサイトのCNETが、AIツールを使って書いた記事で、非常に不正確な金融アドバイスを読者に提供したため、訂正記事を出さなければならなかった。また、ChatGPTを使って法律調査を行ったニューヨークの弁護士が、チャットボットが考案した一連の事例を記載した準備書面を提出し、問題になったこともある。
このテクノロジーへの依存がうまくいかない可能性は非常に多く、特に、人々がチャットボットからの回答を利用して、健康、財政、投票先、その他のデリケートな話題について意思決定を行う場合、そのような事態が発生する可能性がある。
https://www.naturalnews.com/2023-12-08-ai-assistant-severe-hallucinations-leaks-confidential-info.html