【投稿者コメント】
【キーワード】
[最低最悪最強の糞バグ]、[危険な生成AI]、[情報総ナメの危険性]
【件名】
「糞生成アプリの「M365 Copilot」の危険な脆弱性で機密情報がダダ漏れ!/「M365 Copilot」に情報ダダ漏れの弱点、そのカラクリが怖すぎる/全ての生成AI機能「Copilot」は機能OFFとすべし!/機密情報がダダ漏れでも良いなら、糞生成AI機能「Copilot」を使い続けるべし!」
【投稿本文】
下記は、「糞生成アプリの「M365 Copilot」の危険な脆弱性で機密情報がダダ漏れ!」と云う報告だ!
なんせ、ユーザに特定の電子メールを送るだけで、Microsoft 365 Copilotを不正に操作出来てしまうと云うものだ。これに依って、ユーザが属する企業の機密情報や個人情報が自動的に盗まれてしまう恐ろしい糞バグ・糞脆弱性だ!
この攻撃は、「EchoLeak」(エコーリーク)と呼ばれ、攻撃の仕組みは、プロンプトインジェクションと呼ばれる手法で、AIに特殊な指示(プロンプト)を与えて、意図しない動作を引き起こすものだ。攻撃者は、一見無害に見えるメールに巧妙に仕込まれたプロンプトを忍ばせ、Microsoft 365 Copilotがそのメールを読み込んで情報を収集・分析する際に、隠された指示がAIにプロンプトとして認識され、攻撃が実行されてしまう。この問題を「LLMスコープ違反」と云う。
たとえ不正なプロンプトに依って、Microsoft 365 Copilotが機密情報を取り出したとしても、それだけでは情報漏えいにはならない。外部に送信されて初めて漏えいが成立するが、研究チームは、AIが攻撃者の用意したリンクにアクセスする事で、その情報を外部に送れる事を突き止めた。更に、AIが画像を作る際に、外部の画像を取得する仕組みを使えば、同じ様に情報を送れる事を確認した。
「この脆弱性の発見者は、この脆弱性の発見直後の2025年1月にMicrosoftに報告して、同年5月に同社は修正を完了したと発表した。現時点では被害は確認されていない。」と安心してはならない! 今回の脆弱性の「EchoLeak」(エコーリーク)は解消したと云うものの、これは、糞生成機能「Copilot」のほんの一部の脆弱性であり、氷山の一角だ! まだまだ、未知の脆弱性がてんこ盛りだ!
そもそも、メール等に隠された指示が、AIにプロンプトとして認識されて、攻撃が実行されてしまうと云う脆弱性の「LLMスコープ違反」は解消されておらず、Microsoftの糞生成機能「Copilot」以外の、ChatGPT、Claude、Gemini、AI Writer等の生成AIにも存在する!
ゆえに、PC内のデータを総ナメにする危険な「生成AI」なんぞは使用すべきではなく、全ての生成AI機能は設定でOFFにすべきだ!
機密情報がダダ漏れでも良いなら、糞生成AI機能を使い続けたら良い!
Microsoftの生成AIサービス「Microsoft 365 Copilot」は、「Microsoft 365」アカウントを持っていれば誰でも利用可能だ。月額4497円(税別)のアドオンを契約する事で、「Microsoft Office」アプリと連携して、AI機能を使える。ここで、注意すべきは、最近、「Microsoft 365」サブスク契約を自動更新で行った場合は、自動的に、月額4497円(税別)の「Microsoft 365 Copilot」アドオン付きで組み込まれてしまう点だ! 知らない内に、「Microsoft 365」へ、危険な「Microsoft 365 Copilot」が組み込まれていたと云う事にならない様に注意したい!こう云う糞サブスク更新で、無理筋で、危険な「Microsoft 365 Copilot」を使わせようと云う糞Microsoftの悪辣ぶりには驚く!
【追 記】(2025年6月22日)
上記の投稿は、かつて、糞Microsoftの糞バグで大損害を被った、Microsoft憎しの当方のみが勝手に、何の論拠も無しに、Microsoft製生成AIの危険性・悪辣ぶりを唱えているのではない!
殆どの主だったITベンダーが生成AIの危険性を指摘している!
・「ガートナーが警鐘「ナメがち」生成AI活用リスクが怖すぎる…対策「6ステップ」とは |ビジネス+IT」
https://www.sbbit.jp/article/cont1/158506
・「生成AIの危険性とは?企業が活用する際の深刻な5つのリスクと解決策 株式会社トントン」
https://ton-ton.co.jp/office_labo/airisk/
・「「企業向け」生成AIを使用する潜在的なリスク」
https://cmc-japan.co.jp/ai%E3%83%88%E3%83%AC%E3%83%B3%E3%83%89/potential-risks-of-generative-ai/
・「Microsoft Copilot+ PC向け新機能「Recall」、「悪夢のようなリスク」と非難も TECH+」
https://news.mynavi.jp/techplus/article/20240522-2950688/
・「プライバシーの悪夢?Windows 11のAI新機能「Recall」に懸念の声 Codebook|Security News」
https://codebook.machinarecord.com/threatreport/silobreaker-cyber-alert/32979/
・「MSのAI新機能「Recall」、早くも悪用ツールが公開に - ZDNET Japan」
https://japan.zdnet.com/article/35219802/
・「過去を保存するWindows 11「リコール」機能。ヤバげなものまで勝手に保存… ギズモード・ジャパン」
https://www.gizmodo.jp/2024/12/windows-11-recall-feature-safety.html
自分のPCから機密情報の「ログインアカウント(パスワード)」や「口座情報」や「機密文書」や「カード情報」や「金銭取引情報」等を抜き取られて、金銭被害等の甚大・深刻被害を受けたいのであれば、糞「Microsoft 365 Copilot」機能や「Recall」機能等のMicrosoft製生成AI機能を使い続ければ良い!
こんな被害は、まっぴら御免!と云う向きには、徹底した生成AI機能のUninstall(削除)と機能OFF設定を御薦めしたい!
と同時に、糞Microsoftには、「生成AI機能を一切搭載しないWindows11_OSを提供せよ!」と要求したい!
そもそも、糞生成AI機能搭載は、ユーザの希望・要求ではなく、糞Microsoftが企業エゴで搭載した最悪・最低・最凶の悪夢機能なのだ! この事は、上記のURLでも、「悪夢のようなリスク」とか、「プライバシーの悪夢」と強く、非難している!
要するに、Microsoft製「生成AI」機能は、反吐(へど)が出るほどに「筋が悪過ぎる」機能であり、「Microsoftの三大悪業のひとつ!」なのだ!
【以下転載】
https://kn.itmedia.co.jp/kn/articles/2506/20/news032.html#utm_medium
「「M365 Copilot」に情報ダダ漏れの弱点、そのカラクリが怖すぎる」
Microsoft 365 Copilotに、気付かぬうちに情報が洩れてしまう深刻な弱点が見つかった。特に業務で頻繁に使っているユーザーほど影響を受けやすく、企業の情報システム部門にとっても無視できないリスクとなっている。
[キーマンズネット] 2025年06月20日 07時00分 公開
Microsoftの生成AIサービス「Microsoft 365 Copilot」は、「Microsoft 365」アカウントを持っていれば誰でも利用可能だ。月額4497円(税別)のアドオンを契約することで「Microsoft Office」アプリと連携し、高度なAI機能を活用できる。
そんなMicrosoft 365 Copilotに思いもよらぬ弱点が存在することが発覚した。しかも、Microsoft 365 Copilotを業務で頻繁に利用しているユーザーほど、その影響を受ける可能性があるという。企業の情シスも注意した方がよさそうだ。
その問題とは、ユーザーに特定の電子メールを送るだけでMicrosoft 365 Copilotを不正に操作できてしまうというものだ。これによって、ユーザーが属する企業の機密情報や個人情報が自動的に盗まれてしまう可能性がある。
この脆弱(ぜいじゃく)性は、AIアプリのセキュリティ対策に特化する企業Aim Securityの研究部門「Aim Labs」が、同社の技術ブログで公開したことで広く知られることとなった。
前述の通り、Microsoft 365 CopilotはMicrosoft 365のアプリと連携し、テナント単位でデータを収集する。これにより、テナント内の文脈を踏まえた、より的確で精度の高い回答が可能になる。
データ収集の対象には「Microsoft Outlook」「Microsoft Teams」「Microsoft OneDrive」「Microsoft SharePoint」などのアプリが含まれ、当然、そこには機密性の高い情報も多く含まれている。本来であれば、それらの情報はテナント内での使用にとどまり、外部に漏れることはない。
だが、Aim Securityの研究チームは2025年1月、ユーザーが何も操作しなくても、Microsoft 365 Copilotから情報が外部に漏れてしまう「ゼロクリック攻撃」が可能であることを確認した。これは、ユーザーが気付かないうちに機密情報が盗まれる、非常に危険な攻撃だ。
この攻撃は「EchoLeak」(エコーリーク)と名付けられた。攻撃の仕組みはプロンプトインジェクションと呼ばれる手法で、AIに特殊な指示(プロンプト)を与えて、意図しない動作を引き起こすものだ。攻撃者は一見無害に見えるメールに巧妙に仕込まれたプロンプトを忍ばせ、Microsoft 365 Copilotがそのメールを読み込んで情報を収集・分析する際に、隠された指示がAIにプロンプトとして認識され、攻撃が実行されてしまう。研究チームはこの問題を「LLMスコープ違反」と呼ぶ。
Microsoft 365 Copilotには、本来プロンプトインジェクションを防ぐためのXPIA(cross-prompt injection attack)分類子による検出機構が備わっている。通常の攻撃であれば、この分類子によってプロンプトが遮断されるのだが、EchoLeakはその検出を巧妙にすり抜けてしまう。
たとえ不正なプロンプトによって、Microsoft 365 Copilotが機密情報を取り出したとしても、それだけでは情報漏えいにはならない。外部に送信されて初めて漏えいが成立する。ところが、研究チームは、AIが攻撃者の用意したリンクにアクセスすることで、その情報を外部に送れることを突き止めた。さらに、AIが画像を作る際に、外部の画像を取得する仕組みを使えば、同じように情報を送れることを確認した。
このように、一連のプロンプトインジェクションと情報送信の仕組みによって、Microsoft 365 Copilotは気付かぬうちに重要な情報を漏えいさせてしまう可能性がある。Aim Securityはこの脆弱性の発見直後の2025年1月にMicrosoftに報告し、同年5月に同社は修正を完了したと発表した。幸い、現時点では被害は確認されていない。
ただし、このLLMスコープ違反と呼ばれる問題は、Microsoft 365 Copilotに限らず、他の多くのAIモデルやAIエージェントにも起こり得る脆弱性だと考えられている。EchoLeakのような新たな攻撃手法が今後も登場する可能性は十分にあり、AIを取り巻く環境が急速に進化する今こそ、警戒と対策が不可欠だ。AIの設計を見直すと同時に、プロンプトインジェクションに対抗する技術的な枠組みを強化していく必要があるだろう。
上司X: Microsoft 365 Copilotに、ゼロクリック攻撃「EchoLeak」が発覚したという話だよ。
ブラックピット: あのCopilotに弱点ですか。
上司X: そう。送られて来たメールだけで機密情報が盗まれる可能性があるというね。
ブラックピット: ニセのプロンプトで攻撃者のいいなりにしてしまうってことですか。社内の情報でRAGを構成するという部分が悪用されるとは、盲点と言えば盲点ですね。
上司X: もちろん想定外のプロンプトインジェクション攻撃だとは思うんだけど、ユーザーが気付かないうちに被害に遭う可能性があるというのは注意が必要だな。
ブラックピット: とは言え、Microsoftの修正は済んでいるんでしょう? であれば……。
上司X: そうなんだけどね、他のAIエージェントでも同じような攻撃はあり得ないワケではない、というところだから。
ブラックピット: AIエージェントがどんどんビジネスシーンにも浸透していますからね。油断は大敵、というところでしょうか。
上司X: 実際、ユーザーはメールの不自然さを感知することもできなくて、油断するスキもないけどなあ。個人でも企業でも、生成AIを活用するムーブメントが高まっている今、このEchoLeakが冷や水を浴びせるようなことにならなければいいものだがな。