1月29日にIPAが「情報セキュリティ10大脅威 2026」を発表し、その中で「AIの利用をめぐるサイバーリスク」が初めてランクインしたことで話題になりました。
詳しい解説は2月下旬以降に公開予定とのことで、現時点では具体的な内容は明らかになっていません。
しかし、最近はAIに関するニュースを目にする機会が増えており、AIに関連したセキュリティ事故はいくつか思い浮かびます。
私なりに分類して思い浮かんだリスクについて、サマリーと対策を整理してみました。
※ネットの情報をもとに私が整理したので誤っている情報がありましたら、ごめんなさい。。
セキュリティと聞くと、まず情報漏えいを思い浮かべる人も多いのではないでしょうか。AIに機密情報を学習させてしまうリスクや、モデルインバージョン攻撃によって学習データが推測される可能性も指摘されています。
AIの誤った情報を使用してしまうリスクも考えられます。
最近は、ハルシネーションやディープフェイクといった単語はもう当たり前のようにニュースなどでも使われていますね。
AIモデルの流出や流用といったリスクも考えられます。
AIの力を借りて、サイバー攻撃が高度化してしまう「AI生成型サイバー攻撃」や「プロンプトインジェクション」というのもあります。
AIは便利さの一方で新たなリスクも生み出しています。
今後公開されるIPAの解説を参考にしながら、AIを「正しく安全に使う」意識がこれまで以上に重要になっていくと感じます。



