1. はじめに:日本におけるクラウド型生成AIの利用と機密性に関する課題

近年、日本国内においても、クラウド型の生成AI技術は目覚ましい発展を遂げ、様々な産業分野での導入が進んでいます。その革新的な可能性は多くの期待を集める一方で、機密情報をクラウドプラットフォームに提供することに伴うセキュリティおよび機密性に関する懸念も高まっています。企業や組織が保有する顧客情報、営業秘密、研究開発データといった機密性の高い情報を、第三者が提供するクラウドベースのAIサービスに預けることは、情報漏洩や不正利用のリスクを内包しており、知的財産保護の観点からも慎重な検討が求められます。

 

本稿では、クラウド型の生成AIに対して機密情報を提供した場合に、その情報がLLM(大規模言語モデル)の学習に用いられ、結果として他の利用者の生成AIの回答に機密情報の一部が含まれる可能性について、技術的な原理、事業者側の運用、そして日本の法律という多角的な視点から分析を行います。さらに、これらの分析結果を踏まえ、クラウド型生成AIへの機密情報の提供行為が、特許法上の「公知」に該当するかどうかについても考察します。本報告書を通じて、クラウド型生成AIの利用におけるリスクと、知的財産保護の重要性について理解を深める一助となれば幸いです。

 

2. 大規模言語モデル(LLM)の技術概要とクラウドにおけるデータ処理

大規模言語モデル(LLM)は、大量のテキストデータを学習することで、人間が使う自然言語を理解し、生成する能力を持つ深層学習モデルです 。LLMの学習プロセスは一般的に、インターネット上のウェブページ、書籍、研究論文、コードリポジトリといった公開された膨大なデータセットを用いた事前学習と、特定のタスクやドメインに特化させるためのファインチューニングという段階を経て行われます 。これらのモデルは、Transformerアーキテクチャや自己注意メカニズムといった技術を基盤としており、文脈を理解し、関連性の高いテキストを生成することが可能です 。LLMには、汎用的な言語モデル、指示応答に特化したモデル、対話形式のモデルなど、様々な種類が存在します 。また、プロンプト(指示文)を通じてモデルに特定のタスクを実行させる「インコンテキスト学習」と呼ばれる能力も持っています 。  

 

クラウド型のAIサービスでは、利用者が入力したデータはインターネットを経由してプロバイダーのサーバーに送信され、LLMによって処理されます。これらのサービスは一般的に、データ保存時と転送時の両方において暗号化技術(例えばAES-256やTLS 1.2+)を用いてセキュリティを確保しています 。  

 

ユーザーがクラウド型生成AIに提供した機密情報がLLMの学習に用いられる可能性については、サービスプロバイダーのポリシーによって異なります。多くの主要なクラウドAIプロバイダーは、エンタープライズレベルのAPIにおいては、ユーザーが送信したデータをデフォルトでモデルのトレーニングに使用しないと明言しています 。しかし、無料版のサービスや個人向けアカウントの場合、利用規約においてユーザーデータのトレーニングへの利用について異なる規定が設けられている場合があるため注意が必要です 。異なるサービスレベル間でデータ利用ポリシーが異なることは、企業がサービスを選択する際に重要な考慮事項となります。  

 

さらに、「インコンテキスト学習」の概念 は、たとえユーザーデータが長期的なモデル再学習に用いられない場合でも、入力された機密情報がモデルの即時的な応答に影響を与える可能性があることを示唆しています。機密情報がプロンプトに含まれることで、生成された応答にその情報の一部が意図せず反映されるリスクも考慮する必要があります。  

 

3. 主要クラウドAIプロバイダーの運用とデータプライバシーポリシー

主要なクラウドAIプロバイダーであるOpenAI(ChatGPT、Azure OpenAIを含む)とGoogle(Gemini Apps)は、ユーザーデータの取り扱いに関して異なるポリシーを運用しています。

 

OpenAIのAPIを通じて送信されたデータは、デフォルトではOpenAIのサービス改善には使用されません 。機密性の高いアプリケーションに対しては、データ保持期間をゼロにするオプションも提供されています 。ただし、不正利用の検出のため、APIデータは最大30日間保持される可能性があります 。OpenAIは、データ保存時のAES-256暗号化と転送時のTLS 1.2+プロトコルによる暗号化を実施しており、SOC 2 Type 2監査を完了しています 。個人アカウントに関しては、会話内容をモデルトレーニングに使用することへのオプトアウトオプションが提供されています 。一方、ChatGPT Enterpriseでは、ビジネスデータはデフォルトでトレーニングに使用されず、ユーザーは入力と出力の所有権を持ち、データ保持期間を制御できます 。  

 

MicrosoftのAzure OpenAI Serviceは、プロンプト(入力)、補完(出力)、埋め込み、およびトレーニングデータが、他の顧客やOpenAIに利用可能になることはなく、OpenAIモデルの改善にも使用されないと明言しています 。Azure OpenAI ServiceはMicrosoftのAzure環境内で運用されており、OpenAIが運営する他のサービス(ChatGPTやOpenAI APIなど)とは連携していません 。不正利用監視のため、プロンプトと生成されたコンテンツは最大30日間安全に保管される場合がありますが、修正された不正利用監視が承認された顧客に対しては、この保管が無効になる可能性があります 。データは保存時に暗号化されます 。  

 

GoogleのGemini Appsは、ユーザーのチャット、共有コンテンツ(ファイルや画像など)、プロダクト利用情報、フィードバック、位置情報を収集します 。これらのデータは、Googleのプロダクトと機械学習技術の提供、改善、開発のために使用されます 。18歳以上のユーザーの場合、Gemini Appsアクティビティ設定がデフォルトでオンになっており、アクティビティは最大18ヶ月間Googleアカウントに保存されます 。品質向上のため、人間のレビュー担当者(第三者を含む)が会話を読み、注釈を付け、処理することがありますが、レビュー前に会話はGoogleアカウントから切り離されます 。Googleは、機密情報を会話に入力しないよう推奨しています 。レビューまたは注釈が付けられた会話は、Googleアカウントとは別に最大3年間保持されます 。  

 

エンタープライズ向けのサービスと一般消費者向けのアプリケーションでは、データ取り扱いポリシーに明確な違いが見られます。エンタープライズソリューションは、デフォルトでより強力なデータプライバシーとトレーニングへの不使用の保証を提供している傾向があります。Googleの事例に見られるように、人間のレビュー担当者による会話の確認は、匿名化措置が取られているとはいえ、機密情報の潜在的な暴露リスクを生じさせる可能性があり、機密情報の入力は避けるべきであるという警告の重要性を示唆しています。

 

4. 日本の法的枠組み:個人情報保護法と不正競争防止法

日本において、クラウド型生成AIに機密情報を提供した場合の法的側面を検討する上で、主に考慮すべき法律は「個人情報の保護に関する法律(個人情報保護法)」と「不正競争防止法」です。

 

個人情報保護法は、個人の権利利益を保護することを目的として、個人情報の適正な取扱いについて定めています 。ここでいう「個人情報」とは、生存する個人に関する情報であって、特定の個人を識別できるもの(氏名、生年月日、住所など)を指し、「要配慮個人情報」と呼ばれる人種、信条、社会的身分、病歴、犯罪の経歴などの機密性の高い情報については、より厳格な取扱いが求められます 。事業者が個人情報を取り扱う際には、利用目的を特定し、原則として本人の同意を得る必要があります 。また、個人データの正確性の確保、安全管理措置の実施、第三者への提供制限、本人からの開示・訂正・利用停止等の請求への対応、そして漏洩等の事案が発生した場合の個人情報保護委員会への報告と本人への通知義務などが課せられます 。個人情報保護法は、日本国内で事業を行う事業者だけでなく、日本国内の個人の個人情報を取得して事業を行う外国の事業者にも適用されます 。違反した場合には、罰金や懲役刑を含む罰則が科される可能性があります 。  

 

一方、不正競争防止法は、事業者間の公正な競争を確保し、不正な競争行為を防止することを目的としており、営業秘密の不正取得、使用、開示なども規制の対象としています 。不正競争防止法上の「営業秘密」とは、秘密として管理されていること(秘密管理性)、事業活動に有用な技術上または営業上の情報であること(有用性)、そして公然と知られていないこと(非公知性)の3つの要件を満たすものを指します 。営業秘密を不正に取得、使用、または開示する行為は禁止されており 、違反者に対しては差止請求や損害賠償請求、刑事罰などが科される可能性があります 。営業秘密として保護されるためには、情報が秘密として適切に管理されている必要があり、秘密である旨の表示やアクセス制限などの措置が求められます 。近年では、デジタルデータの保護や国際的な不正競争行為への対応として、不正競争防止法が改正されています 。また、営業秘密に加えて、「限定提供データ」も不正競争防止法によって保護の対象となっています 。  

 

クラウド型生成AIに個人情報を提供する場合、それは個人情報保護法の適用範囲となり、事業者は適切な法的根拠に基づいた処理、データ主体への情報提供、適切な安全管理措置の実施などが求められます。また、提供する情報が不正競争防止法上の営業秘密に該当する場合、クラウドサービスの利用規約やセキュリティ対策によっては、その秘密性が損なわれる可能性があり、特に厳格な秘密保持契約がない場合には注意が必要です。

 

 

 

5. 日本特許法における分析:クラウドAI利用の「公知」該当性

日本特許法第29条第1項第1号は、特許出願前に日本国内または外国において「公知」となった発明については、特許を受けることができないと規定しています 。ここでいう「公知」とは、秘密保持義務を伴わない状態で公衆が知り得る状態になったことを意味すると解釈されています 。ただし、特許法第30条には、試験、刊行物への掲載、学会発表など特定の状況下での開示については、6ヶ月の猶予期間が設けられています 。  

 

発明に該当する可能性のある機密情報をクラウド型AIサービスに提供する行為が、「公知」に該当するかどうかは、そのAIサービスの利用規約が定める秘密保持義務の有無と内容、そしてサービスプロバイダーのセキュリティ対策の信頼性に大きく左右されます。もし利用規約において、プロバイダーがユーザーの提供したデータをサービス提供以外の目的(例えばモデルのトレーニング)に利用する権利を有しており、かつ厳格な秘密保持義務が課せられていない場合、その情報は公衆が知り得る状態になったと解釈される可能性があります。

 

たとえ利用規約で秘密保持が謳われていたとしても、サービスプロバイダー側のセキュリティ対策が不十分であり、データ漏洩のリスクが高い場合 、実際に情報が漏洩しなくても、「公知」と判断される可能性は否定できません。  

 

一方、クラウドサービスへの情報の提供が、厳格な秘密保持契約の下で行われるのであれば 、「公知」には該当しないと解釈される可能性が高いと考えられます。ただし、秘密保持契約の存在とその有効性を証明する責任は、特許出願人にあります。  

 

特許法における「当業者」の視点 から考えると、機密情報がクラウドAIサービスに提供されたことで、その情報に基づいて当業者が容易に発明を再現できる状態になったかどうかも、「公知」性を判断する上で重要な要素となります。  

 

日本国内では、知的財産管理業務にクラウドサービスが利用されている事例 も存在します。これは、適切なセキュリティ対策と秘密保持措置が講じられていれば、単にクラウドサービスを利用したという事実のみでは、直ちに「公知」とみなされるわけではないことを示唆しています。  

 

クラウドAIへの機密情報提供が特許法上の「公知」に該当するか否かは、AIプロバイダーとの契約における秘密保持義務の存在と実効性にかかっています。標準的な利用規約だけでは十分な保証が得られない可能性があり、データ漏洩のリスクも考慮すると、特許出願を検討している発明に関する情報をクラウドAIに提供する際には、細心の注意が必要です。

 

6. リスク軽減とクラウドAIにおける機密情報の利用に関するベストプラクティス

日本国内でクラウド型生成AIを機密情報と共に利用する際のリスクを軽減するためには、多層的な対策を講じることが重要です。

 

まず、利用するクラウドAIプロバイダーの利用規約とプライバシーポリシーを徹底的に確認し、データ利用に関する条項、データ保持期間、セキュリティ対策について詳細に把握する必要があります 。特に、ユーザー入力がモデルのトレーニングに使用されるかどうか、機密情報の取り扱いに関する規定を注意深く確認することが重要です。  

 

エンタープライズレベルの契約を選択することも有効な手段です。これらの契約では、より強力なプライバシー保護が提供され、トレーニングへのデータ利用を無効化するオプションが付いている場合があります 。  

 

情報漏洩対策(DLP)技術の導入も重要です。DLPツールを活用することで、従業員が意図せず機密情報をクラウドAIプラットフォームと共有してしまうことを防ぐことができます 。  

 

機密性の高いデータを提供する前に、可能な限り匿名化または仮名化処理を施すこともリスク軽減に繋がります 。  

 

クラウドAIサービスとの通信は、常に安全な暗号化されたチャネル(HTTPS)を通じて行うように徹底します 。  

 

クラウドAIサービスおよび共有された情報へのアクセスを、必要最小限の承認された担当者に限定することも重要です 。  

 

従業員向けのトレーニングと啓発プログラムを実施し、クラウドAIを機密情報と共に利用する際のリスクについて教育し、適切な利用ガイドラインを定める必要があります 。  

 

非常に機密性の高い情報を取り扱う場合には、オンプレミスまたはプライベートクラウド環境での生成AIモデルの展開を検討し、データに対するより高い管理体制を維持することも有効です 。  

 

コンフィデンシャルコンピューティング技術の調査も推奨されます。この技術は、クラウドプロバイダーを含む第三者からのアクセスを防ぎ、安全な環境でデータの処理を可能にします 。  

 

特許出願を検討している発明がクラウドAIに開示される可能性がある場合は、強固な社内秘密保持対策を講じ、非機密開示の前に特許出願を行うことを検討すべきです 。  

 

最後に、クラウドAIサービスの利用に関連するセキュリティプロトコルを定期的に監査し、新たな脅威や脆弱性に対応するために更新し続けることが不可欠です 。  

 

これらの対策を組み合わせることで、日本の企業はクラウドAIの利便性を享受しつつ、機密情報の漏洩リスクを最小限に抑えることが可能になります。特に、特許保護を検討している発明に関する情報については、エンタープライズレベルのAIサービスを選択し、機密情報の取り扱いと知的財産に関する条項を明示的に規定した利用規約を慎重に交渉することが重要となります。

 

7. 結論:生成AI時代におけるイノベーションと機密性のバランス

本報告書では、クラウド型の生成AIに機密情報を提供した場合のリスクについて、技術、運用、法律の多角的な視点から分析を行いました。その結果、技術的にはユーザーの入力データがLLMの学習に用いられる可能性は低いものの、サービスプロバイダーのポリシーや運用、そしてセキュリティ対策によっては情報漏洩のリスクが存在することが明らかになりました。日本の法律においては、個人情報保護法と不正競争防止法が関連し、特に特許法上の「公知」該当性については、クラウドプロバイダーとの秘密保持義務の有無と実効性が重要な鍵となることが示唆されました。

 

日本企業は、クラウド型生成AIの利用にあたり、その利便性とリスクを十分に理解し、慎重なデューデリジェンスを実施する必要があります。イノベーションを推進する一方で、機密情報と知的財産を保護するためには、契約上の安全策、技術的な制御、組織的なポリシーを組み合わせた多層的なアプローチが不可欠です。特に、特許出願を検討している重要な技術情報については、クラウドAIへの安易な提供は避けるべきであり、適切な保護措置を講じることが求められます。クラウド型生成AIの責任ある導入と活用は、リスクを認識し、適切な対策を講じることから始まります。