生成AIで機密情報を扱うリスクとは?漏洩事例と安全な導入対策を徹底解説

生成AIの機密情報に関する漏洩事例やリスク、ローカルLLM対策を解説した記事タイトル画像

DX推進や業務効率化のために生成AIの導入を検討しているものの、「生成AIに機密情報を入力しても安全なのか」と懸念を抱える企業のDX推進責任者やIT部門マネージャーの方は多いのではないでしょうか。

本記事では、生成AIにおける機密情報の取り扱いに伴う具体的なリスクや過去の漏洩事例、社内規定の策定、安全なツールの選び方までを解説します。

弊社(株式会社EQUES)は、東京大学松尾研究所発のAIスタートアップとして、AIを用いた伴走型技術開発を通じて数多くの企業のAI導入を安全に支援してきた実績があります。その技術的な知見をもとに、確実な対策方法をお伝えします。

この記事を最後までお読みいただくことで、自社に最適なAI環境の構築方法と社内ルールの作り方がわかり、機密情報漏洩の不安なく生成AIを活用した業務効率化を一歩進めることができます。

1. 生成AI利用時の最大の課題:機密情報漏洩のリスク

生成AI機密情報|生成AI利用時の最大の課題:機密情報漏洩のリスク

生成AIを業務で利用する際、最も注意すべき課題が「機密情報」および「個人情報」の漏洩です。生成AIは、入力したテキストやデータを学習データとして取り込み、サービス改善のために利用する設定になっている場合があります。業務上の機密情報を入力してしまうと、意図しない形で情報が外部に流出するリスクが存在します。機密情報が漏洩した場合には、企業の信用失墜や、なりすましによる二次被害につながる危険性があります。

生成AIに入力してはいけない「機密情報」とは

企業が生成AIを利用する際、以下の情報は原則として入力禁止とする必要があります。

  • 個人情報: 顧客や従業員の氏名、住所、電話番号、メールアドレス、クレジットカード情報など。
  • 営業秘密: 社外秘の技術データ、設計図、ソースコード、製造ノウハウなど。
  • 経営・財務情報: 未公開の業績データ、M&Aの検討状況、取引先との契約内容など。

機密情報漏洩が起きる具体的なポイント

生成AIにおいて機密情報が漏洩する経路は、主に以下の4つに分けられます。

  • AIの学習データとしての取り込み: ユーザーが入力したプロンプト(指示文)に機密情報が含まれていた場合、その内容がAIの学習データとして取り込まれ、他のユーザーへの回答として出力されてしまう可能性があります。
  • 保管された学習データへの不正アクセス: AIサービス提供者のサーバーに保管された学習データが、悪意のある第三者からのサイバー攻撃によって不正アクセスを受け、データが窃取されるリスクです。
  • システムのバグによる流出: AIサービス提供側のシステムやオープンソースライブラリの不具合により、他人のチャット履歴や機密情報が誤って画面に表示されるケースです。
  • アカウント情報の不正利用: 「インフォスティーラー」などのマルウェア感染により、Webブラウザに保存された従業員のAIサービスのアカウント情報が盗まれ、悪意のある第三者にログインされることで過去の履歴を閲覧されるリスクです。

2. 実際に起きた生成AIでの機密情報・個人情報の漏洩事例

生成AI機密情報|実際に起きた生成AIでの機密情報・個人情報の漏洩事例

機密情報を生成AIに入力するリスクを正確に把握するため、過去に発生した具体的なインシデント事例を提示します。

事例1:大手企業でのソースコードの流出

サムスン電子(Samsung Electronics)において、エンジニアが業務効率化のために社内のソースコードや機密情報を生成AIに入力し、情報漏洩につながった事例が報告されています。従業員が「入力してはいけない情報」を認識せずに利用したことが原因であり、結果として同社は社内での生成AI利用を一時全面的に禁止しました。
(参照:Samsung Bans ChatGPT, Google Bard, Other Generative AI Use by Staff After Leak – Bloomberg

事例2:バグによるチャット履歴および個人情報の流出

大手生成AIサービス、ChatGPTにおいて、オープンソースライブラリおよびインメモリ型データベースシステムのバグが発生しました。これにより、一部のユーザーの氏名、メールアドレス、クレジットカード情報や、他人のチャット履歴別のユーザーの画面に表示される事態が発生しました。サービス提供側はデータを暗号化するなどの対策を講じていますが、システムの不具合による漏洩リスクがゼロではないことを示す事例です。

(参照:March 20 ChatGPT outage: Here’s what happened | OpenAI

事例3:マルウェアによるアカウント情報のダークウェブ流出

マルウェアによって端末から盗み取られた10万件以上の生成AIサービスのアカウント情報がダークウェブ上で不正に取引されていることが確認され、日本からの漏洩も含まれていました。企業システム自体が強固であっても、エンドポイント(従業員の端末)が感染することで機密情報が流出する危険性が示されています。

(参照:Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list

3. 生成AIで機密情報を守り、漏洩リスクを下げる対策方法

生成AI 機密情報|生成AIで機密情報を守り、漏洩リスクを下げる対策方法

これらのリスクを低減し、生成AIで機密情報を安全に取り扱うためには、システム面での対策と組織的なルール作りが不可欠です。

入力禁止情報の明文化と社内規定の策定

社内のガイドラインを整備し、前述した個人情報やソースコードなどの機密情報の入力を明確に禁止します。また、クラウド型の生成AIを利用する場合は、入力データをAIの学習に利用させない設定を義務付けます。例えばChatGPTを利用する場合、設定メニューから「Chat history & training(チャット履歴とトレーニング)」をオフにするなどの具体的な運用ルールを策定します。

API連携や法人向けセキュア環境の活用

ブラウザ上の標準サービスをそのまま利用するのではなく、APIを利用して自社システムに生成AIを組み込むことで、入力データがAIの学習に利用されることを防ぐことができます。また、Microsoftが提供する「Azure OpenAI Service」などの法人向けクラウド環境を利用することで、より強固な通信の暗号化とデータ保護基準の下でAIを活用することが可能です。

社内研修によるITリテラシーの向上

情報漏洩の多くは、ヒューマンエラーによって引き起こされます。弊社が提供する「AI×DX寺子屋」では、業務特化型のAI研修を通して、安全なプロンプトの記述方法やセキュリティ意識の向上を支援しています。従業員のAIリテラシーを高めることが可能です。

AI研修サービス比較の関連記事はこちらから→【2026年】生成AI研修おすすめ15選と失敗しない選び方・助成金活用法

 4. 機密情報漏洩のリスクが最も低い「ローカルLLM」とは

ローカルLLMとは|機密情報漏洩のリスクが最も低い生成AI

APIや法人向けクラウド環境(クラウドLLM)を利用しても、外部のサーバーにデータを送信するという構造上のリスクを完全に排除することは困難です。高度な機密情報を扱う場合、「ローカルLLM」の導入が有効な選択肢となります。

ローカルLLMの仕組みとメリット

ローカルLLMとは、企業が自社のサーバーや閉域網内にAIモデルを直接構築し、運用する仕組みです。入力した機密データが外部のネットワークに出ることがないため、外部サーバーへのサイバー攻撃や通信経路での傍受による情報漏洩リスクを極めて低く抑えることができます。

ローカルLLMについて詳しく解説した記事はこちら!→ローカルLLMとは? 開発・導入からPCスペックまで徹底解説 | EQUES

クラウドLLMとローカルLLMの選び方

自社にどちらの生成AIを導入すべきかは、業務内容と扱うデータの機密性によって決定します。

  • クラウドLLMが適しているケース: 一般的な文章作成やアイデア出しなど。APIや法人向けプランを活用することで、セキュリティを担保しつつ低コストで運用できます。
  • ローカルLLMが適しているケース: 顧客の個人情報処理社外秘の技術文書の作成未公開の製品企画など。情報漏洩が企業存続に関わる重大なダメージとなる業務において、確実な安全性を確保できます。

安全なAI導入に迷ったら株式会社EQUESへご相談を

パッケージやツールの比較を含めた意思決定に迷われる場合は、弊社(株式会社EQUES)へお問い合わせください。

弊社は、月額定額制で東京大学出身のAI専門家にチャット相談ができる『AI×DX寺子屋』や、大規模開発前のPoC(概念検証)を月々250万円から行う『ココロミ』を提供しています。また、製薬業界向けの『QAI Generator』や『QAI Checker』など、機密性の高い文書を扱う領域での技術開発に強みを持っています。専門的な知見から、貴社に最適な安全なAI環境の構築をサポートいたします。

ぜひ一度お気軽にお問い合わせください。

5. まとめ

まとめ

本記事では、生成AIにおける機密情報の漏洩リスクとその対策について解説しました。

  • 生成AIへの機密情報入力や、マルウェア等によるアカウント情報の流出、システムのバグによる漏洩事故は実際に発生しています。
  • リスクを下げるためには、機密情報の入力禁止規定の策定、APIや法人向け環境の活用、そして社内研修によるリテラシー向上が不可欠です。
  • 高度な機密情報を扱う場合は、外部のネットワークにデータを出さないローカルLLMの活用が最も安全です。

生成AIは業務効率化の強力な手段となりますが、情報セキュリティの確保が前提となります。安全な生成AIツールの選定や開発にご関心がありましたら、株式会社EQUESまでお問い合わせください。

一覧に戻る