「ChatGPTに社内データを入力しても大丈夫?」「取引先の情報をAIに読ませたら漏洩しないか心配」――生成AIの業務活用が広がる一方で、情報漏洩リスクへの不安は多くの企業で共通の課題です。
2023年にはSamsung社でChatGPTへの社内コード入力が問題となり、社内利用が一時禁止されました。日本でも同様のインシデントが相次いでいます。2024年には国内の複数企業で、従業員が顧客情報を含むメールをAIに貼り付けて要約させるケースが確認されており、一部は個人情報保護委員会への報告案件になりました。ルールがないまま「なんとなく使っている」状態が、最も危険です。
この記事では、生成AIの情報漏洩リスクを具体的に整理し、社内利用で守るべき5つのルールを解説します。さらに業種別リスク・ツール別設定手順・チェックリスト・FAQも追加しました。非エンジニアの方でもすぐに実践できる内容なので、明日からの業務にそのまま活用できます。
生成AIの情報漏洩リスクとは? 何が危ないのか
生成AIの情報漏洩リスクは、大きく分けて3つあります。それぞれの仕組みを理解しておくことで、対策の優先度が見えてきます。
- 学習データへの取り込み: 入力した情報がAIの学習データに使われ、他のユーザーへの回答に反映される可能性がある
- 会話履歴の保存・流出: AIサービスのサーバーに会話履歴が保存され、不正アクセスやサービス側のバグで流出するリスクがある
- 意図しない出力: AIが入力情報の一部を別の会話で出力してしまう可能性がある(特に学習ON設定時)
特に注意すべきは、多くの生成AIサービスがデフォルト設定で「入力データを学習に利用する」としている点です。ChatGPTの無料版やPlus版では、設定を変更しない限り会話データがモデル改善に使用されます。
ただし、誤解も多いポイントです。「AIに入力した情報がすぐに他人に見られる」わけではありません。学習に使われる場合でも、入力データがそのまま別のユーザーに表示されることは通常ありません。リスクは「ゼロではない」というレベルです。だからこそ、過度に恐れるのではなく、正しくルールを設けて使うことが重要です。
| リスクレベル | データの種類 | 具体例 |
|---|---|---|
| 高(入力禁止) | 個人情報・機密情報 | 顧客名簿、パスワード、未公開の財務データ |
| 中(加工して利用) | 社内業務データ | 議事録、社内メール、営業報告書 |
| 低(そのまま利用可) | 公開情報ベースの作業 | 一般的な文書作成、公開情報のリサーチ |
AIのセキュリティリスク全般について詳しく知りたい方は、姉妹サイトセキュリティマスターズ.TOKYOも参考にしてください。
業種別リスク — あなたの会社はどこに注意すべきか
生成AIの情報漏洩リスクは、業種によって性質が異なります。自社のリスクを正確に把握するために、業種別の注意点を確認してください。
医療・介護
最もリスクが高い業種のひとつです。患者の氏名・病歴・診断結果・処方内容などは、医療法・個人情報保護法に加え、医療機関固有の守秘義務が課されます。電子カルテの内容やクリニック内の申し送り文書をそのままAIに入力することは、法的に問題になりかねません。
- 入力禁止: 患者氏名・生年月日・病名・処方内容・保険証番号
- 匿名化して利用可: 症状を一般化した文書作成、治療方針のリサーチ補助
- 推奨プラン: Microsoft 365 Copilot(商用データ保護)またはオンプレミスAI
金融・保険
顧客の資産情報・契約内容・与信情報は金融商品取引法・保険業法の規制対象です。また、インサイダー情報に該当する可能性がある未公開の企業情報を入力することは厳禁です。
- 入力禁止: 顧客の口座情報・残高・信用スコア・未公開のM&A情報
- 匿名化して利用可: 提案書のドラフト(固有名詞を「A様」に置換)、FAQ作成
- 推奨プラン: 金融機関向けセキュアAI(Azure OpenAI Service等の閉域環境)
製造業
製品の設計図・製造ノウハウ・原価構成・取引先との契約条件は企業の核心的な競争優位です。特許出願前の技術情報をAIに入力することで、権利取得に影響が出る可能性もあります。
- 入力禁止: CAD設計データ・製造プロセスの詳細・未公開の特許情報・原価情報
- 匿名化して利用可: 技術文書の翻訳(具体的な数値・型番を伏せる)、品質管理マニュアルの整備
- 推奨環境: 社内サーバーへのオープンソースLLM導入(Ollama等)も選択肢
サービス業(小売・飲食・不動産等)
顧客データベース・会員情報・顧客対応履歴が主なリスク源です。特にEC事業者は購買履歴・決済情報を扱うため、PCI DSSなどのコンプライアンス要件も考慮が必要です。
- 入力禁止: 会員の購買履歴・メールアドレス・決済情報
- 匿名化して利用可: 接客マニュアル作成、メール文章の校正、クレーム対応のひな形作成
- 推奨プラン: ChatGPT Team(学習オフ)で多くの業務をカバー可能
社内利用で守るべき5つのルール(ステップバイステップ)
ここからは、生成AIを社内で安全に利用するための5つのルールを具体的に解説します。すべてのルールは、専門知識がなくても今日から実践できる内容です。
ルール1. 入力してはいけない情報を明確に定義する
最も重要なルールです。「何を入力してよくて、何がダメなのか」が曖昧なままだと、社員は判断できません。以下の3段階で分類するのが実用的です。
- レッド(入力禁止): 個人情報(氏名・住所・電話番号・メールアドレス)、認証情報(パスワード・APIキー)、未公開の経営情報(財務データ・M&A情報)、取引先の機密情報
- イエロー(匿名化・加工して利用): 社内の議事録、営業報告書、顧客対応履歴、社内メールの内容
- グリーン(そのまま利用OK): 一般的なビジネス文書の作成、公開済み情報の要約、アイデア出し、文章の校正
この分類表をA4一枚にまとめて、社内チャットやイントラネットで共有するだけで、判断に迷う場面は大幅に減ります。
【入力前チェックリスト】
- この情報が外部に漏れたら、会社や顧客に損害が出るか?
- この情報に個人を特定できる要素が含まれているか?
- この情報は社外秘・部外秘に指定されているか?
1つでも「はい」なら、そのまま入力せず、ルール2の匿名化処理を行ってください。
ルール2. 入力データを匿名化・マスキングしてから使う
「イエロー」に分類されたデータは、匿名化してから入力すれば安全に活用できます。手作業で置き換えるのは手間がかかるので、AIにマスキングを依頼するプロンプトが便利です。
# 匿名化プロンプト(コピペで使えます)
以下の文章に含まれる個人情報・企業名・固有名詞を
ダミーデータに置き換えてください。
置き換えルール:
- 人名 → 「Aさん」「Bさん」のようにアルファベットで置換
- 企業名 → 「X社」「Y社」のように置換
- 電話番号・メールアドレス → 「XXX-XXXX-XXXX」「xxx@example.com」に置換
- 金額 → 桁数は維持しつつ端数を変更(例: 1,234万円 → 1,200万円)
- 日付 → 月のみ残して日は削除(例: 4月2日 → 4月上旬)
元の文章:
(ここに匿名化したい文章を貼り付け)
匿名化の出力例:
# 入力した文章:
「4月2日、田中太郎さん(ABC株式会社)と打ち合わせ。
契約金額は1,234万円で合意。連絡先: tanaka@abc.co.jp」
# 匿名化後:
「4月上旬、Aさん(X社)と打ち合わせ。
契約金額は1,200万円で合意。連絡先: xxx@example.com」
匿名化後のデータであれば、議事録の要約や報告書のドラフト作成にも安心して使えます。ただし、匿名化プロンプトに入力するデータ自体もサーバーに送信される点は変わりません。「レッド」に分類した最高機密情報については、匿名化プロンプトにも入力しないでください。
ルール3. AIサービスの学習設定をオフにする(ツール別・具体的手順)
主要な生成AIサービスには、入力データを学習に使わない設定が用意されています。社内利用を始める前に、必ず各ツールの設定を確認してください。
ChatGPTの設定手順
- ChatGPTにログイン後、右上のアカウントアイコンをクリック
- 「Settings(設定)」を選択
- 「Data controls(データ管理)」タブを開く
- 「Improve the model for everyone(モデル改善への協力)」をオフにする
※ ChatGPT Team / Enterpriseプランでは、デフォルトで学習利用がオフになっています。法人利用ではTeamプラン以上を推奨します。
Claude(Anthropic)の設定手順
- claude.aiにログイン後、左下のアカウントアイコンをクリック
- 「Privacy & Security(プライバシーとセキュリティ)」を選択
- 「Model training」の項目でオプトアウトを選択(プランによって表示が異なる)
※ Claude for Work(法人プラン)では、入力データは学習に使用されない契約上の保証があります。無料版・Proプランでの業務利用は学習設定の確認を必ず行ってください。
Gemini(Google)の設定手順
- myaccount.google.com にアクセス
- 「データとプライバシー」→「アクティビティ管理」を選択
- 「Gemini アプリのアクティビティ」をオフにする
※ Google Workspace向けGemini(法人プラン)は、デフォルトで学習利用がオフです。個人Googleアカウントでの業務利用は避けることを推奨します。
Microsoft Copilot / Copilot for Microsoft 365
- Microsoft 365 管理センター(admin.microsoft.com)にアクセス
- 「設定」→「組織の設定」→「Copilot」を選択
- 「商用データ保護」が有効になっていることを確認
※ 商用データ保護が有効なプランでは、入力データはMicrosoftのAI学習に使用されません。Microsoft 365 Business Standard以上のプランが対象です。
どのサービスも、法人プランを利用するのが最も確実な対策です。コストはかかりますが、「学習に使われない」という契約上の保証が得られます。
ルール4. 出力内容を必ず人間がレビューする
情報漏洩リスクは「入力」だけでなく「出力」にも存在します。AIが生成した文章をそのまま社外に送信すると、以下のような問題が起きることがあります。
- ハルシネーション(事実と異なる情報の生成): 存在しない製品名、間違った数字、架空の事例をAIが作成してしまう
- 著作権の問題: AIの出力が既存の文章と酷似している場合、著作権侵害のリスクがある
- 社内情報の混入: 会話の文脈で入力した社内情報が、出力に含まれたまま外部送信してしまう
以下のプロンプトを使えば、AI自身に出力のセルフチェックをさせることもできます。
# 出力セルフチェックプロンプト
以下の文章を、社外送信前のチェックリストに基づいて確認してください。
チェック項目:
1. 個人情報(氏名・連絡先・住所)が含まれていないか
2. 社名や取引先名が不必要に記載されていないか
3. 未公開の数字(売上・利益・契約金額)が含まれていないか
4. 事実確認が必要な記述(統計データ・法律の引用)はあるか
5. 著作権上の問題がありそうな表現はないか
問題がある箇所は「【要確認】」マークを付けて指摘してください。
チェック対象の文章:
(ここに確認したい文章を貼り付け)
ただし、AIのセルフチェックだけでは不十分です。最終判断は必ず人間が行ってください。AIが「問題なし」と判断しても、人間の目で確認する工程は省略しないことが鉄則です。
ルール5. 社内ガイドラインを策定し、定期的に更新する
ルール1〜4を個人の判断に任せるのではなく、社内ガイドラインとして文書化することが5つ目のルールです。ガイドラインに含めるべき項目は以下の通りです。
- 利用可能なAIサービスの一覧: 会社として利用を許可するサービスを明示する(シャドーIT防止)
- データ分類表(レッド/イエロー/グリーン): ルール1で定義した分類を全社員が参照できる形にする
- 匿名化の手順: ルール2のプロンプト例を含む具体的な手順書
- 学習設定の確認手順: ルール3のサービス別設定方法
- レビュープロセス: ルール4の確認フローを部門ごとに定義
- インシデント発生時の報告フロー: 「誤って機密情報を入力してしまった」場合の対応手順
- 更新頻度: 四半期に1回はガイドラインの見直しを行う
# 社内AIガイドライン作成プロンプト
以下の条件で、社内向け生成AI利用ガイドラインのたたき台を作成してください。
会社の概要:
- 業種: (例: IT企業 / 製造業 / サービス業)
- 従業員数: (例: 50名)
- 利用予定のAIサービス: (例: ChatGPT Team、Microsoft Copilot)
ガイドラインに含める項目:
1. 目的と適用範囲
2. 利用可能なAIサービス一覧と選定理由
3. データ分類(入力禁止 / 加工して利用 / そのまま利用可)
4. 匿名化・マスキングの具体的手順
5. 学習データ利用の設定確認手順(サービス別)
6. 出力内容のレビュープロセス
7. インシデント発生時の報告・対応フロー
8. ガイドラインの更新頻度と責任者
出力形式: 見出し付きのドキュメント形式(各項目300文字程度)
AI導入の全体的な進め方やDX推進と組み合わせた活用戦略については、姉妹サイトDXマスターズ.TOKYOでも詳しく解説しています。
3段階チェックリスト — 導入前・運用中・インシデント発生時
生成AIを社内で安全に使うためのチェックリストを3段階で整理しました。印刷して手元に置いておくか、社内共有ドライブに保存してください。
導入前チェックリスト
- ☐ 利用するAIサービスの利用規約・プライバシーポリシーを確認した
- ☐ 学習設定のオフ方法を全利用者に周知した
- ☐ データ分類表(レッド/イエロー/グリーン)を作成・共有した
- ☐ 匿名化手順書(プロンプトテンプレート含む)を整備した
- ☐ 社内ガイドラインの初版を作成した
- ☐ インシデント発生時の報告ルートを決めた(誰に、どのように連絡するか)
- ☐ 法人プランの費用対効果を検討した(個人プランで業務利用のリスクを認識している)
運用中チェックリスト(月次確認推奨)
- ☐ 全社員の学習設定がオフになっているか確認した
- ☐ 禁止情報の入力事例がないか確認した(ログ確認またはヒアリング)
- ☐ AIサービス側の利用規約・プライバシーポリシーが更新されていないか確認した
- ☐ 社員から「判断に迷った」事例がないか収集した
- ☐ ガイドライン(四半期更新)の見直し時期が来ていないか確認した
- ☐ 新しいAIサービスを勝手に使い始めている社員がいないか確認した(シャドーIT)
インシデント発生時チェックリスト
- ☐ 入力してしまった情報の種類・内容・入力先サービスを記録した
- ☐ 即座に上長・情報セキュリティ担当者に報告した
- ☐ 該当する会話・セッションを削除または無効化した(サービス側の手順に従う)
- ☐ 入力情報に個人情報が含まれる場合、個人情報保護委員会への報告要否を判断した
- ☐ 関係者(取引先・顧客等)への通知要否を法的観点から判断した
- ☐ 再発防止策を検討し、ガイドラインに反映した
実務での活用例 — ルールなし vs. ルールありの違い
5つのルールを導入する前と後で、実際の業務がどう変わるかをBefore/Afterで見てみます。
【Before】ルールなしの場合
ある中小企業の営業部で、社員がChatGPTを使って顧客向け提案書を作成しているケースです。
- 社員Aが顧客リスト(会社名・担当者名・連絡先・商談金額)をそのままChatGPTに入力して提案書のドラフトを作成
- 学習設定はデフォルト(オン)のまま
- 生成された提案書の数字を確認せずにそのままメールで送付
- 別の社員Bも同様に使っているが、使い方のルールが共有されていない
起こりうる問題:
- 顧客の個人情報がAIの学習データに含まれるリスク
- AIが生成した架空の数字がそのまま提案書に記載され、信用問題に発展
- インシデント発生時に「誰が何を入力したか」が追跡できない
【After】5つのルールを導入した場合
同じ営業部で5つのルールを導入した後のフローです。
- 社員Aは入力前にデータ分類表を確認。顧客リストは「レッド」なのでそのまま入力しない
- 匿名化プロンプトを使い、「X社のAさん、商談金額は約1,000万円」に加工してから入力
- ChatGPT Teamプランを利用しており、学習設定はオフ
- 生成された提案書はセルフチェックプロンプトで確認した後、上長がレビューして送付
- 全社員が同じガイドラインに基づいて運用しており、四半期ごとに見直しを実施
結果:
- 情報漏洩リスクを最小限に抑えながら、AIによる業務効率化のメリットを享受できている
- インシデントが起きても「どの段階で何が起きたか」を追跡できる
- 新入社員もガイドラインを読めばすぐに安全な使い方を理解できる
よくある質問(FAQ)
Q1. 無料版のChatGPTは業務利用に危険ですか?
A. 「絶対に危険」ではありませんが、リスクが高い状態といえます。無料版では、設定を変更しない限り会話データがモデル改善に使用されます。また、法人プランで提供される「商用データ保護」の契約上の保証がないため、万一の際に企業として説明責任を果たしにくい状況になります。個人情報や機密情報を含まない業務(文章校正・アイデア出しなど)であれば、学習設定をオフにした上で利用することは可能です。ただし、本格的な業務利用にはChatGPT Teamプラン以上を推奨します。
Q2. 社内サーバーや閉鎖環境でAIを動かすことはできますか?
A. 可能です。オープンソースのLLM(大規模言語モデル)を社内サーバーに構築する方法があります。代表的なツールとして「Ollama」(PC・サーバーにLlamaやMistral等のモデルをインストールして動かす)があります。データが外部サーバーに送信されないため、情報漏洩リスクを大幅に下げられます。ただし、精度はChatGPT等のクラウドAIより劣る場合が多く、サーバー構築・保守のコストも必要です。高い機密性が求められる業種(医療・金融等)では有力な選択肢です。詳しくはリナックスマスター.JPでも解説しています。
Q3. AIに入力した情報が他社に見られることはありますか?
A. 通常、直接「他のユーザーに見られる」ことはありません。ただし、学習設定がオンの場合、入力データがモデルの学習に使われ、将来的に他のユーザーへの回答に影響を与える可能性はゼロではありません。また、AIサービス側のセキュリティインシデント(不正アクセスなど)が発生した場合に、保存された会話履歴が流出するリスクも理論的には存在します。「漏れない保証はない」という前提でデータ管理を行うことが基本姿勢です。
Q4. AIの利用を全面禁止にする会社もありますが、それが最善ですか?
A. 全面禁止が最善とはいえません。禁止しても、社員が個人のスマートフォンや個人PCから業務にAIを使う「シャドーIT」が発生し、むしろ管理が難しくなるリスクがあります。Samsung社も当初は全面禁止を選択しましたが、その後、管理された環境でのAI活用に方針転換しています。「禁止」ではなく「安全なルールのもとで活用する」が現実的かつ競争力維持に資するアプローチです。
Q5. 個人情報保護法との関係はどうなりますか?
A. 生成AIへの個人情報の入力は、個人情報保護法上の「第三者提供」または「委託」に該当する可能性があります。AIサービス提供会社(OpenAI、Google等)が個人情報を処理する場合、委託先管理の観点から適切な監督が求められます。また、AIサービスが個人情報を学習に利用する場合は、利用目的の範囲外利用となる可能性もあります。社内ガイドライン策定時は、個人情報保護法の専門家(弁護士・社労士)に相談することを推奨します。
Q6. 小規模な会社でも社内ガイドラインは必要ですか?
A. 従業員数に関わらず、1人でも生成AIを業務利用するなら何らかのルールが必要です。ただし、小規模企業向けには「A4一枚の簡易ガイドライン」から始めることを推奨します。最低限、「入力してはいけない情報の種類」と「学習設定のオフ手順」を明文化するだけでも、リスクは大幅に低減します。完璧なガイドラインを整備してから使い始めるより、シンプルなルールを今日から運用することの方が重要です。
Q7. AIが出力した文章は著作権の問題がありますか?
A. 現時点(2026年4月)の日本の著作権法では、AIが自律的に生成した表現物は著作権保護の対象外とされる見解が一般的です。ただし、AIの出力が人間の著作物をほぼそのまま再現している場合は、著作権侵害の可能性があります。社外に公開する文書や商業利用する場合は、生成された文章が既存の著作物と酷似していないか確認することを推奨します。
Q8. ChatGPTとClaudeを使い分けるべきですか?
A. セキュリティ観点では、どちらも法人プランを利用すれば学習利用がオフになるため、基本的な安全性に大きな差はありません。使い分けの基準は、セキュリティよりも用途・精度・コストで判断するのが適切です。長文の要約・文書作成にはClaude、プログラム生成・コード補完にはChatGPTが得意とされています。複数ツールを使う場合は、「どのツールにどの情報を入力するか」のルールを整理しておくことが重要です。
本記事のまとめ
生成AIの情報漏洩リスクは「過度に恐れて使わない」ことでも「無防備に使う」ことでもなく、適切なルールのもとで活用することで管理できます。本記事で解説した5つのルールを改めて整理します。
| ルール | ポイント | すぐできること |
|---|---|---|
| 1. 入力禁止情報の定義 | レッド/イエロー/グリーンの3段階分類 | 分類表をA4一枚にまとめて共有 |
| 2. データの匿名化 | 固有名詞・数値をマスキング | 匿名化プロンプトをテンプレ化 |
| 3. 学習設定オフ | サービス別に設定を確認 | 全社員の設定を一斉確認 |
| 4. 出力の人間レビュー | 数字・固有名詞・機密情報を確認 | セルフチェックプロンプトを活用 |
| 5. ガイドライン策定 | 文書化+四半期更新 | たたき台プロンプトで初版作成 |
まずはルール1の「データ分類表の作成」とルール3の「学習設定オフの確認」から始めるのがおすすめです。この2つだけでもリスクは大幅に低減します。そこから段階的にガイドラインを整備していけば、AIを安全に、かつ最大限に活用できる体制が整います。
生成AIを安全に業務活用する方法、もっと知りたくありませんか?
情報漏洩対策だけでなく、プロンプトの書き方や業務効率化のテクニックなど、実務で使えるAI活用ノウハウを毎週お届けしています。
生成AIを”使う側”から”使いこなす側”へステップアップしたい方へ、メルマガで実践的なAI活用ノウハウをお届けしています。


コメント