生成AIに載せていいデータか判断する|社内ポリシーの条文化例
目次 クリックで開く
生成AI(ChatGPT、Claude、Geminiなど)の業務利用が急速に広がる中で、多くの企業が直面しているのが「どのデータをAIに入力して良いのか」という判断基準の策定です。現場の利便性を優先して無制限に許可すれば情報漏洩のリスクが高まり、逆に厳格すぎる制限をかければDX(デジタルトランスフォーメーション)の波に取り残されてしまいます。
本記事では、IT実務者の視点から、主要な生成AIサービスの仕様に基づいたデータ入力の判断基準と、そのまま社内規定として活用できる条文化の具体例を詳述します。
生成AI利用におけるデータ入力の判断基準
生成AIにデータを入力する際、最も警戒すべきは「入力したデータがAIモデルの学習に再利用されること」です。これにより、自社の機密情報が他者の回答として出力されるリスクが生じます。このリスクを判定するには、利用しているサービスの「プラン」と「規約」を正確に把握する必要があります。
データが「学習」に使われるかどうかの見極め方
一般的に、個人向けの無料版サービスは、入力データがモデルの改善(学習)に利用されることを前提としています。一方で、法人契約(Enterprise)やAPI経由での利用は、デフォルトで学習に利用されない設定となっていることがほとんどです。
しかし、中間のプラン(ChatGPT Plusなど)では、設定画面から「オプトアウト(学習拒否)」を明示的に選択しない限り、学習対象となる場合があるため注意が必要です。判断の優先順位は以下の通りです。
- API利用: 原則として学習されない(OpenAI、Anthropic、Google Cloud等)。
- 法人向けチャットUI(Enterprise/Team): 原則として学習されない。
- 個人向け有料版: 設定により学習をオフにできるが、デフォルトはオンが多い。
- 個人向け無料版: 原則として学習される。
【比較表】主要AIサービスのデータ取り扱い仕様一覧
主要なAIプロバイダーが公表しているドキュメントに基づき、データの扱いを整理しました(2026年4月時点の仕様に基づく)。
| サービス名・プラン | 学習への利用 | データの保持(ログ) | 備考(公式リファレンス) |
|---|---|---|---|
| ChatGPT (Free/Plus) | あり(設定でオフ可) | 原則無期限(履歴削除時まで) | OpenAI Data usage |
| ChatGPT (Team/Enterprise) | なし(デフォルト) | 管理者が制御可能 | エンタープライズ規約適用 |
| Azure OpenAI Service | なし(厳格に分離) | 30日間(不正監視用・申請でオフ可) | Microsoft Data, Privacy, and Security |
| Google Gemini (Enterprise) | なし | Google Workspaceの規約に準拠 | Google Workspace Security |
入力して良いデータ・悪いデータの「4象限」分類
社内で判断基準を周知する際は、データの重要度とAI側の学習設定を掛け合わせた「4象限」で整理すると分かりやすくなります。
- 【入力可】公開情報・一般的な知識: プレスリリース済みの内容、プログラミングの一般的な文法、公開されている統計データなど。
- 【注意】業務上の非公開情報(学習オフが前提): 議事録の要約、社内マニュアルの作成、企画案のブラッシュアップ。これらは「法人版」または「オプトアウト済み」の環境でのみ許可します。
- 【原則禁止】個人情報・顧客データ: 氏名、メールアドレス、住所、顧客から預かった秘密保持対象データ。匿名化(マスキング)を行わない限り、いかなるプランでも入力は避けるべきです。
- 【絶対禁止】極秘・インサイダー情報: 未発表の決算情報、M&A情報、独自のアルゴリズム、パスワードやAPIキーなどの認証情報。
こうしたデータの整理は、単なるツールの導入以上に重要です。例えば、SaaSアカウント管理の自動化と同様に、どのユーザーがどの権限でAIを利用しているかを把握できる環境を整えることが、ガバナンスの第一歩となります。
社内向け生成AI利用ガイドラインの条文化例
実務でそのまま利用できる社内規定のドラフトを作成しました。自社のセキュリティポリシーに合わせて調整してください。
【テンプレート】生成AI利用規定(基本方針編)
第1条(目的)
本規定は、当社従業員が生成AI(ChatGPT等の大規模言語モデルを含む)を業務で利用する際の基準を定め、情報漏洩の防止と知的財産の保護を図ることを目的とする。
第2条(利用可能なツール)
原則として、会社が契約を承認し、管理下にある法人用アカウント(以下「承認ツール」)のみを業務に利用できる。個人所有のアカウントや、会社が認めていない無料版サービスを業務データに対して利用することを禁止する。
【テンプレート】データ入力に関する禁止事項(実務編)
第3条(入力データの制限)
1. 従業員は、以下の各号に該当する情報を生成AIに入力してはならない。
(1) 当社または顧客の営業秘密(未発表のプロジェクト、技術情報等)
(2) 個人情報保護法に定義される個人情報(特定の個人を識別できる情報)
(3) 第三者から守秘義務を課されて受領した情報
(4) ID、パスワード、アクセストークン等の認証情報
2. 前項の情報を利用して生成AIを活用する場合、当該情報を特定の個人やプロジェクトが判別不能な状態に抽象化またはマスキングしなければならない。
【テンプレート】権利侵害と成果物の取り扱い(法務編)
第4条(成果物の確認義務)
生成AIによって生成された回答(以下「成果物」)には、誤情報(ハルシネーション)や、第三者の著作権を侵害する内容が含まれる可能性がある。従業員は、成果物をそのまま外部に公開せず、必ず内容の正確性を確認し、必要に応じて専門的な修正を行わなければならない。
特に、会計データや人事データを扱う場合は、より慎重な設計が求められます。給与ソフトと会計ソフトの連携のような機密性の高い業務フローをAIで効率化する際は、データの直接入力ではなく、項目名や構造の定義のみをAIに相談し、実データはセキュアなインフラ内で処理するアーキテクチャが推奨されます。
実務で必須となる「オプトアウト」と「環境構築」の手順
規約を作るだけでなく、システム側で物理的に「学習させない」設定を徹底することが、IT実務担当者の責務です。
ChatGPT(個人版・Team版)での学習拒否設定
ChatGPTの個人向け無料・有料版(Plus)を利用せざるを得ない場合、以下のステップで学習をオフにします。なお、この設定を行うとチャット履歴が保存されなくなるオプションもあるため、運用ルールを明確にする必要があります。
- ChatGPT画面左下のプロフィールアイコンをクリック
- 「Settings」を選択
- 「Data controls」を選択
- 「Chat history & training」をオフにする
※TeamプランやEnterpriseプランの場合、管理画面から組織全体で「学習に利用させない」設定がデフォルトで適用されていますが、再度管理者ダッシュボードで設定値を確認してください。
Azure OpenAI ServiceやVertex AIを選ぶべき理由
中堅以上の企業で、より高度なセキュリティとSLA(サービス品質保証)を求める場合は、OpenAI社と直接契約するのではなく、Microsoft AzureやGoogle Cloud(Vertex AI)経由でモデルを利用するのが一般的です。
- 閉域網接続: VPNや専用線を用いて、インターネットを経由せずにAIを利用可能。
- コンプライアンス: SOC2、ISO 27001などの各種認証に準拠。
- ログ管理: 誰がいつ何を投げたかを、企業のSIEM(セキュリティ情報イベント管理)に統合可能。
例えば、SFA・CRM・MAのデータ連携をAIで自動化する場合、顧客の行動ログという極めてセンシティブな情報を扱うため、こうしたクラウドベンダーのマネージドサービスを利用した「プライベートなAI環境」の構築が必須となります。
万が一の漏洩に備えたインシデント対応フロー
「入力してはいけない情報」を入力してしまった場合、迅速な初動が被害を最小限に抑えます。
機密情報入力が発覚した際の初動
- 履歴の削除: 該当するチャットのスレッドを即座に削除します。これにより、同じアカウントの他者から閲覧されるのを防ぎます。
- 証拠の保存: 何を入力してしまったのか、スクリーンショットやログで記録を残します(報告用)。
- 情シス・法務への報告: 社内のセキュリティガイドラインに従い、速やかに報告します。
AIプロバイダーへの削除依頼の現実性
残念ながら、一度「学習に利用される設定」で送信されたデータがモデルに取り込まれた場合、それを特定の個別のデータとしてモデルから「消去」することは技術的に極めて困難です(モデル全体の再学習が必要になるため)。
ただし、OpenAIなどは「プライバシーリクエスト」として、個人情報の削除申請を受け付けています。しかし、これは検索結果などと同様の対応であり、学習済みのニューラルネットワークからの完全な抹消を保証するものではない点に注意してください。したがって、「後で消す」ことはできないという前提で運用を徹底する必要があります。
まとめ:守りと攻めのバランスをどう取るか
生成AIのデータ入力判断は、「ツールを信じる」のではなく「規約とプランを信じる」ことが鉄則です。IT実務担当者としては、現場に「ダメ」と言うだけでなく、安全に利用できる「承認ツール(法人版やAPI環境)」を迅速に提供し、その中でのルールを条文化して示すことが求められます。
業務自動化の文脈では、AIはあくまで「エンジン」の一部であり、前後のデータ処理をいかにセキュアな基盤(BigQueryやGoogle Workspaceなど)で構築するかが鍵となります。正しい判断基準とポリシーを策定し、安全なDXを推進していきましょう。
実務担当者が陥りやすい「学習」以外の盲点
「学習に使われないプラン」を導入しても、セキュリティリスクがゼロになるわけではありません。多くのAIサービスでは、規約違反や悪用の監視を目的に、プロバイダー側の従業員や外部委託先が「入力内容をサンプリングして閲覧する権利」を一定期間保持している場合があります(例:Azure OpenAIの「不正監視のための30日間保存」など)。
完全な秘匿性が求められるデータを扱う際は、この「人間によるレビュー」も明示的にオプトアウト(または申請により免除)できるかを確認することが、真のエンタープライズ対応と言えます。
【チェックリスト】AIツール導入時のシステム評価項目
社内ポリシーを条文化するだけでなく、選定するツールが以下の技術的要件を満たしているか、情報システム部門と連携して確認してください。
| 評価項目 | 確認すべき内容 |
|---|---|
| SSO連携 | Microsoft Entra IDやOkta等で、退職者のアカウントを即時停止できるか |
| ログの監査 | 管理者がユーザーの入力履歴をエクスポートし、監査できるか |
| データ保存場所 | データの保存リージョンを指定できるか(日本国内限定など) |
| 人間によるレビュー | 不正監視目的のデータ閲覧をオプトアウト可能か |
公式ドキュメントと最新の信頼性情報
規約は頻繁にアップデートされるため、ポリシー策定の際は必ず各社の「トラストセンター(信頼性確認ページ)」の最新版を参照してください。
さらなる自動化とガバナンスの両立に向けて
生成AIの利用が全社に広がると、野良アカウントの増加による管理コストが肥大化します。SaaSアカウント削除漏れを防ぐ自動化アーキテクチャを導入し、ID管理基盤を統合することで、セキュリティポリシーの実効性を高めることが可能です。
また、AIに入力するデータそのものを自社のセキュアな基盤で管理したい場合は、BigQueryを中心としたモダンデータスタックの構築も検討してください。外部ツールへの依存を最小限に抑えつつ、安全にデータを活用する環境が整います。
ご相談・お問い合わせ
本記事の内容を自社の状況に当てはめたい場合や、導入・運用の設計を一緒に整理したい場合は、当社までお気軽にご相談ください。担当より折り返しご連絡いたします。