生成AIで情報漏洩が起きたらどうする?初動対応フロー&インシデント対応マニュアルの作り方
月曜の朝9時。総務部の内線が鳴った。
「すみません、週末にChatGPTで取引先の契約書をレビューしてもらったんですが……これ、外に漏れてないですよね?」
声のトーンからして、かなり焦っている。でも電話を受けた総務担当も、正直どう答えればいいかわからない。上司に報告すべき? それともIT部門? ChatGPTの運営元に連絡する? 個人情報保護委員会への届け出は必要?
こういう場面で「次に何をすべきか」を即答できる会社は、実はかなり少ないです。
この記事では、生成AIに関するインシデント(セキュリティ事故)が起きたときの初動対応フローと、社内にそのまま展開できるマニュアルの作り方を解説します。読み終えたら、すぐに自社用の対応体制を整えてみてください。
目次
- 1. 生成AIインシデントとは——起こりうる5つのパターン
- └ 1-1. 「漏洩」以外のインシデントを見落としていないか
- └ 1-2. 中小企業で実際に多い3つのパターン
- 2. 最初の1時間が勝負——初動対応6ステップフロー
- └ 2-1. 発見・報告・影響確認(ステップ1〜3)
- └ 2-2. 封じ込め・復旧・再発防止(ステップ4〜6)
- └ 2-3. 報告先リスト——社内・社外どこに連絡する?
- 3. インシデント別の具体的な対応手順
- └ 3-1. 機密情報・個人情報をAIに入力した場合
- └ 3-2. AI生成コンテンツで誤情報を発信した場合
- 4. そのまま使えるインシデント対応マニュアルの作り方
- └ 4-1. マニュアルに入れるべき7項目
- └ 4-2. 年1回のシミュレーション訓練で実効性を担保する
- 5. よくある質問
- 6. まとめ
本記事は生成AIのセキュリティ対策について詳しく解説しています。生成AIのセキュリティリスク全体を把握したい方は、まず中小企業のAIセキュリティ完全ガイド【2026年版】をご覧ください。
生成AIインシデントとは——起こりうる5つのパターン
生成AIインシデントは「情報漏洩」だけではない。誤情報発信・著作権侵害・コンプライアンス違反を含む5パターンを把握し、自社のリスクを棚卸しすることが対策の出発点。
生成AIインシデントとは、生成AIの利用に起因して発生するセキュリティ事故やトラブルの総称です。「情報漏洩」だけを想像しがちですが、実際にはもっと幅が広い。
まず5つの類型を整理します。
| 類型 | 具体例 | 影響度 |
|---|---|---|
| 機密情報の漏洩 | 未発表の製品情報や取引先との契約条件をAIに入力 | 高 |
| 個人情報の漏洩 | 顧客リスト・従業員の評価データをAIに入力 | 高(法的リスクあり) |
| 誤情報の発信 | AIが生成した不正確な数値や事実をそのまま公開 | 中〜高 |
| 著作権侵害 | AI出力をそのまま使い、既存著作物と酷似したコンテンツを公開 | 中 |
| コンプライアンス違反 | 業法・社内規定に反する内容をAIで作成し外部に送付 | 中〜高 |
「漏洩」以外のインシデントを見落としていないか
セキュリティ対策というと、どうしても「情報漏洩」に意識が集中します。もちろんそれは最重要テーマ。ただ、現場で地味に増えているのは「誤情報の発信」と「著作権侵害」の2つです。
たとえば、AIが生成した市場データをそのままプレスリリースに使ってしまう。あるいは、AIが出力した文章が他社のWebサイトとほぼ同じ表現だった——こうしたケースは「漏洩」ではないので見過ごされやすい。
でも企業の信用に与えるダメージは、情報漏洩と同じくらい深刻です。
生成AIの著作権リスクについて詳しく知りたい方は、生成AIの著作権リスクの記事も参考にしてください。
中小企業で実際に多い3つのパターン
5つの類型すべてに備えるのが理想ですが、リソースが限られる中小企業では優先順位が大事。現場で相談が多いのは次の3つです。
- 社員が「つい」機密情報を入力してしまう——悪意はない。「便利だから」とプロンプトに顧客名や単価を入れてしまうパターン
- AI生成テキストをノーチェックで外部に出す——メール文面やSNS投稿をそのまま送信。数字の間違いに誰も気づかない
- 個人情報をAIで「分析」してしまう——従業員の勤怠データや顧客の購買履歴をChatGPTに貼り付けて傾向分析を依頼
どれも「やっちゃダメだとは思っていたけど、つい……」というパターン。だからこそ、事前のルール策定と事後の対応マニュアルの両方が必要になります。入力してはいけない情報の一覧は生成AIに入力NGな情報チェックリストでまとめています。
最初の1時間が勝負——初動対応6ステップフロー
インシデント発生後の最初の1時間で8割が決まる。「発見→報告→影響確認→封じ込め→復旧→再発防止」の6ステップを事前に決めておくことで、パニックによる二次被害を防げる。
インシデント対応で最もまずいのは「フリーズ」すること。何が起きたかわからず、誰に言えばいいかもわからず、とりあえず放置——これが二次被害を招きます。
対策はシンプルです。6つのステップを事前に決めておく。それだけで初動が180度変わります。
異常に気づいた人が「これはインシデントかもしれない」と認識する段階。判断に迷ったら「報告する」をデフォルトにする。
上長とIT担当(または総務)に第一報を入れる。この時点で全容がわからなくても構わない。「何を入力したか」「いつか」だけ伝える。
入力した情報の種類と範囲を特定。個人情報が含まれていたか、機密レベルはどの程度か、外部への影響はあるかを確認する。
AIサービス側にデータ削除を依頼。該当アカウントの一時利用停止。外部発信済みの誤情報があれば取り下げ。
影響を受けた業務の代替手段を確保。取引先への通知が必要なら、経営層の判断を仰いで実行する。
原因を分析し、ガイドライン・ルールを改訂。必要なら全社への再周知と追加研修を実施する。
発見・報告・影響確認(ステップ1〜3)——ここで8割決まる
ステップ1〜3のスピードで、その後の被害規模がほぼ決まります。
ここで一番の壁になるのは「報告しづらい空気」です。やらかした本人は怒られると思って黙る。上司は「大事にしたくない」と判断を先送りにする。その間にも学習データとして取り込まれるリスクは刻一刻と高まっていく。
「インシデント対応で最も大事なのは技術的な対処ではなく、『何かあったらまず報告する』という文化を作ること。報告した人を責めない——この一点を経営層が明言するだけで、初動スピードは劇的に変わる。」
— 生成AI顧問の視点「報告したら怒られる」ではなく「報告しなかったら怒られる」——このマインドセットを全社に浸透させることが、どんな技術対策よりも効果的です。
封じ込め・復旧・再発防止(ステップ4〜6)——二次被害を止める
封じ込めで最初にやるべきは、AIサービス側へのデータ削除リクエストです。主要サービスの対応状況を把握しておきましょう。
| サービス | 会話履歴の削除 | 学習データからの除外 |
|---|---|---|
| ChatGPT(無料・Plus) | ユーザーが手動で削除可能 | 設定でオプトアウト可能 |
| ChatGPT API | APIデータは30日後に自動削除 | デフォルトで学習に使用されない |
| ChatGPT Team / Enterprise | 管理者が一括管理可能 | デフォルトで学習に使用されない |
| Google Gemini(無料) | アクティビティから削除可能 | 無料版は学習に使用される可能性あり |
| Gemini for Workspace | 管理コンソールで管理 | デフォルトで学習に使用されない |
| Claude(API) | APIデータは自動削除 | デフォルトで学習に使用されない |
ChatGPTのデータ管理についてさらに詳しく知りたい方は、ChatGPTのデータ漏洩防止策も参考になります。
注意
無料版のChatGPTやGeminiでは、入力データが学習に使われる可能性があります。「削除した=安全」とは限りません。機密情報を扱う業務では、API版やビジネスプランの利用を検討してください。
復旧フェーズで見落としがちなのは、取引先への通知判断です。「漏洩した可能性がある」という段階で伝えるべきか、確定してからか。これは経営判断になるので、事前に基準を決めておくことをおすすめします。
報告先リスト——社内・社外どこに連絡する?
いざというときに「どこに連絡すればいいんだっけ?」とならないよう、報告先を事前に整理しておきましょう。
| 報告先 | タイミング | 報告内容 |
|---|---|---|
| 直属の上長 | 発見直後(15分以内) | 何を・いつ・どのサービスに入力したか |
| IT担当 / 情報セキュリティ責任者 | 上長報告と同時 | 入力データの種類・量・影響範囲の見込み |
| 経営層 | 影響範囲の概要判明後 | 被害の概要・対応方針案・外部通知の要否 |
| 個人情報保護委員会 | 個人データ漏洩の場合は速報3〜5日以内 | 法令に基づく報告フォーマット |
| 顧問弁護士 | 法的リスクがある場合 | 事実関係・想定される法的リスク |
| 取引先・顧客 | 経営判断後 | 漏洩の事実・影響範囲・再発防止策 |
ポイント
個人情報保護法の2022年改正により、個人データの漏洩が発生した場合(または発生のおそれがある場合)、個人情報保護委員会への報告と本人への通知が義務化されています。速報は事態を把握した日から3〜5日以内、確報は30日以内(不正アクセスの場合は60日以内)が期限です。
インシデント別の具体的な対応手順
インシデントの種類によって対応手順は異なる。「機密漏洩」「個人情報漏洩」「誤情報発信」の3パターンについて、発生直後に何をすべきかを具体的に整理する。
6ステップのフローは共通の枠組みですが、実際の動き方はインシデントの種類で変わります。ここでは特に発生頻度の高い3パターンに絞って、具体的なアクションを整理します。
機密情報・個人情報をAIに入力した場合
発覚直後のアクション(最初の30分):
- 入力した内容のスクリーンショットを保存する(証拠保全)
- AIサービスの当該チャット・セッションを削除する
- AIサービスの設定で「学習への利用」がオフになっているか確認する
- 上長・IT担当に第一報を入れる
次の1〜24時間のアクション:
- 入力したデータが個人情報に該当するか判断する(氏名・メールアドレス・電話番号・住所などが含まれていたか)
- 個人情報に該当する場合、個人情報保護委員会への報告準備を始める
- 取引先の機密情報が含まれていた場合、取引先への通知要否を経営層が判断する
- AIサービス提供元にデータ削除の正式リクエストを送る
ここで知っておくべき事実があります。ChatGPTのWeb版(無料・Plus)では、デフォルトでユーザーの入力がモデル改善に使われる設定になっています。つまり設定を変えていなければ、入力した情報がOpenAIの学習データに取り込まれる可能性がある。
「知らなかった」では済まされません。だからこそ、社内ガイドラインで利用プランや設定を事前に統一しておくことが大事なんです。ガイドラインのテンプレートは社内ガイドラインテンプレートで公開しています。
AI生成コンテンツで誤情報を発信した場合
発覚直後のアクション:
- 該当コンテンツを即座に非公開 or 取り下げる
- 誤情報の内容と事実を整理する
- 誤情報が拡散されている範囲を確認する(SNS、メール、プレスリリースなど)
- 訂正版を作成し、同じチャネルで訂正情報を発信する
誤情報の発信は、生成AIのハルシネーション(もっともらしいウソを生成する現象)が原因になるケースがほとんど。AIの出力を鵜呑みにせず、人間がファクトチェックする体制が必須です。ハルシネーション対策についてはハルシネーション対策ガイドで詳しく解説しています。
インシデント対応体制の整備について無料で相談する →そのまま使えるインシデント対応マニュアルの作り方
マニュアルは「作ること」がゴールではない。A4で1〜2ページの初動フローと、詳細手順の別紙で構成し、年1回のシミュレーション訓練で実効性を確保することがゴール。
「マニュアルを作って満足する会社をたくさん見てきた。棚にしまわれて誰も読まないマニュアルは、存在しないのと同じ。大事なのは年1回でいいから訓練で使うこと。1回使えば、いざというとき手が動く。」
— 生成AI顧問の視点マニュアルに入れるべき7項目
インシデント対応マニュアルは、大きく「初動フローシート(A4 1〜2ページ)」と「詳細手順書(別紙10ページ程度)」の2部構成が使いやすい。
初動フローシート(壁に貼る用)に入れる内容:
- インシデントの定義——何が「インシデント」に該当するのか。判断に迷ったら報告する、と明記
- 報告先と連絡手段——担当者名・電話番号・メールアドレス。代理者も記載
- 初動6ステップのフロー図——前述の6ステップを図解。各ステップの目標時間も明記
詳細手順書(別紙)に入れる内容:
- インシデント類型別の対応手順——5つの類型ごとに「やること」「やってはいけないこと」を整理
- 外部報告の基準と手順——個人情報保護委員会への報告基準、取引先通知の判断基準
- 証拠保全の方法——スクリーンショットの撮り方、チャット履歴のエクスポート方法
- 再発防止のテンプレート——原因分析シート、改善策の記録フォーマット
この構成にしておけば、緊急時はフローシートだけ見れば動けます。落ち着いてから詳細手順書を参照する——この2段構えが現場で機能するマニュアルのコツです。
BoostXの生成AIコンサルティングでは、こうしたマニュアルの策定から社内展開まで一貫して支援しています。
年1回のシミュレーション訓練で実効性を担保する
マニュアルを配布しただけでは、いざというときに使えません。年1回、30分程度のシミュレーション訓練をやるだけで実効性が段違いに上がります。
訓練シナリオ例:
| シナリオ | 設定 | 確認ポイント |
|---|---|---|
| シナリオA | 営業担当が顧客の見積書をChatGPTに入力して要約を作成した | 第一報のスピード、報告先の正確さ |
| シナリオB | マーケ担当がAI生成した市場データを含むプレスリリースを配信。数値に誤りがあった | 取り下げ判断の迅速さ、訂正対応の手順 |
| シナリオC | 人事担当がAIで従業員評価データを分析。個人名が含まれていた | 個人情報該当の判断、保護委員会への報告手順 |
訓練の進め方(所要30分):
- シナリオを参加者に提示(5分)
- マニュアルを見ながら対応手順を議論(15分)
- 振り返り——うまくいった点・つまずいた点を共有(10分)
ここで逆張りをひとつ。「訓練は形だけで意味がない」という声もありますが、それは訓練のやり方が悪いだけです。ポイントは「マニュアルを見ながらやること」。暗記テストではなく、マニュアルの使い方を体で覚える場にすること。これなら30分で十分効果があります。
BoostXが選ばれる理由のひとつは、こうした訓練設計まで含めた伴走支援を行っている点です。
よくある質問
Q.マニュアルは何ページくらいが適切ですか?
A.緊急時に見る初動フローはA4で1〜2ページに収めてください。壁やデスクに貼れるサイズ感です。詳細な対応手順は別紙として10ページ程度にまとめるのがベター。分厚いマニュアルは非常時に読まれません。「すぐ見られる」が最優先です。
Q.対応の責任者は誰にすべきですか?
A.第一報の受付窓口はIT担当か総務が適任です。最終的な判断(外部への通知、業務停止など)は経営層が下します。大事なのは代理者も事前に決めておくこと。責任者が出張中・休暇中に事故が起きるケースは珍しくありません。
Q.社員がAIに機密情報を入力してしまったら、まず何をすべきですか?
A.最初にやるべきは上長とIT担当への報告です。並行して、AIサービスの会話履歴を削除し、学習利用のオプトアウト設定を確認してください。ChatGPT APIやTeam/Enterpriseプランであればデフォルトで学習に使われませんが、無料版やPlusは設定変更が必要です。
まとめ
この記事のまとめ
- 生成AIインシデントは「情報漏洩」だけではない。誤情報発信・著作権侵害・コンプライアンス違反を含む5つの類型がある
- 初動対応は「発見→報告→影響確認→封じ込め→復旧→再発防止」の6ステップ。最初の1時間が勝負
- 最も効果的な対策は「何かあったらまず報告する」文化の構築。報告した人を責めないと経営層が明言すること
- マニュアルは初動フローシート(A4 1〜2枚)+詳細手順書(別紙10ページ程度)の2部構成が実用的
- 年1回30分のシミュレーション訓練でマニュアルの実効性を担保する
インシデントは「起きるかどうか」ではなく「いつ起きるか」の問題です。準備があるかないかで、その後の被害規模も信用への影響もまったく違ってきます。
生成AIのセキュリティ対策を体系的に進めたい方は、中小企業のAIセキュリティ完全ガイド【2026年版】で全体像を確認できます。
「マニュアルを作りたいけど、自社だけでは不安」「対応体制の設計を手伝ってほしい」という方は、無料相談の流れをご確認ください。売り込みはしません。現状のリスクと優先すべき対策を一緒に整理するところから始めましょう。
※本記事の情報は2026年3月時点のものです。