ChatGPTに入力したデータはどこへ行く?API版とWeb版の流出リスクと防止策
目次
「API版を使えばデータは安全」——この認識、実は半分しか正しくありません。
ChatGPTやClaudeなどの生成AIを業務で使うとき、多くの方が気にするのが「入力したデータがどこに行くのか」という問題です。ネットで調べると「Web版は危険、API版なら安全」と書かれた記事がたくさん見つかりますね。
でも、率直に言うと、この二元論は危険です。API版にはAPI版の落とし穴がありますし、Web版も正しく設定すれば業務利用できます。大事なのは「どのツールを使うか」ではなく「どう使うか」のルール整備なんです。
この記事では、データ流出が起きる4つの経路を整理し、API版とWeb版の違いを正しく理解したうえで、中小企業が今すぐできる防止策をお伝えします。
生成AIの「データ流出」はどこで起きるのか?4つの経路
【結論】データ流出リスクは「AIの学習に使われる」だけではない。通信経路・ログ保存・外部連携・人的ミスの4経路すべてを押さえないと対策は不十分。
「データ流出」と聞くと、多くの方が「入力した情報がAIの学習データに使われる」ことだけを想像します。ただ、これは4つある経路のうちの1つにすぎません。
経路1|学習データへの利用
生成AIサービスの多くは、ユーザーが入力したデータをモデル改善のために使う場合があります。ChatGPTの無料プランやPlusプランでは、初期設定で学習利用がオンになっています。つまり、あなたが入力した顧客情報や社内データが、将来のモデルのトレーニング素材になりうるということです。
ここが「Web版は危険」と言われる最大の理由ですね。ただし、これはオプトアウト(学習利用の停止)設定で対策できます。詳しくは後半で解説します。
経路2|通信経路での漏洩
入力データはインターネットを通じてサーバーへ送られます。通信が暗号化されていなければ、途中で傍受される可能性がゼロではありません。主要な生成AIサービスはTLS暗号化を使っていますが、社内ネットワーク環境やVPN設定によってはリスクが変わってきます。
経路3|ログ・会話履歴の保存
意外と見落とされがちなのがこの経路。学習に使わない設定にしていても、サービス提供者はログを一定期間保存しています。OpenAIの場合、オプトアウト後も不正利用監視のために最大30日間ログが保持されます。Anthropicのオプトアウトユーザーも同様に30日間の保持期間があります。
「学習に使われない=データが残らない」ではないんです。ここは誤解が多いポイントですね。
経路4|外部連携(プラグイン・GPTs)からの流出
ChatGPTのGPTsやプラグイン、GeminiのConnected Appsなど、外部サービスとの連携機能を使う場合、データが第三者のサーバーに送信される場合があります。連携先のプライバシーポリシーはサービス提供者とは別のもの。ここを確認せずに使っている企業は少なくないでしょう。
ご覧のとおり、API版だから全部安心、Web版だから全部ダメ、という単純な話ではありません。経路ごとに対策を考えることが大切です。
API版とWeb版——何が違って、何が同じなのか
【結論】API版は学習に使われないのが標準だが、APIキー漏洩や設定ミスというAPI固有のリスクがある。「API版=安全」は思考停止。
「学習に使われない=安全」ではない理由
API版の最大のメリットは、入力データがモデルのトレーニングに使われないこと。OpenAI、Anthropic、Google Cloudとも、API経由のデータは学習に使わないと明言しています。
ただ、それだけで安全と言い切れるでしょうか? 前のセクションで見たとおり、データ流出経路は「学習利用」だけではありません。ログ保存も通信も外部連携もある。「学習に使われないから安心」と思い込む方が、対策がゆるくなってかえって危険なんです。
API版固有のリスク——キー管理・IP制限・コスト
API版には、Web版にはないリスクが3つあります。
1つ目はAPIキーの漏洩。GitHubのパブリックリポジトリにAPIキーをうっかりコミットしてしまう事故は、開発者の間で後を絶ちません。漏洩したキーが悪用されれば、第三者が御社のアカウントで好きなだけAPIを叩ける。課金は御社持ちです。
2つ目はIP制限やアクセス制御の未設定。APIキーだけで認証している場合、どの端末からでもアクセスできてしまいます。IP制限や利用量の上限設定をしないまま運用している企業は珍しくありません。
3つ目は従量課金の管理。Web版なら月額固定ですが、API版は使った分だけ課金されます。社員が大量のデータを投げ続ければ、月末に想定外の請求が届くこともあります。
「API版にすれば安心」は思考停止です。APIキーが1つ漏れたときのダメージは、Web版の学習利用よりはるかに大きい場合がある。本当に守るべきはAPIキーの管理と、誰が何を入力できるかの運用ルールです。
— 生成AI顧問の視点
生成AIの利用形態に迷ったら、自社のリスクに合った使い方を専門家と一緒に整理するのがおすすめです。生成AI顧問サービスの詳細はこちらで解説しています。
ChatGPT・Claude・Geminiのデータポリシーを正しく読む
【結論】3サービスとも「API・法人プランは学習に使わない」が基本。差が出るのはWeb版の初期設定とデータ保持期間。
ここでは2026年3月時点の公式情報をもとに、主要3サービスのデータポリシーを比較します。ポリシーは頻繁に更新されるので、最新情報は各社の公式ページで確認してくださいね。
データポリシー比較表(2026年3月時点)
出典(各社公式ページ)
- OpenAI:How your data is used to improve model performance/Enterprise privacy at OpenAI(2026年1月更新)
- Anthropic:Is my data used for model training?/Updates to Consumer Terms and Privacy Policy(2025年8月発表)
- Google:Generative AI in Google Workspace Privacy Hub(2026年1月更新)/How Gemini for Google Cloud uses your data(2026年3月更新)
比較から読み取れる3つのポイント
ポイント1:API・法人プランは3社とも「学習に使わない」が標準。ここに大きな差はありません。
ポイント2:Web版の初期設定が違う。ChatGPTとGeminiは初期設定で学習利用がオン。Claudeは2025年10月のポリシー変更以降、ユーザーに選択を求める方式になりました。どのサービスも、設定を変えれば学習利用をオフにできます。
ポイント3:ログの保持期間は要チェック。Claudeはオプトイン時に最大5年の保持期間があります。Geminiはオフにしても短期的に72時間保持される場合がある。「オプトアウトした=データが即消える」ではない点は覚えておいてください。
ポイント
データポリシーは頻繁に変更されます。2025年だけでもAnthropicが大幅なポリシー変更を行いました。四半期に1回は各社の公式ページを確認する習慣をつけましょう。
中小企業がやるべき5つの防止策
【結論】ツール選びよりも「何を入力してよいか」のルール整備が最優先。5つの防止策を順番に実行すれば、Web版でも安全に業務利用できる。
誤解を恐れずに言うと、中小企業のデータ流出リスクの9割は「人的ミス」から生まれます。ツールの設定よりも、社員の使い方のルールを整えるほうがずっと効果的です。
防止策1|入力NG情報リストをつくる
まず最初にやるべきは、「生成AIに入力してはいけない情報」を明文化すること。顧客の個人情報、取引先との契約金額、社員の給与情報、未公開の経営計画——こうしたデータは、API版であってもWeb版であっても入力すべきではありません。リストを作って、全社員に共有してください。
防止策2|会社公認アカウントに統一する(シャドーAI対策)
正直なところ、もっとも怖いのはシャドーAI(会社が把握していないAI利用)です。社員が個人の無料アカウントで業務データを入力してしまうと、オプトアウト設定がされていないまま学習に使われてしまいます。会社が管理できるアカウントを用意し、「業務での生成AI利用は公認アカウントのみ」と明確にルール化しましょう。
防止策3|オプトアウト設定を全社で適用する
Web版を使う場合、オプトアウト設定は必須です。ただし「個人に任せる」のは危険。管理者がアカウントごとに設定を確認し、スクリーンショットで記録を残すところまでやるべきです。設定手順は次のセクションで解説します。
防止策4|APIキーの管理とアクセス制限
API版を使う場合は、キーの管理が生命線。具体的には、ソースコードにキーを直接書かない(環境変数を使う)、IP制限をかける、利用量の上限を設定する、キーを定期的にローテーションする——この4つは最低限やってください。
防止策5|四半期ごとのポリシー見直し
あまり語られませんが、AIサービスのデータポリシーは思っている以上に頻繁に変わります。2025年だけでもAnthropicがデータ学習に関する方針を大幅に変更しましたし、GoogleもGeminiのプライバシー設定に関して議論を呼ぶ変更を行いました。3ヶ月に1回、各サービスの最新ポリシーを確認し、社内ルールをアップデートする体制を作りましょう。
自社のリスクに合った利用形態の選定やセキュリティルールの策定は、生成AIの実務に精通した専門家と一緒に進めるのが効率的です。BoostXの生成AIコンサルティングでは、リスク評価からルール策定まで一気通貫で対応しています。
Web版を安全に使うためのオプトアウト設定手順
【結論】ChatGPTのWeb版は設定1つでデータ学習をオフにできる。「Web版=危険」は思い込み。3サービスとも1分以内で設定完了する。
ここからは各サービスのオプトアウト手順を具体的に説明します。画面のUIは更新されることがあるので、見つからない場合は「設定」→「プライバシー」系のメニューを探してみてください。
ChatGPT(OpenAI)のオプトアウト手順
プロフィールアイコンをクリック
画面右上のプロフィールアイコンから「Settings(設定)」を開きます。
Data Controls を選択
左メニューの「Data Controls」をクリックします。
「Improve the model for everyone」をOFF
トグルをオフにして「Done」を押せば完了。今後の会話が学習に使われなくなります。
注意
オプトアウトは「設定後の新しい会話」にのみ適用されます。過去の会話がすでに学習データに含まれていた場合、それを取り消すことはできません。早めの設定が大切です。
Claude(Anthropic)のオプトアウト手順
Claude(claude.ai)にログインし、「Settings」→「Privacy」→「Privacy Settings」へ進みます。「Help improve Claude」(またはそれに類する表記)のトグルをオフにすれば完了です。
Claudeでは2025年10月のポリシー変更で、消費者プラン(Free/Pro/Max)のユーザーに学習利用の選択が求められるようになりました。オプトアウトすればデータ保持期間は30日、オプトインすると最大5年です。一度でも過去にオプトインしていた場合は、古いチャットを再開しないよう気をつけてください。再開すると「再開されたセッション」として学習対象になりえます。
Gemini(Google)のオプトアウト手順
Geminiアプリ(gemini.google.com)の場合、「Activity」もしくは「Gemini Apps Activity」から設定できます。アクティビティの保存をオフにすると、以降の会話は学習に使われなくなります。
注意点として、Geminiの個人プラン(無料・Gemini Advanced含む)ではアクティビティをオフにするとチャット履歴も見られなくなります。「プライバシーか履歴か」のトレードオフがあるんですね。Google Workspaceの法人プランであれば、この制約はなく学習利用もされません。
これらの設定に不安がある方、全社員分の設定を一括管理したい方は、BoostXが選ばれる理由もあわせてご覧ください。セキュリティ設定の支援は、生成AI顧問サービスの中で対応しています。
よくある質問
まとめ
データ流出リスクとの向き合い方を整理してきました。「API版かWeb版か」の二択で考えるのではなく、自社の体制に合った運用ルールを作ることが最優先です。
まずは無料相談で、御社の現状のリスクを整理するところから始めてみませんか。
この記事のまとめ
- データ流出は「学習利用」「通信漏洩」「ログ保存」「外部連携」の4経路で起きうる
- API版は学習に使われないが、キー漏洩やアクセス制御不備などAPI固有のリスクがある
- Web版もオプトアウト設定をすれば学習利用を止められる。「Web版=危険」は誤解
- 中小企業のデータ流出対策の核心は、入力NGリスト・公認アカウント統一・定期的なポリシー見直し
- ツール選びよりも運用ルールの整備が、コストをかけずにできる最大の防御策
執筆者
吉元大輝(よしもとひろき)
株式会社BoostX 代表取締役社長
中小企業の生成AI導入を支援する「生成AI伴走顧問」サービスを提供。業務可視化から定着支援まで、一気通貫で企業のAI活用を推進している。
※本記事の情報は2026年3月12日時点のものです。