データプライバシー:AIと絶対に共有してはいけない情報
メニューを表示するにはスワイプしてください
プロンプトエンジニアリングはAIをより有用にする手法。しかし、良いプロンプトの書き方を知ることと同じくらい、プロンプトに入力してはいけない内容を理解することも重要。
AIツールに何かを入力する際、そのテキストは外部の第三者企業が運営するサーバーに送信される。この仕組みと、それによって生じるリスクを理解することは、業務でAIを利用するすべての人にとって不可欠。
AIツールによる入力データの取り扱い
多くの一般向けAIツール(ChatGPT、Claude、Geminiの無料プランなど)は、明示的にオプトアウトしない限り、会話内容をモデル改善のために利用する場合がある。
つまり、入力したテキストが企業の担当者によって確認されたり、学習データとして利用されたり、長期間保存されたりする可能性がある。
これに対し、エンタープライズ版(Microsoft 365向けMicrosoft CopilotやClaude for Enterpriseなど)は、データを学習に利用しないなど、より強力なデータプライバシー保証を提供。ただし、これらは有料の組織向けサブスクリプションと特定の設定が必要。
自分の組織がどのバージョンを利用しているか不明な場合は、機密情報をAIツールに入力する前にIT部門やセキュリティ担当に確認すること。
一般向けAIツールに絶対入力してはいけない情報
原則として、AIチャットインターフェースは公開フォーラムと同じように扱い、内容が他者に見られる可能性があると考えること。
絶対に入力してはいけない情報:
- 顧客、取引先、従業員などの個人情報(氏名、メールアドレス、電話番号、ID番号、住所など)
- 財務データ(口座番号、取引明細、給与情報、非公開の予算数値など)
- 個人の健康・医療情報
- パスワード、APIキー、認証情報など
- 機密性の高い業務情報(未公開の製品情報、M&Aの議論、戦略計画、独自の研究内容など)
- 秘匿または機密内容を含む法的文書
安全な代替策:リスクなしでAIの支援を受ける方法
機密データを保護する必要があっても、AIを業務に活用することは可能。実践的な回避策は以下の通り:
- プロンプト入力前に匿名化 — 実名を「クライアントA」「従業員X」などの仮名に置き換えてからAIに入力する;
- データを貼り付けず状況を説明 — 機密文書を貼り付ける代わりに、問題の種類を説明し、フレームワークやアプローチを尋ねる;
- エンタープライズ向けツールの利用 — 組織がMicrosoft 365 Copilotなどを導入している場合、これらのツールは通常より厳格なデータ保護規約で運用される;
- 機密内容はローカルで管理 — AIで構成や文章を作成し、機密情報は自分でオフラインで入力する。
組織のポリシーを確認
多くの組織では、AI利用に関する内部ポリシーを策定または公開済み。これらは通常、以下を明記:
- 業務で利用が承認されているAIツール;
- 入力可能・不可なデータのカテゴリ;
- 会社専用AI環境の有無;
- AI利用に関する懸念やインシデントの報告方法。
組織にポリシーがある場合は必ず遵守。未策定の場合は、上記の保守的な基準を適用し、指針が示されるまで従うこと。
フィードバックありがとうございます!
AIに質問する
AIに質問する
何でも質問するか、提案された質問の1つを試してチャットを始めてください