Microsoft Copilotを使う際の注意点|情報漏えいと誤出力への対策
Microsoft Copilotを業務で活用する際に注意すべき情報漏えいリスク・誤った情報への対処・社内ポリシーの確認方法を解説します。
この記事は、画面を見ながらそのまま操作できるように作っています。手順ごとに「今どこにいるか」を確認しながら進めてください。
この記事でわかること
- 全体の流れ
- 操作手順
- 用語・補足
- やってはいけない
- 確認ポイント
- よくある質問
まず押さえるポイント
Microsoft Copilotを業務で活用する際に注意すべき情報漏えいリスク・誤った情報への対処・社内ポリシーの確認方法を解説します。
- Copilotを安全に業務で使いたい
- 情報漏えいが心配で使い始められない
- 社員にCopilotの注意点を説明したい
- Copilotの出力を鵜呑みにしてミスをした
✅ 安全な方法
Copilotの出力は必ず人が確認・検証してから使用する
⚠ リスクがある方法
Copilotの回答をそのまま信用して確認なしに使用する
全体の流れ
操作手順
ここで確認:1.会社のCopilot利用ポリシーを確認する
Copilotを使う前に、会社のIT部門・情報セキュリティ部門が定めたAI利用ポリシーを確認します。Copilotの使用自体が制限されている場合もあります。
- ポリシーが見つからない場合はIT担当者に確認してください
画面右上・三点メニュー・歯車マーク・設定メニューを確認してください。表示が違う場合は、会社の管理設定や画面仕様変更の可能性があります。
ここで確認:2.入力してはいけない情報を把握する
以下の情報はCopilotに入力しないことを強く推奨します。①顧客の個人情報(氏名・住所・電話番号)②契約書・見積書の具体的な数字③社外秘・機密扱いの情報④パスワード・アカウント情報
- Microsoft 365のCopilotは組織内のデータを他組織に漏らさない設計ですが、機密情報を入力するリスクを認識してください
画面右上・三点メニュー・歯車マーク・設定メニューを確認してください。表示が違う場合は、会社の管理設定や画面仕様変更の可能性があります。
ここで確認:3.Copilotの出力を必ず確認・検証する
Copilotは事実と異なる情報(ハルシネーション)を生成することがあります。特に数値・日付・固有名詞は必ず元の情報で確認します。
- 「Copilotが言ったから正しい」という思い込みは危険です。出力は必ず検証してください
画面右上・三点メニュー・歯車マーク・設定メニューを確認してください。表示が違う場合は、会社の管理設定や画面仕様変更の可能性があります。
ここで確認:4.修正・加筆して使用する
Copilotの出力をそのまま使うのではなく、自分の知識・判断で修正・加筆してから使用します。文章生成は「たたき台」として活用するのが安全な使い方です。
- Copilotの出力を基に最終的な判断・責任は人間が持つことが重要です
画面右上・三点メニュー・歯車マーク・設定メニューを確認してください。表示が違う場合は、会社の管理設定や画面仕様変更の可能性があります。
先に知っておきたいこと
Microsoft 365のCopilotはMicrosoftのAIサービスを使用しています。入力データは組織のMicrosoft 365テナント内で処理され、他組織のAI学習には使用されません。ただし、Bing等のパブリックCopilotは同じではないため、利用するサービスを確認してください。
やってはいけないこと
- 個人情報・機密情報をCopilotに入力しない
- Copilotの出力を確認なしに顧客・取引先に送らない
- Copilotが生成した数値・法的情報を無検証で使用しない
- 会社のポリシーに反するCopilotの使い方をしない
うまくいかないときの確認ポイント
- 社内のAI利用ポリシーを確認したか
- 入力する情報に機密情報が含まれていないか
- Copilotの出力を人が検証してから使用しているか
- Copilotが生成した数値や事実を元情報で確認したか
よくある質問
この記事は役に立ちましたか?
他にも、Google Workspace・Microsoft 365のよくある疑問を
わかりやすく解説した記事を用意しています。
