第1回では生成AIがビジネスにもたらす「10大リスク」の全体像を、第2回ではそれらのリスクを防ぐための「自社がやるべき対策」と「ベンダーに任せる対策」の責任分界点を解説しました。
しかし、どんなに優れた技術的対策を導入しても、それを使う「人」の行動が伴わなければ、リスクは消えません。従業員がうっかり機密情報を生成AIに入力してしまう、AIの出力を鵜呑みにして誤った判断をする――こうした「人的リスク」に対する最も有効な盾が、「生成AI利用ガイドライン」です。
この記事では、実効性のあるガイドラインを策定するための具体的なステップ、盛り込むべき項目、そしてよくある失敗パターンとその回避策を解説します。
目次
なぜ「ガイドライン」が最も重要な防御策なのか
日本では2025年6月に「人工知能関連技術の研究開発及び活用の推進に関する法律」(いわゆるAI法)が公布・同年9月に施行され、また経済産業省・総務省の「AI事業者ガイドライン」も2026年3月に第1.2版へ更新されました。AIエージェントやフィジカルAIの定義が新たに追加されるなど、技術の進化を反映した内容になっています。
国際的にも、米国 NIST AI Risk Management Frameworkや、本連載で基軸としてきた OWASPのガバナンスチェックリストでも、組織としてのAI利用ポリシー策定の重要性が強調されています。「ガイドライン」は、技術的対策と人的運用をつなぐ「接着剤」の役割を果たすのです。
ガイドライン策定の5つのステップ
ステップ1:自社のAI利用状況の棚卸し
まず、現在自社で「どの部署が、どのAIツールを、何の目的で使っているか」を把握します。このステップを飛ばすと、現実に合わない「絵に描いた餅」のガイドラインになります。IT部門が承認していない「シャドーAI(無断利用)」の洗い出しも重要です。各部署へのヒアリングやアンケートを実施し、利用ツール・目的・扱うデータの種類を一覧化しましょう。
ステップ2:情報の機密区分を定義する
「機密情報は入力しないこと」というルールだけでは、現場は判断できません。「何が機密で、何が機密ではないのか」を具体的に定義することが重要です。以下のような分類が参考になります。
| データ区分 | 具体例 |
|---|---|
| 個人情報 | 氏名、住所、電話番号、メールアドレス、マイナンバー、顧客情報 |
| 要配慮個人情報 | 病歴、健康診断結果、信条、犯罪歴等 |
| 未公開の財務・経営情報 | 決算データ、M&A情報、未発表の事業計画、株価に影響する情報 |
| NDA対象情報 | 他社から秘密保持義務を課されて開示された一切の情報 |
| 営業秘密 | 独自アルゴリズム、ソースコード、製造ノウハウ、価格戦略 |
| 認証情報 | パスワード、APIキー、アクセストークン、証明書 |
個人情報保護委員会も2023年6月の注意喚起で、生成AIへの個人情報入力について注意を促しています。特に要配慮個人情報(病歴、信条等)はベンダーにおいても原則として本人同意なく取得してはならないとされており、ガイドラインでも明確に禁止すべきです。
ステップ3:利用シーン別のルールを作る
一律に禁止・許可するのではなく、利用シーンごとに「OKな使い方」と「NGな使い方」を明示します。以下は一例です。
| 利用シーン | OKな使い方 | NGな使い方 |
|---|---|---|
| 社内文書作成 | 一般的な文章の草案作成、要約、翻訳補助 | 機密情報を含む文書をそのまま貼り付けて入力 |
| コード生成 | 一般的なロジックの生成、デバッグ補助 | 自社のソースコードをそのまま入力 |
| 顧客対応 | FAQの草案作成(必ず人間が確認後に送信) | AIの回答を確認せずそのまま顧客に送信 |
| 法務・契約 | 一般的な法的論点の調査補助(必ず専門家が確認) | 事実確認なく法的書類や契約書にそのまま使用 |
ステップ4:承認フローとインシデント対応を整備する
新しいAIツールを業務に導入する際の審査プロセスと、事故が起きたときの報告フローの2つを整備します。既存のセキュリティインシデント対応体制があれば、AI固有の体制を新規に構築する必要はなく、その中にAI関連のフローを組み込む形でも構いません。個人情報の漏洩が発生した場合は、個人情報保護法に基づく個人情報保護委員会への報告義務がありますので、これも踏まえた内容にしましょう。
ステップ5:教育と定期的な見直しの計画を立てる
ガイドラインは作ったら終わりではありません。AI事業者ガイドライン自体も「Living Document(生きた文書)」として第1.0版→第1.1版→第1.2版と継続更新されています。自社のガイドラインも同様に、少なくとも半年に1回の見直しを計画しましょう。また、AI事業者ガイドライン 第1.2版でAIエージェントの定義が追加されたように、新技術の登場や重大インシデント発生時には臨時の見直しも行います。
ガイドラインに盛り込むべき7つの項目
JDLA(日本ディープラーニング協会)の「生成AI利用ガイドライン」ひな形やOWASPのチェックリスト、政府の「AI事業者ガイドライン」の内容を踏まえ、以下の7項目を推奨します。
① 目的と適用範囲
「なぜこのガイドラインが必要なのか」「誰に適用されるのか」を明記します。正社員だけでなく、契約社員・派遣社員・業務委託先も対象に含めるか検討しましょう。
② 利用を許可するAIツールのリスト(ホワイトリスト方式)
第1回で解説した「サプライチェーンの弱点」リスクを踏まえ、利用許可ツールを明示します。選定基準には、「入力データが学習に使われない契約形態か」「国内サーバー運用か」「監査ログが取得できるか」などを含めましょう。
③ 入力禁止データの明確な定義
ステップ2で整理した情報区分を、具体例付きでガイドラインに落とし込みます。「機密情報は入力禁止」ではなく、「顧客の氏名・連絡先、NDA対象情報、パスワードは入力禁止」のように具体的に示します。
④ AI出力物のクロスチェック義務と責任の所在
第1回で紹介した「エア・カナダのチャットボット誤案内」や「架空の判例生成」が示すとおり、AIの出力をそのまま使った結果の責任は利用者(企業)にあります。「外部公開する情報は必ず人間が事実確認を行う」ことをルール化しましょう。
⑤ AIを顧客対応に使う場合の開示ルール
AI事業者ガイドラインでも「AIを利用しているという事実及び活用範囲」の情報提供が求められています。EU AI ActではチャットボットがAIであることの透明性が義務化されており、グローバル企業は特に注意が必要です。
⑥ インシデント発生時の報告・対応フロー
「誰に、どのタイミングで、どう報告するか」を事前に定めます。「機密情報を誤って入力した」「AIの誤情報を顧客に伝えてしまった」など具体的なケースを想定しておくと、現場が判断しやすくなります。
⑦ 定期的な見直し・アップデートの義務
見直し時期と見直し責任者を明記します。OWASPの2025年版Top 10では、AIエージェントの自律的行動によるリスクが拡大されており、技術進化への追従は不可欠です。
よくある失敗パターンと「実効性」を高めるコツ
失敗例1:「全面禁止」→ シャドーAIの温床に
「リスクがあるから全面禁止」というアプローチは、実際には従業員が個人アカウントで勝手に利用する「シャドーAI」を生み出します。禁止ではなく「安全に使うためのルール」としてガイドラインを設計することが重要です。
失敗例2:「自由に使ってOK」→ 機密漏洩事故
明確なルールがないまま「便利だから使っていいよ」とだけ伝えると、従業員が悪気なく機密情報を入力してしまうリスクが高まります。実際に、エンジニアが社内システムのソースコードを生成AIに入力したことで社外秘情報の漏洩リスクが高まった事例は海外で複数報告されています。
失敗例3:「作ったきり放置」→ 技術進化に追いつけない
一度作ったガイドラインを放置すると、AIエージェントやマルチモーダルAIなどの新技術に対応できません。第1回で紹介した「M365 Copilot」の脆弱性事例のように、AIエージェントの自律的行動が想定外のリスクを生むケースが増えています。
「実効性」を高める3つのコツ
- 現場ヒアリングを先に行う:情報システム部門だけで作らず、各部署が「なぜ、どう使いたいのか」を把握してからルール化する
- 経営層のコミットメントを明示する:AI事業者ガイドラインでも繰り返し強調されているポイントです
- 完璧を目指さず、まず始める:最初から全てを網羅する必要はなく、運用しながら改善する
まとめ:ガイドラインは「生きた文書」として育てる
完璧なガイドラインを最初から作ろうとする必要はありません。まず最低限の項目で策定して運用を開始し、技術の進化や社内のフィードバックを反映しながら育てていくことが大切です。 なお、ガイドライン策定時には、AI事業者ガイドライン(第1.2版)の別添7「チェックリスト・ワークシート」および「活用の手引き」も併せてご活用ください。
次回は、セキュアなAIサービスやベンダーを選定する際のチェックポイントについて解説します。
▼シリーズ記事
● 【生成AIリスク管理①】生成AIがもたらす新たな脅威とは?ビジネスリーダーが知るべき「10大リスク」とインシデント事例
● 【生成AIリスク管理②】生成AIリスクをどう防ぐ?「自社でやるべき対策」と「ベンダーに任せる対策」の境界線は?
- OWASP Top 10 for LLM Applications 2025(OWASP Foundation、CC BY-SA 4.0)
- LLM Applications Cybersecurity and Governance Checklist v1.1(OWASP Foundation、CC BY-SA 4.0)
- AI事業者ガイドライン(第1.2版)および活用の手引き(経済産業省・総務省、2026年3月)
- NIST AI Risk Management Framework (AI RMF 1.0) (NIST、2023年1月)
- 生成AIサービスの利用に関する注意喚起等について(個人情報保護委員会、2023年6月)
- 生成AIの利用ガイドライン(第1.1版)(日本ディープラーニング協会、2023年10月)