前回は、生成AIがビジネスにもたらす「10大リスク」と、実際に起きたインシデント事例について解説しました。生成AIが意図せず機密情報を漏洩させたり、もっともらしい嘘(ハルシネーション)で顧客や従業員を誤誘導したりするリスクは、企業にとって無視できない脅威です。
では、これらのリスクから自社を守るためには、具体的にどうすればよいのでしょうか?
結論から言えば、生成AIのセキュリティ対策は「自社のIT部門だけで完結するもの」でもなければ、「生成AIベンダーにすべて丸投げできるもの」でもありません。クラウドサービスを利用する際と同様に、生成AIシステムにおいても「ユーザー企業(自社)」と「AI提供ベンダー」の間で役割を分担する「責任分界点」の考え方が不可欠です。
今回は、OWASPのガイドラインに基づき、企業が生成AIを安全に導入・運用するために「自社で実施すべき対策」と「ベンダーに要求・実装を任せるべき技術的対策」を明確に整理して解説します。
目次
ユーザー企業(自社)が実施すべき対策:「業務プロセス」と「ルール」による防衛
ユーザー企業が担うべき最大の役割は、「生成AIを組み込んだ業務プロセスの設計」と「社内ルールの徹底(ガバナンス)」です。システムで防ぎきれないリスクは、人間の運用でカバーする必要があります。
① 「AIへの丸投げ」を防ぐ、人間の目による最終確認(ヒューマン・イン・ザ・ループ)の徹底
- 顧客へのメール送信
- データの削除
- システムの変更
- 決済処理
これにより、生成 AI や AI エージェントが外部からの攻撃で操られたり、誤作動を起こしたりした際の被害を未然に防ぐことができます。
② 最小権限の原則(*1)に基づく「社内データのアクセス権整理」
③ 従業員教育と「AI利用ガイドライン」の策定
※実効性のある「AI利用ガイドライン」に盛り込むべき具体的なポイントについては、次回の【生成AIリスク管理③】で詳しく解説します。
「何を守るか(業務要件)」は自社で明確に定義し、「どう守るか(システム実装)」はAI開発ベンダーやセキュリティ専門家のノウハウを積極的に活用していくことが、安全なAI導入の鍵となります。
ベンダーに要求すべき対策:「システム」の防護壁(ガードレール)
一方、生成AIやAIエージェントの裏側で動く技術的な防護線(ガードレール)の構築は、システムを提供するベンダーや開発パートナーの役割です。ユーザー企業は、システムの要件定義やベンダー選定の際に、以下の対策が組み込まれているかを「必須要件」として提示する必要があります。
① 入力データの「二次利用(学習)禁止」の保証とデータ隔離
② AIの権限・機能の「最小化」設計
③ リソース消費の制限と監視(DoS・高額請求対策)
④ システムプロンプトの分離と保護
まとめ:要件定義で「セキュリティ」を妥協しない
生成AIやAIエージェントの導入プロジェクトにおいて、ユーザー企業が自社の業務プロセスを整えることはもちろんですが、それと同じくらい「ベンダーに対して適切なセキュリティ要求を出すこと」が重要です。「AIシステムだからセキュリティはお任せで」という姿勢は、重大なビジネスリスクを招きます。
自社でカバーできない技術的なリスクは、契約や要件定義の段階でしっかりとベンダーに要求し、両輪で防御体制を築き上げることが、AIガバナンスの要となります。
次回は、従業員が安全に生成AIやAIエージェントを活用するための最大の盾となる「実効性のあるAI利用ガイドライン策定のポイント」について、具体的に何を盛り込むべきかを解説します。
▼シリーズ記事
● 【生成AIリスク管理①】生成AIがもたらす新たな脅威とは?ビジネスリーダーが知るべき「10大リスク」とインシデント事例
2025 Top 10 Risk & Mitigations for LLMs and Gen AI Apps
OWASP Gen AI Incident & Exploit Round-up, Q2’25
(Written By: Scott Clinton, Project Co-lead and Rock Lambrose, July 14, 2025)
OWASP Gen AI Incident & Exploit Round-up, Jan-Feb 2025
(Written By: Scott Clinton, Project Co-lead and Rock Lambros, March 6, 2025)