生成AIガバナンスとセキュリティ

【生成AIリスク管理④】AIツール/ベンダー選定で失敗しない7つのチェックポイント

2026.04.28

企業向けの生成AIツールやサービスは、この1〜2年で一気に選択肢が増えました。便利な機能を謳うサービスが多い一方で、企業として本当に確認すべきポイントは意外と整理されていません。機能や価格だけで選んでしまうと、導入後に「入力データの扱いが想定と違った」「ログが取れず、利用実態を把握できない」「障害時の対応が不透明だった」といった問題に直面するおそれがあります。

AIを企業で使ううえで重要なのは、自社の統制要件に照らして、安心して使えるものかを見極めることです。

本稿では、AIツール/ベンダーを選定する際に、DX担当者や導入責任者が最低限押さえておきたい7つのチェックポイントを整理します。

AIツール選定の7つのチェックポイント

1. 入力データの二次利用(学習)禁止

最優先で確認したいのが、入力したプロンプトや添付ファイル、やり取りの履歴が、モデルの学習やサービス改善に使われないかどうかです。企業で使用する場合、社内や取引先、顧客の情報などを扱う可能性を伴うため、入力データの二次利用が行われないサービスを選ぶことが望ましいです。

利用者が二次利用の有無を選択できるオプトアウト方式のサービスもあります。オプトアウト方式は、一見すると管理可能に思えますが、設定漏れや機能追加時の適用漏れによって、意図せず二次利用を許してしまうリスクがあります。そのため、オプトアウト設定の有無を安心材料にするのではなく、そもそも二次利用を前提としない契約・仕様になっているかを優先して確認すべきです。やむを得ずオプトアウト方式のサービスを使う場合でも、その適用範囲や例外条件を確認し、設定状況を継続的に点検できる運用が必要です。

2. データの保管場所と保持期間

入力データや出力結果がどこに保存され、どのくらいの期間保持されるのかを確認します。海外リージョンに保存されるのか、日本国内に限定できるのか、一時保存なのか、バックアップも含めて削除されるのかによって、法令対応や社内ポリシーへの適合性は大きく変わります。

3.認証・アクセス管理

生成AIの利用が社内に広がるほど、機密情報を含む業務でAIを使う場面も増えるため、認証・アクセス管理が重要になります。誰がAIを利用できるのか、どの情報にどこまでアクセスできるのかを細かく制御できるかは、必須の確認事項です。

シングルサインオン(SSO)や多要素認証(MFA)に対応しているか、部署・役職ごとの権限設定ができるか、管理者権限を限定できるか、API連携を行う場合はAPIキーやサービスアカウントを安全に管理できるかを確認します。SaaS型では標準機能として備わっているかを確認し、API連携型では自社側の実装でどこまで補完が必要かも含めて評価することが重要です。

4. 監査ログ・利用状況の可視化

インシデント発生時の原因究明や、不適切利用の早期発見には、監査ログと利用状況の可視化が欠かせません。その意味で、誰が、いつ、どの機能を使い、どのデータにアクセスしたのかを追跡できるかは非常に重要です。管理画面で利用状況を確認できるだけでなく、監査ログを一定期間保持できるか、必要に応じてエクスポートできるか、SIEM(シーム・Security Information and Event Management)(*1)など既存の監視基盤に取り込めるかまで見ておくと安心です。

(*1) ネットワークの監視、サイバー攻撃やマルウェア感染などのインシデント検知を目的とした仕組みのこと。

5.第三者認証・セキュリティ体制

ベンダーの説明だけでなく、セキュリティに関する客観的な認証を取得しているか確認すべきです。たとえば、ISO/IEC 27001(ISMS)、ISO/IEC27017、SOC 2、プライバシー関連の認証、脆弱性管理やペネトレーションテストの実施状況などは、最低限の判断材料になります。ただし、認証の有無だけで安心するのではなく、どのサービス範囲が認証対象なのか、再委託先やサブプロセッサーも含めて統制されているのかまで確認することが重要です。

6. コスト構造

生成AIは、使い方によってコストが大きくぶれやすいサービスです。月額固定なのか、従量課金なのか、どこで追加課金が発生するのかを事前に把握しておかないと、PoCでは安く見えても本番運用で想定外の請求が発生します。トークン課金、ストレージ課金、ログ保存、追加ユーザー、外部連携など、費用が増える条件を確認し、上限設定やアラート、利用量の可視化機能があるかも見ておくべきです。コスト管理は経営管理の問題であると同時に、無制限利用によるリスクを抑えるガバナンスの問題でもあります。

7. 情報開示とインシデント対応体制

障害や情報漏えいなどの事案が起きた際に、ベンダーがどのように通知し、どこまで情報を開示し、どのように復旧・再発防止を進めるのかは、事前に確認しておくべき重要事項です。障害通知の方法、インシデント発生時の連絡窓口、原因分析レポートの有無、SLAの考え方などは、導入前に確認しておかなければ、いざというときに動けません。あわせて、再委託先で事故が起きた場合も含めて、どこまで報告対象になるのかを確認しておくと、サプライチェーン全体の管理にもつながります。

コラム:SaaS型とAPI連携型で変わる確認ポイント
AIツールの選定で確認すべき項目は、SaaS型でもAPI連携型でも大きくは変わりません。たとえば、入力データの二次利用禁止、データ保管場所、認証、監査ログはいずれも重要です。違いがあるのは、それらを誰が、どのように担保するかです。

SaaS型では、主にベンダーの契約条件、管理画面の設定、標準機能、開示情報を確認することが中心になります。一方、API連携型では、ベンダー側の条件確認に加えて、自社実装側のログ保存、権限管理、キャッシュ、外部連携の設計まで含めて統制を考える必要があります。自由度が高い分、自社が負う責任も大きくなるためです。

契約時に押さえるべきポイント

ツール選定と同時に、契約内容の確認も重要です。以下の点を法務部門と連携して確認しましょう。

データの権利関係
入力データ・出力データ・学習済みモデルの権利帰属を明確にします。特に、自社のデータでファインチューニングしたモデルの権利がどちらに帰属するかは、見落としがちな論点です。

損害賠償・免責条項
AIの出力に起因する損害の責任分担を確認します。「AIの出力が間違っていた場合、誰が責任を負うのか」は、ベンダーとの間で最も揉めやすいポイントです。免責条項の範囲を事前に明確にしておきましょう。

契約変更・解約時のデータ取扱い
ベンダーロックインを回避するため、解約時のデータ返却・削除の条件を事前に確認します。特にRAGシステムで社内データを読み込ませている場合、そのデータが解約後にどうなるかは重要です。

再委託・サブプロセッサーの管理
第1回で解説した「サプライチェーンの弱点」リスクを踏まえ、ベンダーが利用するサブプロセッサー(クラウドプロバイダー、AIモデル提供元等)の情報に加え、再委託先にも自社が求めるデータ取扱条件が適用されるのか、事故発生時の報告範囲がどうなっているのかを確認します。

まとめ

本連載では、第1回で生成AIのリスク全体像を整理し、第2回で自社とベンダーの責任分界点を確認し、第3回で社内ガイドラインの考え方を見てきました。

そして最終回となる本記事では、そうした前提を踏まえて、AIツール/ベンダー選定で確認すべきポイントを整理しました。生成AIの導入では、機能や価格だけでなく、入力データの取扱い、認証・アクセス管理、監査ログ、第三者認証、コスト、障害時の情報開示や契約条件まで含めて、自社の統制要件に照らして判断することが欠かせません。

生成AIは、個人で試すだけなら比較的簡単です。しかし、企業として継続的に活用していくためには、セキュリティやガバナンス、品質、運用体制まで含めて設計する必要があります。だからこそ、選定は単なる製品比較ではなく、「自社の業務に無理なく定着させられるか」を見極めるプロセスとして捉えることが重要です。

▼シリーズ記事
【生成AIリスク管理①】生成AIがもたらす新たな脅威とは?ビジネスリーダーが知るべき「10大リスク」とインシデント事例
【生成AIリスク管理②】生成AIリスクをどう防ぐ?「自社でやるべき対策」と「ベンダーに任せる対策」の境界線は?
【生成AIリスク管理③】すぐに使える!実効性のある「生成AI利用ガイドライン」の作り方

本記事は、以下の情報ソースを参考に作成しています。