AIセキュリティプラットフォーム「MODEL SAFE」を開発する株式会社MONO BRAIN(本社:東京都渋谷区、代表取締役:加藤 真規)は、企業のAI活用において想定されるリスクを体系的に整理した最新レポート「企業のAI活用におけるリスク列挙フレームワーク(2026年5月版)」を公開しました。

本レポートでは、AI活用に潜む80種類のリスクを、ユースケース別、AI構成要素別、入力データ種別の3つの観点から整理しています。
▼ レポートをダウンロード(無料)
https://modelsafe.jp/download/ai_risk_framework_202605
■ 背景:AI活用の拡大により、リスクの見落としが増えている
ChatGPT、Microsoft Copilot、GitHub Copilot、AI議事録ツール、社内RAG、顧客対応AI、AIエージェントなど、企業でのAI活用は急速に広がっています。
一方で、AIには従来のIT・セキュリティ対策だけでは見落とされやすいリスクがあります。
代表的なものは以下です。
-
把握外のAIツール利用
-
いわゆるシャドーAI
-
顧客情報、契約書、ソースコードなどの外部AI入力
-
プロンプトインジェクションによる情報漏えい
-
ハルシネーションによる誤回答
-
RAGや社内検索AIによる権限外情報の出力
AIを安全に活用するには、まず自社のAIリスクを正しく洗い出すことが必要です。
■ 本レポートの内容
本レポートは、企業が自社に該当するAIリスクを確認できるよう、以下の3軸で整理しています。

1. ユースケース別のリスク
AIをどの業務に使っているかを起点にリスクを整理しています。
対象例:
-
社内ナレッジ検索・社内FAQ AI
-
顧客対応・問い合わせ対応AI
-
営業・マーケティング支援AI
2. AI構成要素別のリスク
AIシステムに含まれる機能・技術を起点にリスクを整理しています。
対象例:
-
RAG
-
画像生成
-
OCR
-
音声認識
3. 入力データ種別のリスク
AIに入力・処理されるデータの種類を起点にリスクを整理しています。
対象例:
-
個人情報
-
センシティブ情報
-
顧客情報・取引情報
-
社内機密情報
■ AIリスクは「業務」「構成」「データ」で変わる
AIリスクは、単にAIを使っているかどうかだけでは判断できません。
同じ顧客対応AIでも、RAGを使って社内文書を参照している場合は、権限外情報の出力や間接プロンプトインジェクションのリスクが高まります。
AIエージェントがCRMやメール送信機能と連携している場合は、誤操作や不正なAPI実行のリスクが発生します。
また、入力データが個人情報、契約書、財務情報、ソースコード、認証情報である場合、情報漏えい時の影響は大きく変わります。
そのため本レポートでは、AIリスクを以下の3軸で整理しています。
何の業務にAIを使っているか どのAI構成要素を含むか どのようなデータを入力・処理しているか
■ AIセキュリティプラットフォーム「MODEL SAFE」について
「MODEL SAFE」は、プロンプトインジェクション、AIサプライチェーン攻撃、RAG悪用、機密データ流出、シャドーAI利用など、AI特有のリスクから企業のAI活用を守るAIセキュリティプラットフォームです。
自社開発AI向けには、モデル・依存関係の自動スキャン、AI専用の自動レッドチーミング、ランタイム監視を提供。
社員の外部AI利用向けには、シャドーAIの利用検知や機密情報の自動マスキングを支援します。
【株式会社MONO BRAIN 会社概要】
代表者:代表取締役 加藤 真規
所在地:東京都渋谷区
事業内容:AIセキュリティ・ガバナンスプラットフォーム「MODEL SAFE」の開発・運営
AIガバナンス協会 正会員
▼ お問い合わせ
https://modelsafe.jp/contact
▼ MODEL SAFE サービス紹介
https://modelsafe.jp/


