コンテンツにスキップ

13列マトリクス

DISCLAIMER: 本資料は公開ガイドラインの参照用コンパイルです。法的助言、規制適合性の保証、診療判断ではありません。利用前に必ず原文を参照してください。

ガイドライン A 適用対象 B リスク分類 C 透明性 D 監査ログ E Human oversight F データ品質バイアス G PCCP市販後 H 責任 I 同意プライバシー J セキュリティ K 臨床評価 L 国際整合 M ライフサイクル
EU AI法 🔴 EU市場・利用のAIに適用し医療機器AIも対象化。
Article 2(1); Article 6(1); Annex I Section A points 11-12 / medium
🔴 Annex I対象かAnnex III該当なら高リスクAIに分類。
Article 6(1)-(4); Annex III point 5(a), 5(d) / medium
🔴 提供者は導入者へ性能、限界、使用説明を提供する義務。
Article 13(1)-(3) / medium
🔴 高リスクAIはライフタイム中の自動ログ記録を技術的に可能にする。
Article 12(1)-(2); Article 21(2) / medium
🔴 高リスクAIは自然人による有効な監督を可能に設計する。
Article 14(1)-(5) / medium
🔴 訓練・検証・試験データの品質とバイアス対策を要求。
Article 10(1)-(5) / medium
🔴 市販後監視を置き、重大インシデントを報告する義務。
Article 72(1)-(4); Article 73(1) / medium
🔴 提供者等の義務とQMS内の責任枠組みを定める。
Article 16; Article 17(1)(m) / medium
🔴 個人データ保護法を維持し、特殊データ処理に保護条件を課す。
Article 2(7); Article 10(5) / medium
🔴 正確性、堅牢性、サイバーセキュリティ水準を確保する義務。
Article 15(1)-(5) / medium
🔴 意図目的に照らした試験・妥当性確認と性能指標を要求。
Article 9(6)-(8); Article 15(1)-(4) / medium
🔵 整合規格・共通仕様と既存EU整合法令との接続を規定。
Article 8(2); Article 40; Article 41 / medium
🔴 リスク管理、QMS、市販後監視を通じた継続管理を要求。
Article 9(2); Article 17(1); Article 72 / medium
FDA AI/ML SaMDアクションプラン・PCCPガイダンス 🟠 AI-DSFを含む医療機器と510(k)等の提出が主対象。
PCCP Guidance, Section III Scope / high
🟠 IMDRFリスク分類やFDA便益リスクを踏まえた監督を想定。
Introduction & Background; Action 1 / high
🟠 学習データ、入力、ロジック、性能根拠等の透明性を推奨。
Action 3 Patient-Centered Approach Incorporating Transparency to Users / high
🟠 PCCPではデータ管理、更新手順、追跡表で変更根拠を残す。
PCCP Guidance, Section VII.C Traceability / high
🔵 手動更新や臨床ワークフローで人の入力・判断の役割に触れる。
PCCP Guidance, Section III Scope / high
🟠 バイアス識別・低減と頑健性評価の方法開発を重視。
Action 4 Regulatory Science Methods Related to Algorithm Bias & Robustness / high
🟠 PCCPは予定変更、実装方法、影響評価を提出に含める。
PCCP Guidance, Section V Policy for Predetermined Change Control Plans / high
🟠 製造業者がPCCPを作成し品質システムで影響評価する。
PCCP Guidance, Section VIII Impact Assessment / high
🔵 患者中心の信頼・透明性を扱うが同意手続は主題外。
Action 3 Patient-Centered Approach Incorporating Transparency to Users / medium
🔵 GMLPを医療機器サイバーセキュリティ施策と連携すると記載。
Action 2 Good Machine Learning Practice (GMLP) / high
🟠 PCCPの性能評価・検証妥当性確認で安全有効性を示す。
PCCP Guidance, Section VII.B(3) Performance evaluation / high
🔵 GMLP標準化やIMDRF等との国際調和を推進。
Action 2 Good Machine Learning Practice (GMLP) / high
🟠 開発前から市販後までTPLC監督とRWP監視を重視。
Introduction & Background; Action 5 Real-World Performance (RWP) / high
IMDRF SaMD作業部会文書 🟠 ハードウェアに属さず医療目的を果たすソフトをSaMDと定義。
N10 Section 5.1 Software as a Medical Device / high
🟠 医療判断への寄与と状態重大性でIからIVに分類する。
N12 Sections 7.1-7.3 / high
🔵 定義文、使用目的、表示・利用情報の明確化に言及する。
N10 Sections 5.4-5.5 / high
🟠 文書管理、記録管理、構成追跡でトレーサビリティを保つ。
N23 Sections 7.4-7.5 / high
🔵 ユーザーリスク、使用環境、使用者支援への考慮に言及。
N23 Sections 7.3; 8.5 / medium
🟠 データ完全性、臨床データ品質、妥当性の確保を求める。
N41 Sections 6.0-7.0 / high
🟠 変更影響評価と市販後実性能データの継続監視を求める。
N41 Sections 8.3-8.4 / high
🟠 SaMD製造者が品質、リスク、ライフサイクル管理を担う。
N23 Sections 6.0-7.0 / high
🟠 患者データ等の機密性と安全な保管・廃棄を考慮する。
N23 Sections 8.2; 8.6 / high
🟠 情報セキュリティ、脅威分析、脆弱性対策を安全と統合する。
N23 Sections 7.3; 8.3; 8.6 / high
🟠 臨床関連性、分析妥当性、臨床妥当性の三要素で評価する。
N41 Sections 5.0-7.0 / high
🟠 各国規制当局のSaMD用語・管理原則の収束を目的とする。
Working Group charter / high
🟠 計画、開発、検証、展開、保守、廃止までQMSで管理する。
N23 Sections 7.0-8.6 / high
ISO/IEC 42001 AIマネジメントシステム 🟠 AI製品・サービスの開発、提供、利用組織を対象にする。
ISO public page: What is ISO/IEC 42001? / low
🔵 AI関連リスクと機会を管理する枠組みとして説明される。
ISO public page: Benefits / low
🔵 透明性、トレーサビリティ、信頼性を利点として掲げる。
ISO public page: Benefits / low
❔ 監査ログ・記録要求は本文未取得で評価未了。
not assessed; standard text unavailable / low
❔ 人間監督の具体要求は本文未取得で評価未了。
not assessed; standard text unavailable / low
❔ データ品質・バイアス要求は本文未取得で評価未了。
not assessed; standard text unavailable / low
❔ PCCP・市販後管理相当の条項は評価未了。
not assessed; standard text unavailable / low
🔵 方針、目的、プロセスによる責任あるAI管理を扱う。
ISO public page: FAQ; AIMS definition / low
❔ 同意・プライバシー要求は本文未取得で評価未了。
not assessed; standard text unavailable / low
❔ セキュリティ要求は本文未取得で評価未了。
not assessed; standard text unavailable / low
❔ 臨床評価要求は本文未取得で評価未了。
not assessed; standard text unavailable / low
🔵 AI管理システムの国際標準として位置づけられる。
ISO public page: General information / low
🟠 AIMSの確立、実施、維持、継続的改善を要求する。
ISO public page: What is ISO/IEC 42001? / low
日本医師会 AIの臨床利用答申 🔵 医療AIの臨床利用全般と医師・患者・AIの関係を対象にする。
第1章 総論:医療AIの現状と課題 / medium
🔵 臨床利用を3類型に分け、悪用や制度的リスクも整理する。
第3章 3.3.1 AIの臨床利用の3類型 / medium
🟠 AI使用の患者通知、透明性措置、医師確認を重視する。
第3章 3.3.2 記録・文書作成の補助 / medium
🔵 エラー報告、データ保存、AIモニタリングの必要性に触れる。
第3章 3.3.2; 第2章 2.8.7 / low
🟠 医師参加型原則により医師が確認し最終判断を行う。
第3章 3.1.2 WMAが示す医師参加型原則 / medium
🟠 バイアス、データセットシフト、精度劣化への注意を求める。
第3章 3.3.3 診断・治療の補助 / medium
🔵 展開後の能力維持やAIによるAI監視を課題に挙げる。
第2章 2.8.7 さいごに / low
🟠 医師、開発者、行政を含む責任分担の必要性を示す。
第3章 3.3.3 診断・治療の補助 / medium
🟠 機微な診療情報の機密性、不正アクセス防止、同意を重視する。
第3章 3.1.2 WMAが示す医師参加型原則 / medium
🟠 診療情報の情報セキュリティとAI攻撃対策を慎重に検討する。
第3章 3.1.1 はじめに; 第2章 2.8.4 / medium
🔵 診断・治療補助では性能、透明性、医師判断への影響を検討する。
第3章 3.3.3 診断・治療の補助 / medium
🔵 WMA声明、日本AI法、国際倫理と国内戦略の整合を整理する。
第3章 3.1 医療AIを巡る国際倫理と日本の戦略 / medium
🔵 医師会の継続的関与と新たなガバナンス体制を求める。
第3章 3.1.4 まとめ; 第2章 2.8.7 / medium
経済産業省 AI事業者ガイドライン 🟠 AI開発者、提供者、利用者を主対象にする。
第1部 2. 対象 / high
🟠 危害の大きさと蓋然性に応じたリスクベース対応を重視。
第1部 はじめに; リスクベースアプローチ / high
🟠 ステークホルダーへの情報提供で透明性を高める。
第2部 B. 6) 透明性 / high
🟠 判断過程、判断根拠等のログ記録・保存を求める。
第2部 B. 6) 透明性 / high
🟠 人間中心の考え方に基づく開発・提供・利用を求める。
第2部 A. 基本理念; B. 1) 人間中心 / high
🟠 データの正確性・最新性と回避不能なバイアス認識を求める。
第2部 B. 2) 安全性; 3) 公平性 / high
🟠 ライフサイクル全体でリスク対策と環境変化対応を行う。
第1部 はじめに; 第2部 B. 共通の指針 / high
🟠 各主体の役割に応じ合理的範囲で説明責任を果たす。
第2部 B. 7) アカウンタビリティ / high
🟠 個人情報保護法等を踏まえプライバシー保護を検討する。
第2部 B. 4) プライバシー保護 / high
🟠 不正操作や外部攻撃に備えセキュリティを確保する。
第2部 B. 5) セキュリティ確保 / high
⚪ 医療AI固有の臨床評価要求は本編確認範囲で扱いなし。
本編確認範囲; 医療固有臨床評価なし / medium
🔵 NIST、ISO、EU AI法等の海外原則・標準を参照する。
第1部 はじめに; 第2部 B. 6) 透明性 / high
🟠 AIライフサイクル全体で自主的な対策実行を促す。
第1部 はじめに; 第2部 B. 共通の指針 / high
厚労省 医療機器プログラムに関する取扱い 🔴 医療目的と生命健康リスクで医療機器プログラム該当性を判断。
1 はじめに / 2(1) 医療機器プログラムの範囲 / high
🔴 クラスIからIVとGHTFルールでリスク程度を判定。
6 人の生命及び健康に影響を与えるリスクの程度の考え方 / high
🟠 非医療機器表示や根拠の検証可能性で誤認防止を求める。
5(1) 事前準備 / 8(1) 標ぼうの留意事項 / high
🔵 個人健康記録の収集・ログ作成は非該当例として言及。
4(3) 使用者が自らの医療・健康情報を閲覧等するプログラム / high
🔵 医療関係者の管理下かを使用者分類で確認。
5(1) 事前準備(使用目的、処理方法などの明確化・整理) / high
🟠 根拠情報とアルゴリズム妥当性の検証可能性を整理。
5(1) 判断のために明確にすべき項目の例示 / high
⚪ PCCPや市販後監視の明示的扱いは確認できず。
全文確認(該当記述なし) / medium
🟠 事業者・開発者が使用者、目的、処理方法を確認整理。
5(1) 事前準備 / 8(2) 適正使用のための周知啓発 / high
🔵 個人健康記録の保存・共有例はあるが同意義務は未確認。
4(3) 使用者が自らの医療・健康情報を閲覧等するプログラム / high
⚪ セキュリティ要求の明示的扱いは確認できず。
全文確認(該当記述なし) / medium
🔵 治験・臨床研究での提供と適用関係に言及。
7 臨床研究等における取扱いについて / high
🔵 GHTF分類を用い、IMDRF分類因子は参考可能と記載。
6 人の生命及び健康に影響を与えるリスクの程度の考え方 脚注11 / high
🔵 規制範囲は今後変更可能で、適正使用周知にも言及。
2(2) 基本的考え方 / 8(2) 適正使用のための周知啓発 / high
NIST AIリスクマネジメントフレームワーク 🟠 AIの設計・開発・利用・評価で信頼性リスク管理を促す。
Overview of the AI RMF / high
🟠 文脈に応じてリスク許容度、優先度、影響を評価する。
Section 3; MAP 4-5; MANAGE 1 / high
🟠 透明性、説明可能性、解釈可能性を信頼性特性に含める。
Section 4; MEASURE 2.8 / high
🟠 文書化、インベントリ、来歴、監視結果の記録を求める。
GOVERN 1.5-1.6; MEASURE 2.8 / high
🟠 人間判断とHuman-AI構成の役割を明確化する。
GOVERN 3.2; MAP 3.4 / high
🟠 公平性、有害バイアス、データ代表性を測定・管理する。
Section 4; MEASURE 2.11 / high
🟠 展開後監視、改善、事故・エラー連絡を管理機能に含める。
MANAGE 4.1-4.3 / high
🟠 役割、責任、説明責任メカニズムを組織に求める。
GOVERN 2.1-2.3; Section 3.4 / high
🟠 プライバシー強化と同意等の生成AIプライバシーリスクを扱う。
GAI Risks: Data Privacy; MEASURE 2.10 / high
🟠 セキュアでレジリエントなAIと情報セキュリティを評価する。
GAI Risks: Information Security; MEASURE 2.7 / high
🟠 TEVV、妥当性、信頼性、性能限界を測定・文書化する。
MEASURE 2.1-2.6 / high
🔵 他のリスク管理努力との整合と国際的利用を意図する。
Overview of the AI RMF; AIRC / high
🟠 Govern/Map/Measure/ManageをAIライフサイクル全体に適用する。
Section 5; Tables 1-4 / high
PMDA SaMD情報ページ 🔴 PMD法上の医療目的かつ重大リスクのソフトウェアを対象化。
Determination Whether Software Qualifies as a Medical Device / high
🔵 承認審査情報として医療機器分類や申請区分への参照あり。
Approval review / Marketing Approval Review / high
❔ Lane Aでは透明性要求の評価未了。
未評価(Lane A) / low
❔ Lane Aでは監査ログ要求の評価未了。
未評価(Lane A) / low
❔ Lane Aでは人の監督要求の評価未了。
未評価(Lane A) / low
❔ Lane Aではデータ品質・バイアス要求の評価未了。
未評価(Lane A) / low
🔵 再評価・再審査の臨床研究相談への言及あり。
PMDA Consultation on SaMD / high
🔵 製造販売業者からの相談申込みを前提に助言提供。
PMDA Consultation on SaMD / high
❔ Lane Aでは同意・プライバシー要求の評価未了。
未評価(Lane A) / low
❔ Lane Aではセキュリティ要求の評価未了。
未評価(Lane A) / low
🟠 治験相談で承認申請上の評価充足性を確認。
PMDA Consultation on SaMD / high
🔵 国際調和、DASH 2の国際展開、Science Board資料に言及。
Software as a Medical Device / DASH for SaMD 2 / high
🔵 最新情報更新、審査ポイント整備、相談体制強化に言及。
Review Points for SaMD / Initiatives to Promote Practical Use of SaMD / high
WHO AI for Health倫理・ガバナンス 🔵 医療AI全般とLMMの医療・公衆衛生利用を対象にする。
Overview; 2021 guidance / high
🔵 LMMではリスクベース枠組みと規制負荷差に言及。
Section 5, Assessment of general-purpose foundation models and/or applications used in health care / high
🟠 透明性・説明可能性・理解可能性を中核原則に置く。
Executive summary; Section 5 / high
🟠 LMMでは第三者監査、影響評価、公開を求める。
Sections 4.2, 5.2, 6.4 / high
🟠 医療判断は人間が管理し、人間監督点を設ける。
Executive summary; Protecting human autonomy / high
🟠 低品質・非代表データとバイアスの最小化を重視する。
Executive summary; inclusiveness and equity / high
🔵 実使用中の継続的評価とリリース後監査に触れる。
Section 6.2; deployment responsibilities / medium
🟠 責任と説明責任、被害救済、価値連鎖上の責任を求める。
Executive summary; responsibility and accountability / high
🟠 プライバシー、機密性、有効な同意、データ保護を要求する。
Executive summary; Protecting human autonomy / high
🔵 安全性とサイバーセキュリティ上のリスクを扱う。
Sections 4.2, 5.2; cybersecurity risks / high
🟠 安全性、正確性、有効性、性能証明を重視する。
Executive summary; human well-being and safety / high
🟠 LMMと医療AIの国際的な協調ガバナンスを求める。
Section 8; International governance of LMMs / high
🟠 設計、導入、実使用中の継続評価を求める。
Executive summary; responsive and sustainable / high

License / 引用スコープ: 本サイトのオリジナル編集物 (マトリクス構造・要求強度判定・列定義・要約) は CC-BY 4.0。第三者ガイドライン原文の引用は各権利者帰属 (fair use / 著作権法第32条「引用」の範囲) で、CC-BY 対象外。詳細は LICENSE 参照。