| EU AI法 |
🔴 EU市場・利用のAIに適用し医療機器AIも対象化。 Article 2(1); Article 6(1); Annex I Section A points 11-12 / medium |
🔴 Annex I対象かAnnex III該当なら高リスクAIに分類。 Article 6(1)-(4); Annex III point 5(a), 5(d) / medium |
🔴 提供者は導入者へ性能、限界、使用説明を提供する義務。 Article 13(1)-(3) / medium |
🔴 高リスクAIはライフタイム中の自動ログ記録を技術的に可能にする。 Article 12(1)-(2); Article 21(2) / medium |
🔴 高リスクAIは自然人による有効な監督を可能に設計する。 Article 14(1)-(5) / medium |
🔴 訓練・検証・試験データの品質とバイアス対策を要求。 Article 10(1)-(5) / medium |
🔴 市販後監視を置き、重大インシデントを報告する義務。 Article 72(1)-(4); Article 73(1) / medium |
🔴 提供者等の義務とQMS内の責任枠組みを定める。 Article 16; Article 17(1)(m) / medium |
🔴 個人データ保護法を維持し、特殊データ処理に保護条件を課す。 Article 2(7); Article 10(5) / medium |
🔴 正確性、堅牢性、サイバーセキュリティ水準を確保する義務。 Article 15(1)-(5) / medium |
🔴 意図目的に照らした試験・妥当性確認と性能指標を要求。 Article 9(6)-(8); Article 15(1)-(4) / medium |
🔵 整合規格・共通仕様と既存EU整合法令との接続を規定。 Article 8(2); Article 40; Article 41 / medium |
🔴 リスク管理、QMS、市販後監視を通じた継続管理を要求。 Article 9(2); Article 17(1); Article 72 / medium |
| FDA AI/ML SaMDアクションプラン・PCCPガイダンス |
🟠 AI-DSFを含む医療機器と510(k)等の提出が主対象。 PCCP Guidance, Section III Scope / high |
🟠 IMDRFリスク分類やFDA便益リスクを踏まえた監督を想定。 Introduction & Background; Action 1 / high |
🟠 学習データ、入力、ロジック、性能根拠等の透明性を推奨。 Action 3 Patient-Centered Approach Incorporating Transparency to Users / high |
🟠 PCCPではデータ管理、更新手順、追跡表で変更根拠を残す。 PCCP Guidance, Section VII.C Traceability / high |
🔵 手動更新や臨床ワークフローで人の入力・判断の役割に触れる。 PCCP Guidance, Section III Scope / high |
🟠 バイアス識別・低減と頑健性評価の方法開発を重視。 Action 4 Regulatory Science Methods Related to Algorithm Bias & Robustness / high |
🟠 PCCPは予定変更、実装方法、影響評価を提出に含める。 PCCP Guidance, Section V Policy for Predetermined Change Control Plans / high |
🟠 製造業者がPCCPを作成し品質システムで影響評価する。 PCCP Guidance, Section VIII Impact Assessment / high |
🔵 患者中心の信頼・透明性を扱うが同意手続は主題外。 Action 3 Patient-Centered Approach Incorporating Transparency to Users / medium |
🔵 GMLPを医療機器サイバーセキュリティ施策と連携すると記載。 Action 2 Good Machine Learning Practice (GMLP) / high |
🟠 PCCPの性能評価・検証妥当性確認で安全有効性を示す。 PCCP Guidance, Section VII.B(3) Performance evaluation / high |
🔵 GMLP標準化やIMDRF等との国際調和を推進。 Action 2 Good Machine Learning Practice (GMLP) / high |
🟠 開発前から市販後までTPLC監督とRWP監視を重視。 Introduction & Background; Action 5 Real-World Performance (RWP) / high |
| IMDRF SaMD作業部会文書 |
🟠 ハードウェアに属さず医療目的を果たすソフトをSaMDと定義。 N10 Section 5.1 Software as a Medical Device / high |
🟠 医療判断への寄与と状態重大性でIからIVに分類する。 N12 Sections 7.1-7.3 / high |
🔵 定義文、使用目的、表示・利用情報の明確化に言及する。 N10 Sections 5.4-5.5 / high |
🟠 文書管理、記録管理、構成追跡でトレーサビリティを保つ。 N23 Sections 7.4-7.5 / high |
🔵 ユーザーリスク、使用環境、使用者支援への考慮に言及。 N23 Sections 7.3; 8.5 / medium |
🟠 データ完全性、臨床データ品質、妥当性の確保を求める。 N41 Sections 6.0-7.0 / high |
🟠 変更影響評価と市販後実性能データの継続監視を求める。 N41 Sections 8.3-8.4 / high |
🟠 SaMD製造者が品質、リスク、ライフサイクル管理を担う。 N23 Sections 6.0-7.0 / high |
🟠 患者データ等の機密性と安全な保管・廃棄を考慮する。 N23 Sections 8.2; 8.6 / high |
🟠 情報セキュリティ、脅威分析、脆弱性対策を安全と統合する。 N23 Sections 7.3; 8.3; 8.6 / high |
🟠 臨床関連性、分析妥当性、臨床妥当性の三要素で評価する。 N41 Sections 5.0-7.0 / high |
🟠 各国規制当局のSaMD用語・管理原則の収束を目的とする。 Working Group charter / high |
🟠 計画、開発、検証、展開、保守、廃止までQMSで管理する。 N23 Sections 7.0-8.6 / high |
| ISO/IEC 42001 AIマネジメントシステム |
🟠 AI製品・サービスの開発、提供、利用組織を対象にする。 ISO public page: What is ISO/IEC 42001? / low |
🔵 AI関連リスクと機会を管理する枠組みとして説明される。 ISO public page: Benefits / low |
🔵 透明性、トレーサビリティ、信頼性を利点として掲げる。 ISO public page: Benefits / low |
❔ 監査ログ・記録要求は本文未取得で評価未了。 not assessed; standard text unavailable / low |
❔ 人間監督の具体要求は本文未取得で評価未了。 not assessed; standard text unavailable / low |
❔ データ品質・バイアス要求は本文未取得で評価未了。 not assessed; standard text unavailable / low |
❔ PCCP・市販後管理相当の条項は評価未了。 not assessed; standard text unavailable / low |
🔵 方針、目的、プロセスによる責任あるAI管理を扱う。 ISO public page: FAQ; AIMS definition / low |
❔ 同意・プライバシー要求は本文未取得で評価未了。 not assessed; standard text unavailable / low |
❔ セキュリティ要求は本文未取得で評価未了。 not assessed; standard text unavailable / low |
❔ 臨床評価要求は本文未取得で評価未了。 not assessed; standard text unavailable / low |
🔵 AI管理システムの国際標準として位置づけられる。 ISO public page: General information / low |
🟠 AIMSの確立、実施、維持、継続的改善を要求する。 ISO public page: What is ISO/IEC 42001? / low |
| 日本医師会 AIの臨床利用答申 |
🔵 医療AIの臨床利用全般と医師・患者・AIの関係を対象にする。 第1章 総論:医療AIの現状と課題 / medium |
🔵 臨床利用を3類型に分け、悪用や制度的リスクも整理する。 第3章 3.3.1 AIの臨床利用の3類型 / medium |
🟠 AI使用の患者通知、透明性措置、医師確認を重視する。 第3章 3.3.2 記録・文書作成の補助 / medium |
🔵 エラー報告、データ保存、AIモニタリングの必要性に触れる。 第3章 3.3.2; 第2章 2.8.7 / low |
🟠 医師参加型原則により医師が確認し最終判断を行う。 第3章 3.1.2 WMAが示す医師参加型原則 / medium |
🟠 バイアス、データセットシフト、精度劣化への注意を求める。 第3章 3.3.3 診断・治療の補助 / medium |
🔵 展開後の能力維持やAIによるAI監視を課題に挙げる。 第2章 2.8.7 さいごに / low |
🟠 医師、開発者、行政を含む責任分担の必要性を示す。 第3章 3.3.3 診断・治療の補助 / medium |
🟠 機微な診療情報の機密性、不正アクセス防止、同意を重視する。 第3章 3.1.2 WMAが示す医師参加型原則 / medium |
🟠 診療情報の情報セキュリティとAI攻撃対策を慎重に検討する。 第3章 3.1.1 はじめに; 第2章 2.8.4 / medium |
🔵 診断・治療補助では性能、透明性、医師判断への影響を検討する。 第3章 3.3.3 診断・治療の補助 / medium |
🔵 WMA声明、日本AI法、国際倫理と国内戦略の整合を整理する。 第3章 3.1 医療AIを巡る国際倫理と日本の戦略 / medium |
🔵 医師会の継続的関与と新たなガバナンス体制を求める。 第3章 3.1.4 まとめ; 第2章 2.8.7 / medium |
| 経済産業省 AI事業者ガイドライン |
🟠 AI開発者、提供者、利用者を主対象にする。 第1部 2. 対象 / high |
🟠 危害の大きさと蓋然性に応じたリスクベース対応を重視。 第1部 はじめに; リスクベースアプローチ / high |
🟠 ステークホルダーへの情報提供で透明性を高める。 第2部 B. 6) 透明性 / high |
🟠 判断過程、判断根拠等のログ記録・保存を求める。 第2部 B. 6) 透明性 / high |
🟠 人間中心の考え方に基づく開発・提供・利用を求める。 第2部 A. 基本理念; B. 1) 人間中心 / high |
🟠 データの正確性・最新性と回避不能なバイアス認識を求める。 第2部 B. 2) 安全性; 3) 公平性 / high |
🟠 ライフサイクル全体でリスク対策と環境変化対応を行う。 第1部 はじめに; 第2部 B. 共通の指針 / high |
🟠 各主体の役割に応じ合理的範囲で説明責任を果たす。 第2部 B. 7) アカウンタビリティ / high |
🟠 個人情報保護法等を踏まえプライバシー保護を検討する。 第2部 B. 4) プライバシー保護 / high |
🟠 不正操作や外部攻撃に備えセキュリティを確保する。 第2部 B. 5) セキュリティ確保 / high |
⚪ 医療AI固有の臨床評価要求は本編確認範囲で扱いなし。 本編確認範囲; 医療固有臨床評価なし / medium |
🔵 NIST、ISO、EU AI法等の海外原則・標準を参照する。 第1部 はじめに; 第2部 B. 6) 透明性 / high |
🟠 AIライフサイクル全体で自主的な対策実行を促す。 第1部 はじめに; 第2部 B. 共通の指針 / high |
| 厚労省 医療機器プログラムに関する取扱い |
🔴 医療目的と生命健康リスクで医療機器プログラム該当性を判断。 1 はじめに / 2(1) 医療機器プログラムの範囲 / high |
🔴 クラスIからIVとGHTFルールでリスク程度を判定。 6 人の生命及び健康に影響を与えるリスクの程度の考え方 / high |
🟠 非医療機器表示や根拠の検証可能性で誤認防止を求める。 5(1) 事前準備 / 8(1) 標ぼうの留意事項 / high |
🔵 個人健康記録の収集・ログ作成は非該当例として言及。 4(3) 使用者が自らの医療・健康情報を閲覧等するプログラム / high |
🔵 医療関係者の管理下かを使用者分類で確認。 5(1) 事前準備(使用目的、処理方法などの明確化・整理) / high |
🟠 根拠情報とアルゴリズム妥当性の検証可能性を整理。 5(1) 判断のために明確にすべき項目の例示 / high |
⚪ PCCPや市販後監視の明示的扱いは確認できず。 全文確認(該当記述なし) / medium |
🟠 事業者・開発者が使用者、目的、処理方法を確認整理。 5(1) 事前準備 / 8(2) 適正使用のための周知啓発 / high |
🔵 個人健康記録の保存・共有例はあるが同意義務は未確認。 4(3) 使用者が自らの医療・健康情報を閲覧等するプログラム / high |
⚪ セキュリティ要求の明示的扱いは確認できず。 全文確認(該当記述なし) / medium |
🔵 治験・臨床研究での提供と適用関係に言及。 7 臨床研究等における取扱いについて / high |
🔵 GHTF分類を用い、IMDRF分類因子は参考可能と記載。 6 人の生命及び健康に影響を与えるリスクの程度の考え方 脚注11 / high |
🔵 規制範囲は今後変更可能で、適正使用周知にも言及。 2(2) 基本的考え方 / 8(2) 適正使用のための周知啓発 / high |
| NIST AIリスクマネジメントフレームワーク |
🟠 AIの設計・開発・利用・評価で信頼性リスク管理を促す。 Overview of the AI RMF / high |
🟠 文脈に応じてリスク許容度、優先度、影響を評価する。 Section 3; MAP 4-5; MANAGE 1 / high |
🟠 透明性、説明可能性、解釈可能性を信頼性特性に含める。 Section 4; MEASURE 2.8 / high |
🟠 文書化、インベントリ、来歴、監視結果の記録を求める。 GOVERN 1.5-1.6; MEASURE 2.8 / high |
🟠 人間判断とHuman-AI構成の役割を明確化する。 GOVERN 3.2; MAP 3.4 / high |
🟠 公平性、有害バイアス、データ代表性を測定・管理する。 Section 4; MEASURE 2.11 / high |
🟠 展開後監視、改善、事故・エラー連絡を管理機能に含める。 MANAGE 4.1-4.3 / high |
🟠 役割、責任、説明責任メカニズムを組織に求める。 GOVERN 2.1-2.3; Section 3.4 / high |
🟠 プライバシー強化と同意等の生成AIプライバシーリスクを扱う。 GAI Risks: Data Privacy; MEASURE 2.10 / high |
🟠 セキュアでレジリエントなAIと情報セキュリティを評価する。 GAI Risks: Information Security; MEASURE 2.7 / high |
🟠 TEVV、妥当性、信頼性、性能限界を測定・文書化する。 MEASURE 2.1-2.6 / high |
🔵 他のリスク管理努力との整合と国際的利用を意図する。 Overview of the AI RMF; AIRC / high |
🟠 Govern/Map/Measure/ManageをAIライフサイクル全体に適用する。 Section 5; Tables 1-4 / high |
| PMDA SaMD情報ページ |
🔴 PMD法上の医療目的かつ重大リスクのソフトウェアを対象化。 Determination Whether Software Qualifies as a Medical Device / high |
🔵 承認審査情報として医療機器分類や申請区分への参照あり。 Approval review / Marketing Approval Review / high |
❔ Lane Aでは透明性要求の評価未了。 未評価(Lane A) / low |
❔ Lane Aでは監査ログ要求の評価未了。 未評価(Lane A) / low |
❔ Lane Aでは人の監督要求の評価未了。 未評価(Lane A) / low |
❔ Lane Aではデータ品質・バイアス要求の評価未了。 未評価(Lane A) / low |
🔵 再評価・再審査の臨床研究相談への言及あり。 PMDA Consultation on SaMD / high |
🔵 製造販売業者からの相談申込みを前提に助言提供。 PMDA Consultation on SaMD / high |
❔ Lane Aでは同意・プライバシー要求の評価未了。 未評価(Lane A) / low |
❔ Lane Aではセキュリティ要求の評価未了。 未評価(Lane A) / low |
🟠 治験相談で承認申請上の評価充足性を確認。 PMDA Consultation on SaMD / high |
🔵 国際調和、DASH 2の国際展開、Science Board資料に言及。 Software as a Medical Device / DASH for SaMD 2 / high |
🔵 最新情報更新、審査ポイント整備、相談体制強化に言及。 Review Points for SaMD / Initiatives to Promote Practical Use of SaMD / high |
| WHO AI for Health倫理・ガバナンス |
🔵 医療AI全般とLMMの医療・公衆衛生利用を対象にする。 Overview; 2021 guidance / high |
🔵 LMMではリスクベース枠組みと規制負荷差に言及。 Section 5, Assessment of general-purpose foundation models and/or applications used in health care / high |
🟠 透明性・説明可能性・理解可能性を中核原則に置く。 Executive summary; Section 5 / high |
🟠 LMMでは第三者監査、影響評価、公開を求める。 Sections 4.2, 5.2, 6.4 / high |
🟠 医療判断は人間が管理し、人間監督点を設ける。 Executive summary; Protecting human autonomy / high |
🟠 低品質・非代表データとバイアスの最小化を重視する。 Executive summary; inclusiveness and equity / high |
🔵 実使用中の継続的評価とリリース後監査に触れる。 Section 6.2; deployment responsibilities / medium |
🟠 責任と説明責任、被害救済、価値連鎖上の責任を求める。 Executive summary; responsibility and accountability / high |
🟠 プライバシー、機密性、有効な同意、データ保護を要求する。 Executive summary; Protecting human autonomy / high |
🔵 安全性とサイバーセキュリティ上のリスクを扱う。 Sections 4.2, 5.2; cybersecurity risks / high |
🟠 安全性、正確性、有効性、性能証明を重視する。 Executive summary; human well-being and safety / high |
🟠 LMMと医療AIの国際的な協調ガバナンスを求める。 Section 8; International governance of LMMs / high |
🟠 設計、導入、実使用中の継続評価を求める。 Executive summary; responsive and sustainable / high |