コンテンツにスキップ

用語集

医療AIガバナンスで頻出する用語を、臨床医向けに簡潔にまとめています。各用語は 使い方シナリオ からもリンクされています。

SaMD (Software as a Medical Device)

1行定義: 物理的ハードウェアなしで単独で医療機能を提供する、医療機器として規制されるソフトウェア。

臨床医が知るべき理由: 診療で使うAIツールが医療機器規制の対象かを理解し、適切な承認・管理状況を確認する必要があるため。

関連ガイドライン: IMDRF SaMD Key Definitions / PMDA SaMDガイダンス

関連シナリオ: ベンダー提案の逸脱判定 / 病院AI導入ポリシーの策定


PCCP (Predetermined Change Control Plan)

1行定義: AI/ML医療機器において、学習による変更内容を事前に計画・管理する仕組み。

臨床医が知るべき理由: 使用中のAIがアップデートされる際、それが安全性を担保された変更かを評価するため。

関連ガイドライン: FDA Predetermined Change Control Plan guidance (2023)

関連シナリオ: アルゴリズム更新リスクの判定


ISO/IEC 42001

1行定義: 組織のAIマネジメントシステム構築・運用に関する国際規格(2023年発行)。

臨床医が知るべき理由: 病院のAI導入管理体制が適切に整備されているかの判断基準となるため。

関連ガイドライン: ISO/IEC 42001:2023

関連シナリオ: 病院AI導入ポリシーの策定


NIST AI RMF

1行定義: 米国NISTが策定した、AIの信頼性評価とリスク管理のためのフレームワーク。

臨床医が知るべき理由: AIツール導入時のリスク評価枠組みを理解し、安全な選択に活かすため。

関連ガイドライン: NIST AI RMF 1.0 (2023) / AI RMF Playbook

関連シナリオ: ベンダー提案の逸脱判定


Human oversight (Human-in-the-loop / Human-on-the-loop)

1行定義: AIの判断に人間が介入・監視する仕組み。in-the-loopは各判断に直接介入、on-the-loopは全体を監視。

臨床医が知るべき理由: AI提案に対する最終的な臨床判断の責任と、介入すべき場面を明確にするため。

関連ガイドライン: EU AI Act / WHO AI for Health guidance

関連シナリオ: IRBプロトコル事前審査 / 患者説明文の根拠裏付け


EU AI Act – High-risk AI

1行定義: EU AI法で人命や基本権に重大な影響を与える可能性があると分類されたAIシステム。

臨床医が知るべき理由: 医療AIは原則として高リスク分類に該当し、厳格な安全性・透明性要件が適用されるため。

関連ガイドライン: EU AI Act (Regulation 2024/1689)

関連シナリオ: ベンダー提案の逸脱判定


IMDRF SaMD risk categorization

1行定義: SaMDを患者への影響度に応じてI(低リスク)〜IV(高リスク)の4段階に分類する国際基準。

臨床医が知るべき理由: 使用するAIツールのリスクレベルを把握し、必要な管理の強度を理解するため。

関連ガイドライン: IMDRF SaMD Framework (2013) / PMDA SaMDガイダンス

関連シナリオ: ベンダー提案の逸脱判定


SOUP (Software of Unknown Provenance)

1行定義: 開発履歴や品質保証記録が不明なソフトウェアコンポーネント(オープンソースライブラリ等)。

臨床医が知るべき理由: AIシステム内の不確実な要素が安全性リスクとなり得ることを認識するため。

関連ガイドライン: IEC 62304 (Medical Device Software Lifecycle)


PMDA SaMD ガイダンス

1行定義: 日本のPMDAが定めた、SaMDの開発・承認申請・市販後管理に関する指針群。

臨床医が知るべき理由: 国内で使用するAI医療機器の承認プロセスと安全管理要件を理解するため。

関連ガイドライン: PMDA通知 / 薬機法関連通知

関連シナリオ: ベンダー提案の逸脱判定 / アルゴリズム更新リスクの判定


IRB (Institutional Review Board) と AI研究

1行定義: AIを用いた臨床研究の倫理的妥当性を審査する委員会(日本では倫理審査委員会)。

臨床医が知るべき理由: AI研究を実施・参加する際、データ利用や患者同意に関する要件を遵守するため。

関連ガイドライン: 臨床研究法 / 人を対象とする医学系研究に関する倫理指針

関連シナリオ: IRBプロトコル事前審査


関連リソース