コンテンツにスキップ

使い方シナリオ

医療AIガバナンスは、外来30秒で患者に答えるよりも、判断の前段(提案受領 / 申請前 / アップデート通知 / ポリシー策定 / 説明準備)の "10分の机上作業" で本領を発揮します。臨床医が実務で遭遇する5シーンを、入口から完了条件まで通してまとめました。


1. ベンダー提案の逸脱判定

いつ使う: メーカー営業から新しいAI診断支援ソフトの提案書を受領したとき。

入口このAI、うちで使って大丈夫? hero に疾患名 / 製品種別を入力 → chips「臨床評価」「リスク分類」「Human oversight」を順に押す。

ステップ:

  1. 提案書記載の機能・想定リスクを hero 検索でガイドライン横断。
  2. 臨床AI製品導入評価チェックリスト をDL。
  3. ベンダー提案 vs ガイドライン要件の gap を記入。
  4. 不足項目をベンダーに照会、回答を再確認。

完了条件: ガイドライン準拠の gap 分析シートが完成し、導入可否の判断材料が揃う。


2. IRB / 倫理委員会向けプロトコル事前審査

いつ使う: AIを用いる臨床研究のプロトコルを IRB に提出する前。

入口IRB質問チェックリスト を直接DL。

ステップ:

  1. チェックリストの各設問に自プロトコル内容で回答ドラフト。
  2. 回答に詰まった論点(同意・プライバシー / データ品質バイアス / Human oversight 等)を hero 検索で横断確認。
  3. 該当ガイドライン原文URLを引用付きで回答に貼り付け。

完了条件: 10ガイドラインの根拠付き IRB 回答原稿が完成。事前審査での想定質問に先回りできる状態。


3. アルゴリズム更新リスクの判定

いつ使う: 運用中のAI医療機器について、ベンダーからアルゴリズム更新通知が届いたとき。

入口 → hero chip 「PCCP / 市販後」or hero 検索「PCCP」「市販後変更」。

ステップ:

  1. PMDA / FDA / EU AI Act の PCCP 関連条項を横断比較。
  2. PCCP骨子 テンプレートで更新前後のリスク差分を整理。
  3. 院内AI委員会に承認 / 却下の根拠文書として提出。

完了条件: バージョン間の許容変更範囲・モニタリング項目・再評価トリガーが文書化され、更新の可否判断が下せる。


4. 病院AI導入ポリシーの策定

いつ使う: 病院長 / 経営会議から「当院のAI導入ガバナンス方針」の策定を指示されたとき。

入口外来で今すぐ引く usecase card → chips「責任主体」「監査ログ」「セキュリティ」。

ステップ:

  1. 各論点でガイドライン要件を横断確認、自院の現状ギャップを把握。
  2. 病院AI導入ポリシー骨子 をベースに自院仕様にカスタマイズ。
  3. 経営層に提出、承認後に院内AI委員会で運用。

完了条件: 経営層提出用のAI導入ポリシー案(責任主体 / 監査ログ / セキュリティ / 臨床評価 / 説明責任)が一本化される。


5. 患者説明文の根拠裏付け

いつ使う: AI判定結果を患者に説明する場面で、どの情報開示がガイドライン上必要かを確認したいとき。

入口 → hero 検索「透明性」「同意プライバシー」「説明責任」。

ステップ:

  1. WHO / 厚労省 / 日本医師会 ガイドラインの該当箇所を確認。
  2. 患者説明サポート資料 テンプレートで説明文を起草。
  3. 院内倫理委員会または上席医のレビューを経て確定版を運用。

完了条件: ガイドライン根拠付きの患者説明文が手元にあり、外来 / 入院 / 同意取得の場面で再利用できる。


共通の注意

  • CC-BY 4.0: Evidence Pack 5本は CC-BY 4.0 で配布。院内配布・カスタマイズ自由ですが、著作権表示の保持が必要です。
  • 静的キュレート: 本サイトのガイドライン情報は人手で定期更新します。緊急時は必ず原文URL(各セルに併記)で最新版を確認してください。
  • 法的助言ではありません: 法解釈・規制適合性の最終判断は、所属機関の法務 / 規制当局 / 専門家に確認してください。

関連リソース