ブログ
【ヘルスケア】生成AI医療機器開発における「データの壁」と法的解決策 ~仮名加工情報の共同利用スキームと薬事規制の最新動向~
2026.02.05
近年、ChatGPTをはじめとする生成AI技術の飛躍的な進歩に伴い、医療機器開発(SaMD)の現場でもAIの利活用が急速に進んでいます。しかし、AI医療機器の開発には、学習用データとして膨大な医療情報(画像、検査値、カルテ等)が不可欠であり、ここには個人情報保護法および薬機法上の複雑な法的課題が立ちはだかります。
本稿では、2026年1月16日に開催された医法研訟務問題研究部会での講演内容をもとに、AI医療機器開発における最大のボトルネックである「データ利活用の法的スキーム」と「薬事承認審査のポイント」について解説します。
医療データ利活用の「壁」と「仮名加工情報」への期待
AI開発において企業が直面する最大の課題は、医療機関にある既存データをいかにして適法に収集するかという点です。ここには大きく2つの壁が存在します。
- 利用目的の壁: 過去のデータは「診療目的」で取得されており、「AI開発目的」 での利用同意が取れていない。
- 第三者提供の壁: 医療機関から民間企業へのデータ提供には、原則として患者本人の同意が必要だが、過去に遡って同意(オプトイン)を取得するのは困難。
この解決策として実務上注目されているのが、「仮名加工情報(Pseudonymized Data)」の活用です。
仮名加工情報のメリット
2022年施行の改正個人情報保護法で導入された「仮名加工情報」は、他の情報と照合しない限り個人を識別できないように加工した情報です。 通常の個人情報と異なり、利用目的の変更が柔軟に許容されるため、当初「診療目的」で取得したデータであっても、仮名加工情報に加工することで「AI医療機器の研究開発」へと利用目的を変更することが可能となります 。
共同利用スキーム」による第三者提供制限の突破
仮名加工情報は利用目的の変更が可能である一方、原則として「第三者提供」が禁止されています。したがって、医療機関が作成した仮名加工情報を、単にメーカーに提供することはできません。
この「第三者提供の壁」を乗り越える法的ロジックとして有効なのが、個人情報保護法上の「共同利用(27条5項3号)」のスキームです。
共同利用のポイント
法的には、特定の事業者間(医療機関とメーカー等)でデータを共同利用する場合、予め一定事項を公表等していれば、第三者提供の例外として扱われます。重要なのは、仮名加工情報の共同利用においては、作成元(医療機関)での取得時の利用目的や経緯にかかわらず、共同利用者の範囲や利用目的を柔軟に設定(変更)できるという点です。
これにより、医療機関とメーカーが「AI開発」を目的とした共同利用の公表(または通知)を行い、適切な契約を締結することで、本人の同意を得ることなくデータの連携が可能になります。
「生命・医学系指針」の上乗せ規制に注意
法務担当者が特に注意すべきは、個人情報保護法だけでなく、「人を対象とする生命科学・医学系研究に関する倫理指針(倫理指針)」の適用です。
個人情報保護法上は、仮名加工情報の作成にあたって利用目的を変更することについてオプトアウト(本人への通知と拒否機会の付与)までは求められていません。しかし、医療情報を用いたAI開発は「研究」に該当するため、倫理指針が適用されます。
「仮名加工情報である医療情報のみを用いて行うAI画像診断機器等の開発・研究等への 生命・医学系指針の適用等について」(令和4年3月31日厚労省事務連絡)
倫理指針においては、「新たに医療情報を仮名加工情報を作成する場合」には、オプトアウト手続き及びその前提としての倫理審査委員会(IRB)が必要とされています。 実務では、「個人情報保護法上は適法だが、倫理指針上の手続が漏れていた」という事態を避けるため留意が必要です。
2026年の法改正・指針改正の動向
倫理指針の改正(2026年3月見込み)
現在、文部科学省・厚生労働省・経済産業省の合同会議において、「生命・医学系指針」の改正に向けたパブリックコメント手続き(2025年12月26日~2026年1月25日)が実施されています。 2026年3月以降の公布・施行が見込まれるこの改正では、以下の点が大きな論点となっています。
- IC・オプトアウト手続きの見直し: 研究のリスクに応じたインフォームド・コンセント(IC)手続の簡素化や整理が行われる見込みです。
- 外国移転規制の整理: 海外へのデータ提供に関する手続きの明確化が期待されています。
個人情報保護法の「3年ごと見直し」
個人情報保護法は、施行後3年ごとの制度見直しが規定されています。AI技術の進化やプライバシーリスクの高まりを踏まえ、データの利活用のニーズと個人情報保護のバランスをどう取るか、次期改正に向けた議論の動向を注視する必要があります。
個人情報保護法改正の動向についてはこちらの記事をご参照ください。
生成AI医療機器の薬事承認とブラックボックス問題
薬機法上の承認審査においても、AI特有の論点があります。深層学習を用いたAIはアルゴリズムが「ブラックボックス化」しており、そのロジックを完全に説明することが困難です。
審査の考え方
現在のPMDAの審査実務では、アルゴリズムの中身そのものではなく、「最終的なモデルが、その目的を達成するために必要となる性能を有するか否か」という結果の妥当性が評価の中心となります。ただし、設計開発時のネットワーク構造やプログラム概要の提示は必要であり、添付文書においても、検出アルゴリズムの概要を記載する必要があります 。
信頼性調査とSDV(原資料との照合)
承認申請データの信頼性調査において、メーカーが医療機関のカルテ等の原資料(生データ)を直接確認(SDV)することは、個人情報保護の観点から制限があります。しかし、規制当局(PMDA等)による調査については、個人情報保護法上の「法令に基づく場合」の例外が適用されるため、本人の同意なく原資料の閲覧・照合が可能であるとの解釈が明確化されています 。
「追加的な侵襲・介入を伴わない既存の医用画像データ等を用いた診断用医療機器の性能評価試験の取扱いに関する質疑応答集(Q&A)について」の一部改正について」(事務連絡令和7年3月17日)
IDATEN制度(変更計画確認申請制度)
市販後も学習を継続し性能が変化するAI医療機器にとって、ソフトウェアのバージョンアップや追加学習を行う都度の一部変更承認申請は大きな負担です。IDATEN制度を活用し、将来の変更計画を事前に承認されていれば、事前に変更計画が確認されている範囲において、届出のみで迅速な改良・実装が可能となります。
次世代医療基盤法への期待
2024年の次世代医療基盤法の改正により、「仮名加工医療情報」が新設されました。これにより、特異的な症例データ等を残したまま、複数の医療機関やデータベースを跨いだマルチモーダルなAI開発が可能になります。既に製薬企業による認定取得事例も出ており 、大規模データの活用においては有力な選択肢となります。個人情報保護法の仮名加工情報を活用してAI医療機器開発を行うスキームと比較すると仮名加工情報の場合には医療機関毎に仮名加工情報化された情報が孤立化・サイロ化することが避けられませんが、次世代医療基盤法においては複数の医療機関やデータベースを跨いだマルチモーダルなAI開発が可能になることに期待がされます。
おわりに
生成AI医療機器の開発は、技術の進化に対し、早期の実用化に向けて法規制が急ピッチで整備されつつあります。他方で変化する法規制に一早く順応し、法令を遵守して製品開発を急ぐ必要があります。特にデータの権利処理(契約・同意・オプトアウト)の不備は、後の薬事承認やビジネス展開において致命的なリスクとなり得ます。
当事務所では、これらの最新の規制動向を踏まえ、開発初期段階からの知財・規制戦略の策定を支援しております。
[免責事項]
本記事の内容は、2026年2月時点の法令および実務情報に基づいています。具体的な案件のご相談につきましては、弁護士まで個別にお問い合わせください。
Member
PROFILE
