コラム第917号:「AIロボット手術とデジタル・トラスト」

第917号コラム:和田 則仁 理事(神戸大学大学院医学研究科 医療創成工学専攻)
題:AIロボット手術とデジタル・トラスト

低侵襲手術の進歩は、患者さんの身体的負担を軽減し、回復を早めるという点で、外科医療を大きく変えてきました。腹腔鏡手術、そしてロボット支援手術の普及によって、私たちは狭い術野でも精緻な操作を行えるようになりました。しかも現在の変化は、単に「道具が進歩した」という段階にとどまりません。術前画像の解析、術中映像からの解剖構造認識、手技の進行状況の把握、術者教育や技能評価まで、AIはすでに手術の周辺に入り込み始めています。しかし現時点では、広く使われているロボット支援手術は、外科医がコンソールから操作するコンピュータ支援システムであり、自律性はありません。だからこそ重要なのは、「人が最終判断する現場」でAIをどう信頼し、どう使いこなすかという問題です。

具体例を挙げますと、消化器外科領域で最も多く行われている術式の一つである腹腔鏡下胆嚢摘出術では、胆管損傷を避けるために critical view of safety(CVS)の確認が極めて重要です。近年、この術野映像をAIが解析し、手術フェーズや解剖構造、危険領域を認識しようとする研究が進んでいます。将来的には、術者が「ここまでは安全に剥離されている」「この構造物は胆嚢管・胆嚢動脈の可能性が高い」といった支援情報をリアルタイムで受け取る場面が増えることは間違ありません。ヘルニア修復術や消化器外科領域でも、AIによる術野認識や手術工程の自動把握は、教育、ナビゲーション、手技評価の基盤技術として期待されています。こうした技術は確かに魅力的ですが、同時に「その表示をどこまで信じてよいのか」「誤認識した場合に誰がどう気づくのか」という新たな問いを生みます。

ここで必要になるのが、デジタル・トラストという視点です。医療AIにおける信頼は、単に精度が高いというだけでは成立しません。外科医の立場から言い換えれば、AIが何を見て、どのような根拠で、どこまで確からしい提案を行ったのかを理解できること、そして最終判断者が人間であることを明確に保つことが必要です。手術は予定どおりに進まないことも少なくありません。癒着、高度炎症、出血、解剖の個体差といった「例外」が頻繁に起こる場ですので、AIの性能だけでなく、AIの限界が容易に認識できることこそが信頼の条件になると考えられます。

この問題を考えるとき、手術室は今や一種の「高密度データ空間」になっていると感じています。術野映像だけではなく、術者のコンソール操作、鉗子やエネルギーデバイスの作動履歴、患者モニタ、生体情報、アラーム、室内音声、場合によっては視線や動線まで、多様なデータが同時に発生しています。これらを単なる「記録」と見るか、「後から検証可能な信頼基盤」と見るかで意味は大きく変わります。AIが術中支援に関与するほど、手術の質を担保するためには、結果だけでなくプロセスを残す必要が出てきます。術者がどの映像を見ていたのか、AIはどの時点で何を提示したのか、その時に機器はどう動いていたのか。そこまでたどれなければ、十分な説明責任を果たすことはできません。

私が所属している講座では、日本医療研究開発機構(AMED)の革新的医療技術研究開発推進事業(産学官共同型)(AIMGAIN)において、「AI Robotic Surgery(AIRoS)を実現するDX Platformの開発」という研究開発課題に取り組んでいます。まさに手術室内の様々な情報をミドルウェアのOPeLiNKを持ちして時間同期した状態で連携するスマート治療室を実現しています。その上で、手術室内の医療機器を自動化・自立化する研究開発を進めています。まずは麻酔器、手術ベッド、そして手術支援ロボットを対象としているところです。AIの学習データとして、手術室内の音声、映像、患者情報、機器情報、環境情報を同期させて記録し、後から解析する仕組みが必要となります。AIによる自動化・自立化は、手術安全性の改善、チームコミュニケーションの可視化、教育、手順改善など、平時の質向上や効率化に役立てる点に意義があります。もちろん、デジタル・フォレンジック的な観点での応用にも有用であることは言うまでもありません。ただし、このような仕組みは同時に強い緊張感も伴います。患者さんのプライバシー、医療者の心理的安全性、同意のあり方、記録の利用目的、訴訟との関係、保存期間、改ざん防止など、検討すべき論点は少なくありません。だからこそ、デジタル・フォレンジックの知見が重要になります。問題が起きた後に解析技術を持ち出すのでは遅く、平時から「何を、どの粒度で、どのように保全するか」を設計しておく必要があります。

もう一つ、AI医療機器ならではの論点は、「更新される」という性質です。従来のメスや鉗子であれば、明日になって急に別の振る舞いをすることはありません。しかしAIを利用した医療機器では、学習データの追加、アルゴリズムの修正、性能改善のための更新によって、同じ製品名でも中身が変化し得ます。どの更新が予定されたもので、どの性能変化が許容され、どのような監視で変化を検知するのか。これは外科医にとっても無関係ではありません。たとえば、ある術野を認識するAIが更新後に特定の状況で誤認識が増えた場合、その変化が把握できなければ現場は混乱することになります。信頼とは「最初に承認された」ことではなく、「運用中も変化を監視し続ける」ことで初めて維持されるといえます。
さらに、手術室のデジタル化はサイバーセキュリティの問題とも直結します。ロボット手術装置、画像システム、院内ネットワーク、クラウド連携、遠隔保守が結びつくほど、障害や攻撃の影響範囲は広がります。外科医はつい「自分の技術で対処できればよい」と考えがちですが、デジタル・トラストの観点ではそれでは不十分です。安全とは、正しく作動することだけではなく、異常時にフェイルセーフの制御が行われ、記録が残り、原因究明が可能であることまで含みます。AIロボット手術のリスクは、誤作動だけではありません。ログの欠落、時刻の不一致、更新履歴の不明瞭さ、アクセス権限の甘さといった“見えにくい脆弱性”もまた、患者安全を脅かし得ます。

AIロボット手術の未来を支えるのは、優れたアルゴリズムだけではありません。誰が何を見て、どのように判断し、どの記録が残り、後からどこまで検証できるのか。その全体を設計することが、これからの医療におけるデジタル・トラストです。個人的には、この数か月の生成AIの進化を見るにつけ、外科医としてAIが手術をより安全で精緻なものにする可能性を強く感じています。一方で、その恩恵を社会が安心して受け入れるためには、「賢いAI」を作ること以上に、信頼できる「検証可能なAI」を実装することも重要だとも感じています。デジタル・フォレンジックの視点は、医療事故の事後対応にとどまらず、AI医療の信頼基盤を平時から組み立てるための知恵として、今後ますます重要になると思われます。

【著作権は、和田氏に属します】