ランセット10月18日号、Digital medicine: Preserving clinical skills in the age of AI assistanceを読む。
アルゴリズムによる援助が支配的になるAIの時代にあって臨床医はどうやって自分の核となる臨床スキルを保持するのだろうか。臨床においてAIがますますその役割を広げるにつれて、臨床上の仕事や推論の重荷を下ろすことでスキルが低下する(deskilling)、AIのエラーやバイアスを採用する(mis-skilling)、あるいはそもそも能力を得ることの失敗(never-skilling)などの懸念が生じる。そのようなスキルが低下するというエビデンスは心電図やX線画像の自働解析に現れている。今年のはじめの観察研究では経験を積んだ大腸内視鏡医のポリープを読む技量がAIサポートがないところでは低下すると懸念を示した。
ポーランドの4か所の内視鏡センターではAIポリープ検出システムを3ヶ月使用した19人の内視鏡医と外科医はAIサポートなしでは腺腫を見つける率が低下した。グループとしてみるとAIサポートによるポリープ診断のあとの技量は元々のAIサポートなしの技量よりも低下した。何人かの内視鏡医はその技量を著しく落とした一方その他の医師はスキルを維持した。これからいえるのはdeskillingはすべてにみられるわけではないこと、そしてAIがケアのルーチンに組みこまれるにつれ我々はdeskillingを和らげるアプローチを探さなければならないことである。
オートメーションとスキル保持のバランスのとり方について長く苦闘している他の産業から学ぶことができる。航空関係では自動パイロットシステムが安全性に寄与してきた、それでもマニュアルの飛行スキルを低下させる懸念はないわけではない。管理者は手動でのルーチンの飛行時間およびシステム不全類似の状況のシミュレーションを学ぶことを試みた。原発のオペレータは万が一自動システムが故障した際でも大事なスキルが機能できるように危機的シナリオを規則的な間隔でリハーサルする。
AI関連deskillingの勢いは胃腸内視鏡にとどまらない。外科系および緊急医スペシャリストは予想外の事態に備え常に警戒心と準備が要求される。皮膚科、病理科、放射線は精緻な視覚診断とパタン認識が必要となる。画像読影のみならず、診断推論、意思決定、そして患者マネジメントにはAIにより浸食されないような批判的思考が必要とされる。患者との出会いはしばしば性急であり、深い分析や推論の余地が奪われる。そこで医師が負担の一部をシェアしてもらえるAIを歓迎するのは不思議ではない。しかし、AIが臨床に定着すると新たなリスクが生じる。警戒心が低下し、スキルが衰え、より多くの医師がAIを頼るようになり、AIの助けなしには臨床に自信が持てなくなる。
これらの懸念はとりわけ教育に関連する。トレーニング中の医師は大事な能力を身に着ける前にAIに依存することになる(never-skilling)。万が一機械が故障したら基礎を身に着けることは不可能となり、臨床的直観や判断力を発展させる骨格となる経験が削られことになる。AI-enabled environmentで医師のスキルや思考力を守ることは簡単ではない。過剰依存、警戒心の低下、deskillingのtrajectoryはアルゴリズム、専門領域、コンテクストによって可能な解決法と同様に異なる。一つのセイフガードは短い意図的な“AI-off”あるいは“AI-delay”を臨床の中に設けること、警戒心を再調整し、AIの援助なしに仕事をする客観的な方法を獲得すること。トレーニングあるいはスキル維持セッションの間は、AIの解釈は、研修者が自分の所見を切り出したあとのみ出るようにセットする。もうひとつのアプローチはより強固な隔壁を作ること、つまりAIは規則的な、量の多い、曖昧さの少ない仕事に限ることで、医師はよりcontextualな、曖昧な、重要な決定に関わる仕事に向き合える。例えば、放射線科ではAIアルゴリズムが正常レ線を除外することで放射線科医はより微妙で複雑な所見に集中することができる。そのような境界線は、仕事が重なり共有されると起こりがちなオートメーションバイアス(誤ったAIの結果に頼りすぎる事)やオートメーションネグレクト(正しい結果を無視すること)を減らすことに役立つ。どのような戦略であれ大事なことは、AI toolの信頼性を評価できる臨床医の進化する能力である。
大腸内視鏡AI deskillingの研究はAIの告発状ではない。40のランダマイズ トライアルからのエビデンスでは、医師が前癌状態の大腸ポリープをより多く診断するのにAIが役立つことを示した。このような進歩を我々は歓迎すべきである。しかし、AIが臨床のなかに組み込まれるにつれて医師の行動や臨床的なケアが変ることがないか、注意深くみていかなければならない。AIの採用は加速的に増えるだろう、それでも仕事の流れや慣習を向上させることは可能である。我々がAIを用いていかにデザインし、統合し、訓練を重ねるかという目下の選択が、これらのシステムが我々の仕事を向上させるか、あるいはじわじわと静かに我々の仕事のスキルを侵食してゆくのかを決定するだろう。
以上が抄訳である。
附記
*2023年にもランセット誌Digital medicine欄でAIに関する同じ著者(ERIC .TOPOL: DEEP MEDICINEの著者)による論稿がある。2023年10月22日の臨床余録で取り上げた。「AIは患者に共感できるか」というタイトル。その要旨をふりかえってみよう。
*AIは事務的な仕事をこなすことができるので、医師に時間という贈り物をすることになる。その時間で医師は、注意深い身体診察、人間的触れ合い、信頼関係の醸成、純粋なケアや思いやりを患者との間に持つことができる。さらに、AIは事務的な仕事だけでなく、患者の質問に対する応答において、ひとよりもChatGPTの方が共感性(empathy)が高かったという。しかし、この共感性は偽の共感性(pseudo-empathy)とも言うべきで、真の共感性はアイコンタクトや握手など非言語的なヒューマンタッチを介するもの。また、神経性食思不振症など複雑な医療情報が必要な疾患にたいする質問にはAIでは正しい応答は困難であり注意を要する。
*これが前回の要旨である。今回の論稿では医師のAIへの依存度が増すにつれてAIがなかった時の医師の診断や治療スキルに比べて、AI時代の医師自身のスキルがかえって低下するという皮肉な現象に焦点をあてている。だからといってAIを拒否するのではなくその能力とうまくつきあうことを通して共存していく方途を探っている。
当サイトに掲載されている文章等は著作権法により保護されています
権利者の許可なく転載することを禁じます