「セカンドオピニオン」という考えが広がっている

医師の診断に疑問を持つ人がいるということであろう

人でも診断にばらつきがあるのに

「生成AI」に100%を求めるのは傲慢ですね

 

「生成AI」が100%の診断結果出せるようになった場合

人の医師が診断する必要なくなり

人は検査・治療のみに専念することが出来るでしょうね

まぁ、

実際には100%は不可能と言える訳で

「生成AI」の診断した結果を元に

医師が判断をしないといけないでしょうけどね

 

例えば、

「生成AI」の診断で

医療的に専門外・想定外の病気が発見できるのであれば

それはそれでいいことだと思うけどね

 

医療現場でも生成AI活用、「診断」にばらつき…日本人のデータもっと学ばせる必要あり

5/4(土) 5:01配信

 

[生成AI考]第2部 悩める現場<4>
 頭痛患者らが訪れる東京都内のクリニック。野村竜太郎医師は診察前、生成AI(人工知能)が作った要約文に目を通す。基になるのは患者が事前にスマートフォンで入力した情報だ。

 

 頭痛の原因は様々だ。どのタイプか見極めるには、痛みの特徴や症状の経過など確かめる点が多い。「必要な情報を瞬時にまとめてくれる。的を絞った質問ができ、診察がスムーズ」と便利さを語る。

 ただ、要約文は完全ではないという。〈患者の要望は、昔から痛かったりやんだりを繰り返している〉など不自然な表現もある。診断の手がかりが抜けているかもしれない。診察では患者に要約文の内容を確認、重要なポイントを落とさぬよう注意を払う。

 要約機能は、新興企業「ユビー」(東京都中央区)が昨年10月に商用化した。現在、47都道府県の約1400医療機関が導入する。

 生成AIは言葉の壁をなくす手段にもなる。HITO(ひと)病院(愛媛県四国中央市)ではミャンマーやフィリピンなどから来た看護補助者約20人が働く。スマホのチャットには逐次、日本人看護師の指示が届く。「シーツを交換してください」などの文章は米マイクロソフトのAIが母国語に翻訳する。補助者がチャットに書き込んだ作業報告は、看護師が日本語で確かめる。

 チャットを昨夏に取り入れ「吸引セット」を頼まれたのに「クッション」を手渡すなど聞き間違いのミスがなくなった。迅速に的確に動ける人材として重症患者がいる病棟の夜勤に入れるようになった。

 医療機関が生成AIを使ったサービスを使い始めた背景には、限られた人材を有効活用したい思惑がある。勤務医の残業時間を規制する「医師の働き方改革」が今年4月に始まり、さらなる普及が見込まれる。

 一方、診療行為への活用は時期尚早との見方が医療現場では多い。野村章洋・金沢大准教授(循環器内科)は「医療のミスは命に関わる。正確性を高めないと診断や治療に使えない」とする。

 

 同大などは昨春、米オープンAIのチャットGPTに日本の医師国家試験を解かせた。正答率は約80%。合格ラインを超えたが重大な間違いもあった。過呼吸の治療法で「紙袋を口につけて呼吸させる」を選んだ。窒息死の危険から推奨されなくなった方法だ。最新の知見を学んでいなかったための誤りとみられる。

 東京医科歯科大のチームは昨年9月に報告した研究で、解答の不安定さを指摘した。症状から何の病気かをチャットGPT無料版に尋ねると、同じ質問文でも入力した日などによって答えはばらついた。多様な症状が出る「頸髄(けいずい)症」が正解の質問文では「末梢(まっしょう)神経障害」「多発性硬化症」など様々な病名を示し、正答と判定されたのは25回中1回(4%)だった。

 情報漏えい対策も課題だ。入力された患者の病名や検査結果の個人情報が流出しない手立てが不可欠だ。

 AIと医療に詳しい永井良三・自治医大学長は「生成AIは進歩しても一定のミスは起こる。問題が生じた時の責任について議論が必要だ。日本人のデータをもっとAIに学ばせて質の向上を図り、医療のどの部分を担えるのか、患者にどう役立つかを検証するべきだ」と話している。

 

最終更新:5/4(土) 9:05
読売新聞オンライン