〈医療〉 生成AIは医療に何をもたらすか2024年3月4日

  • 医師のサポート役にも
  • 負担を減らす便利な“道具”

 人工知能(AI)研究の第一人者である、東京大学次世代知能科学研究センターの松原仁教授(人工知能学会元会長)が1月17日、イベント「メディカル ジャパン大阪」で『生成AIは医療に何をもたらすか』と題した講演を行いました。その要旨を、教授の了承を得て、加筆・編集して掲載します。

進化
画像→言語へ
回路が劇的進化

 近年のAIは、大量に読み込んだデータを基に、コンピューターが自ら学習する「ディープラーニング(深層学習)」によって、大きく進化しました。
 その上で2021年までは、データを“認識”するAIでした。しかし、翌22年に入ると、画像を“生成”するAI(Stable Diffusionなど)が公開されました。そして、本物と間違うほどの偽動画を指す「ディープフェイク」という言葉が、世界を席巻しました。
 コンピューターの“神経回路(パラメータ)”の数は数億といわれ、そこに、10億を超す画像とキャプション(文字情報)のペアを読み込ませました。
 そしてその年の11月、「言語」を生成するAIである「ChatGPT」が登場しました。“神経回路”の数は、画像の生成AIを、はるかにしのぐ約1750億といいます。「インターネットの発明に匹敵」(世界的実業家ビル・ゲイツ氏)と評されました。
 主に欧米(英語圏)の文献を読み込ませましたが、新聞等の公的な文献だけでなく、不確かな情報が入り交じる個人ブログなども読み込ませたため、のちに“AIはうそをつく”などといわれ、信頼性を一部損なうことになります。なおその後、誤った情報の多くは、人海戦術などで取り除いているといいます。

特徴
正誤を気にせず
次の単語を予測

 ChatGPTの大きな特徴は、
 ・読み込んだ文献の“意味”は認識していない
 ・論理的な推論はしていない
 ・次に出てくる“単語”を予測している
 ・出した文章や答えの“正誤”は判断していない
 などが挙げられます。
 例えば、「1+1」を「2」と答えても、それは計算の結果でなく、次に来る可能性が最も高い単語が「2」と予測しただけ。「もっともらしい答えを、正誤を気にせず答えている」のです。
 “AIはうそをつく”ともいわれますが、故意に間違えたわけではなく、その意味で、うそはついていません。悪気がない分、“たちが悪い”と言えるかもしれません。

精度
日本の情報が
正確でない原因

 答えや文章の正確性を高めるためには、読み込ませる文献の量を多くすることが極めて重要です。逆に、文献が少ないと正確性は下がります。
 ChatGPTは、主に欧米の文献を読み込ませているため、生み出す答えはどうしても欧米寄りです。
 特に初期は、日本について不正確な答えが多く交じっていました。日本の文献をあまり読み込ませていなかったためです。
 また、日本語でやりとりする際、日本の言語モデルに情報がない場合は
 「日本語で質問→英語に翻訳→情報を処理→結果の英語を日本語に翻訳」
 といった流れになります。英語以外の言語でやり取りする場合の、精度が下がる大きな原因の一つです。現在、初めから日本の文献を読み込ませた、日本製の生成AIの作成が進行中です。

生成AIの使い道

生成AIの使い道

実力
医師試験に合格
医学は“世界共通”

 さて、本題の「医療に何をもたらすか」です。
 ChatGPTは、不確かな情報を取り除いたこともあり、正確性がどんどん向上しています。改良版も含め、すでに日米の医師国家試験とアメリカの司法試験で合格水準を超えました。ただ、日本の司法試験にはまだ合格に至ったという報は聞きません。
 「法律」は国によって異なりますが、「医学の情報」は、ほぼ“世界共通”であることが関係しているかもしれません。医療文献は論文が多く、正確な情報を多く読み込ませやすいことも理由の一つでしょう。
 AIは、用途の幅を狭めたほうが安く、精度が高いものが作れます。今、世界中でそういった“専門分野を絞ったAI”が開発中です。医療系では、「Med PaLM」「Med LM」といった生成AIが公開されており、本格的な活用に向けて準備が進められています。これらには正確な文献はもちろん、「NGワード集」なども読み込ませてあり、間違いがかなり少ないといわれています。

使い方
論文の翻訳・要約
カルテ案の作成

 日本の医療は、技術や高齢者へのケア、保険制度など、多くの長所があります。半面、少子高齢化などの影響により、「医療スタッフの不足や負担増」「長い待ち時間」「情報の共有不足」などの問題が指摘されています。
 ChatGPTは、英語力を測る世界共通の試験「TOEIC」のリーディング(パート5)で正答率約99%という力があり、翻訳がかなり得意です。
 最近では、翻訳家やプログラマーでも、仕事の流れを、「初めにAIに翻訳の原案を作らせ、それを整える」人が出てきました。同じように、欧米などの医学論文を読む際に、「まずAIに論文を翻訳・要約させ、それをナナメ読みする」医師や医学者も増えてきました。
 将来的な展望でいえば、カルテの原案作りなどの事務作業を担う可能性は高いと思います。これは、医師や患者の負担や時間を軽減します。
 私は、今の生成AIは、「まだ人間の力は超えていないが、かなりのレベルに達した、発展途上の道具」だと考えています。
 例えば、よく知られているように、AIは膨大な画像を読み込めるため、画像診断や、病名の“候補”を挙げることは得意です。

課題
目と耳が弱い
“責任”がない

 課題の一つは、空間認識能力が低いことです。有力な「目」「耳」を持っていない。そのため、現状は「手術」には不向きだと考えます。
 もし今後、AIが有力な目や耳を獲得できたら、医師の診察や診断をAIがそばで見聞きして、情報を蓄積することも可能になります。診察方法や診断について、AIが意見を具申するといった、医師の“相談相手”“サポート役”になるかもしれません。
 最近のAIは、人間の質問に「分からない」と答えるようになりました。これまでは、あやふやでも、もっともらしい単語を答えてしまう“知ったかぶり”でした。これは、ものすごい進歩です。
 その上で、AIに“責任”という概念はありません。「最終判断は、人間の医師が責任をもって下す」。このことは変わらないと考えます。
 また、精度が上がっているとはいえ、答えに誤りが交じることは、とりわけ医療にとっては大きな課題です。ただ“間違い”は人間でも避けられません。その上で、複数のAIの併用で、間違う確率を減らすことは可能です。
 患者データなどの「情報漏えい」も課題です。現在、医療系AIでは「情報が漏れないフィルタリングソフトの開発」や、「漏れてはいけないデータは読み込ませない」などの対策が行われています。

今後
自動車と同様に
活用の方向へ

 自動車は、資金と技術があれば大量生産が可能になった時代に、世界中に広がりました。交通事故などの新たな危険もはらんだ“道具”でしたが、禁止されずに道路や交通法、免許制度などがつくられ、社会が活用する方向に進みました。メリットがデメリットを上回ると判断されたためです。
 AIは、自動車と似ています。世界各地で作られるようになったAIは、世の中を変えるほどのメリットを伴った、画期的な技術です。個人の選択は別として、社会全体が“活用しない”という方向には向かわないとみています。
 ただし、長い目で見て「教育」「人間の思考」などに大きな影響を及ぼすことは間違いありません。
 医療分野も含め、社会として“生成AIに依存しない姿勢”をどう作り上げるのか。AIを使う際の「距離感」「ルールの整備」と併せて、重要な課題です。