皆さんこんにちはPartner of Medical Translatorsの津村です。
最近とみに耳にする言葉が「AI医療」です。そこで、色々と調べてみたら、なんと知らない事だらけでした!(知らないのはあんただけだろぅ!と怒られそうですが・・・)
と、いうことで、今日は「AI医療」とそれに伴う「AI技術」について述べてみたいと思います。
もくじ
AI医療ってなんだ?
AI医療とは、人工知能(AI:artificial intelligence)を利用した医療のことです。
これまでの医療も、MRIやCT、超音波診断装置、HPLC(高速液体クロマトグラフィー)、電子顕微鏡などのデータをコンピュータで処理して医療に役立てていましたが、これらの機器で使用しているコンピュータは専用の記憶・高速演算装置です。
今日お話しするAIは単なる記憶・演算装置ではなく、自らが考えるソフトのことです。
具体的な例を幾つかお示ししましょう。
わずか10分で診断を下したIBM Watson
2016年8月に、東京大学医科学研究所は、IBM製のAIであるWatsonが60代の女性患者の正確な白血病の病名をわずか10分で見抜いただけでなく、病名から割り出した適切な治療法によって患者の命を救ったと公表しました。
この患者さんは当初、急性骨髄性白血病(AML:acute myeloblastic leukemia)と診断され、6ヶ月以上に渡って2種類の抗がん剤の治療を受けていましたが、病状は好転しませんでした。
ところが東京大学医科学研究所のWatsonは、治療法を模索していた医師に正しい病名である二次性白血病(secondary leukemia)を告げたばかりか、その治療法も提案したのです。このアドバイスによって患者の病状は快方に向かい、今では元気に通院しているとのことです。
医科研によりますと、Watsonは2000万件以上のがんに関する論文を学習しており、この膨大なデータに基づいて自身で推論を重ねた結果、この結論を導き出したとのことです。
専門家でさえ見抜けなかった病態を、わずか10分で解明したこのソフトこそがAI、即ち、人工知能なのです。
画像診断コンテストでAIが圧勝!
2017年に米国の医師会雑誌のJAMA(Journal of the American Medical Association)に前年に行われた世界規模の画像診断コンテスト「CAMELYON16」の結果が公表されました。
コンテストでは、画像診断の情報を学習したAIが、平均16年の経歴を持つ11名の医師(病理医)に挑み、乳癌の画像129枚を見て、どれが転移を示す画像かを当て、正解率と誤診率を競いました。
その結果、ハーバード大学とマサチューセッツ工科大学の研究チームが開発したAIが11名の医師を押さえて、ぶっちぎりで優勝しました。
驚くことに、AIが129枚の画像を判断した時間は数10秒であったのに対し、医師らが判断に要した時間は平均で30時間とのことですので、実際の診療の場でのアドバンテージは計り知れないものがあります。
このAIはDeep learning(深層学習)と呼ばれる技術を使っており、事前に数万枚の乳癌の画像を学習し、転移のあるものとないものを判断するアルゴリズムを自分で組み立てていたとのことです。
以上の様に、画像データによる特徴付けや膨大な文献を参照して適切な治療法をみつける・・・と言った作業はAIが行い、人がそのAIの情報を基に正確な診断と治療、患者のケアを行っていくというのがAI医療と言えるのではないでしょうか。
この様なAI医療の将来を予測していくためには、上にも出てきたAI技術のDeep learning(深層学習)とか、機械学習というものをある程度理解しておく必要があります。
Deep learning(深層学習)とは
Deep learningとは「機械学習(machine learning)」の中のひとつのアルゴリズムですが、近年、特に注目されているソフトです。
コンピュータでの通常の学習というのは、例えば、リンゴ🍎とバナナ🍌を見分ける作業をする場合に、それぞれの相違点と類似点、特徴、注目するポイントなどを人間が逐一プログラムを組んでコンピュータに記憶させます。
従いまして、コンピュータは記憶したプログラムどおりに計算し、そのプログラムの範囲を超えて計算を拡張させることはありません。
一方、機械学習では、リンゴ🍎とバナナ🍌の膨大な画像と膨大な関連文字情報をコンピュータに入力すると、コンピュータがそれらの画像や情報を似たもの同士で整理して(これをクラスター[cluster]と言います)、リンゴの特徴とバナナの特徴をコンピュータ内で構築します。
従いまして、機械学習では、学習用のデータを揃えて入力するところまでは人間が関与していますが、一旦解析が始まると、あとはコンピュータ任せですので、どういうアルゴリズムを構築したかを人間が知ることは出来ません。
グーグルスピーカー(AIスピーカー)の様な、対話できるソフトなどはこの機械学習の技術を使っていて、学習用の会話(音声)データの他に、実際に自分が使用されることで自己学習し、性能をさらに向上させていきます。
この機械学習の中で、特に画像処理が得意なのがDeep learningです。
Deep learningを行うためには画像を高速で処理できるGPU(graphics processing unit:画像処理装置)と学習用の大量の画像データが必要となります。
そして、Deep learningの性能は何万、何十万というレベルの画像データをどれだけ揃えられるかによっているのです。
Deep learningのメカニズム
Deep learningの学習の仕方は、人間のそれとよく似ています。
人間は、多数のリンゴというものの実物や画像を見て、触って、食べることによって、リンゴという概念を構築します。
Deep learningでは食べたり、触ったりすることは出来ませんが、1枚の画像を何百というマス目に区切って、そのマスの色調とか明暗、形を数値化し、それを何万枚もくりかえすことで、共通した形や色調(の数値)を抽出してリンゴという概念を(数値として)作り出していると考えられています。
次に、得体の知れない画像↓が提示されたときに、その画像のマス目の色調とか明暗、形がリンゴのそれと合致しているかどうかを比較検討します。
そして、この↑画像がリンゴではないと判断したならば、別の学習記憶の中から合致するものを探し出して「バナナ」と結論付けている・・・と考えられています。
この思考過程は、まさに人間の思考過程と同じで、Deep learningでのこの様な情報の紐付けパターンを、ニューラルネットワーク(人間の脳のニューロンが作り出すネットワークと同じ意味)と呼んでいます。
そして、Deep learningでは、この得体の知れない画像を「バナナ」と判断した経験を、自分の学習記憶に追加することで、より精度の高い判断が出来る様になるのです。
上で例示した乳癌の場合で言えば、AIに事前に何千、何万という乳癌の転移画像と転移でない画像を学習させておくことで、AIに「乳癌の転移」という概念を構築しておけば、次に、得体の知れない画像を見せられたときに、それが「乳癌の転移」なのかどうかを瞬時に判断することが出来る・・・ということです。
と言うことで、Deep learningというソフトは、画像の中にある情報を瞬時に抽出し、判断情報とすることが得意技です。ですから、レントゲン写真やCT・MRI画像、超音波画像、顕微鏡画像などの解析に向いていることがお解りかと思います。
Deep learningの限界と問題点
現在のDeep learningの最大の問題点は、AIが導き出した答えが合っている、あるいは、突拍子もないことであるときに、どの様な思考過程でその結論に至ったかが人間にも、コンピュータ自身にも、解らないと言うことです。
Deep learningを使った医療機器の承認
Deep learningの画像処理能力に鑑みますと、医療における診断機器への応用が考えられます。もちろん、医療機器として臨床の場で使用するためには、事前に厚労省の承認を取得する必要があります。
しかし、現在の厚労省の承認条件では、医療機器の性能に変化が起こった際には、既承認機器であっても、改めて申請を行い、承認を得る必要があります。
上述のように、Deep learningでは、独自のアルゴリズムをもち、情報の増加に伴って、学習能力が高まり、ひいては、性能が高まってきます。
そうすると、性能が高まったのですから、改めて申請を行い、承認を得る必要がありますが、制度上、申請~承認の期間中は当該機器の新規販売が出来なくなります。
そこで、医療機器の性能が販売開始後に学習によって向上した場合、厚労省が改めて行う承認審査の期間が短縮される見通しとなりました。政府は近々に、関連する内容を盛り込んだ医薬品医療機器法の改正案を今国会に提出する予定だそうです。
しかし、ここで問題なのが、見かけ上性能が向上したことは解りますが、何故その様に向上したのか?というメカニズムが解らないことです。そのメカニズムはAIにしか解らないのですが、現在の技術では、AIが自分の改善したメカニズムについて説明する手段がないのです。
AIによる誤診の責任は誰が取るのか?
当局の立場は、あくまで「AIを使った診療であろうと最終的な責任は医師が負う」というものの様です。
AIによる診断を採用したことで医療ミスが生じた場合、採用した医師が責任を負うのは当然のことの様に思えます。しかし、ことはそう簡単ではなさそうです。なぜなら、上述の様にAIは・・・
- AIの判断はAI自身が行ったものであり、人間は関与していない。
- AIの判断に従わずに、医療ミスが起こったならば、それは当該医師の責任と見做される
- 現在、AIには自分の思考過程を提示できる機能がない
医師がAIの判断とおりの治療を行い、その結果患者さんの健康が損なわれても、AIが「なぜそのような判断をしたのか」を説明できる人も手段もないのです。さらに、医師どころか、AIの開発者も「なぜAIがそう考えたのか」を説明できないが現状です。
情報によると、最近、富士通さんがAIの判断を説明できる様にするソフトを開発しているとかですので、その様なバックアップ体制が整うまでは、AIの医療への本格参入は躊躇されるのではないかと思います。
デハデハ