AIは医療の未来をどのように変えるのか?

Lights of ideas

(写真:A Health Blogクリエイティブ・コモンズ表示 2.0 一般

日本でもアメリカでもAIはブームであり、いたるところで見聞きします。AIを使っていると主張するたけで会社を1つや2つ起こすことができると言われるほどブームであると言われる一方で、AIは「誇大広告(Hype)」であるという意見もアメリカではしばしば目にするようになってきました。

Picture6

例えばこの記事では、登壇者の一人がAIによって医師の代わりに放射線診断ができるようになるのではないかとコメントしたところ、IBMワトソンの医療部門(ワトソンヘルス)の責任者であるDiSanzo氏がそうではないと反論しました。彼女曰く、AIはCTスキャンの画像が64枚あったとして、そのうちの重要な4枚を選び出して、カルテ情報と共に医師に提供することはできるが、そこに映っているものががんなのか良性腫瘍なのかは人が判断しないといけないとコメントしました(リンク先にビデオがありますのでご関心のある方はご覧下さい)。これを聞いて、AIにはそんなに初歩的なことしかできないことに驚いたのは私だけでは無いと思います。

2017年9月に、権威ある医学雑誌にハーバード大学のオーベイマイヤーとリーがAIによって医療がどのように変わるかを説明した論文が掲載されました。この記事と、その他の医療におけるAIの第一人者達のコメントを元に、AIによって医療の何が変わり、何が変わらないと考えられているのかを説明したいと思います。

 

まずはAIによって得られるメリットです。

1.放射線診断、病理診断はAIによって診断可能になる(IBMのDiSanzo氏によると現在はまだできないということになっているが、いずれ可能になる)

2.患者の予後予測(助かる可能性が低い人に対する延命治療が必要無くなる、がん患者の予後がより正確に予測できるようになる)

3.テーラーメイド医療(特定の抗がん剤が効く人と効かない人を見分けることが可能になる)

4.情報の集約、効率化(過去の病歴などをまとめて重要な情報だけを抽出してくれるようになる)

 

逆に、AIにはできないと考えられる(近い将来AIができるようになるとは考えにくい)ことには以下のようなものがあります。

1.最終的な病気の診断

2.治療の選択(手術をするかどうか)など人の価値観が関わるもの

3.因果推論(因果関係なのか疑似相関なのか見分けること)

 

まずは、そもそもAIって何なの?というところをおさらいしましょう。すごく簡略化して説明すると以下のようになります。

  • AI(人工知能)
    • 学習、問題解決、パターン認識など、通常は人間の知能に関連している認知的問題の解決に取り込むコンピューターサイエンスの分野
  • 機械学習
    • 大量のデータ(学習データ)を解析し、規則性や関係性を見つけ出す手法
    • 何に着目すれば良いか(特徴の抽出)を人間が教える必要がある
  • 深層学習
    • 学習データから自動的に特徴を抽出する
    • トレーニングするのにビッグデータが必要
    • 主な適用領域は「音声認識」、「画像認識」、「言語処理」の3つ

si_0812-nvidia-01

(出典:@IT

最近のAIブーム(第三次AIブームと呼ばれることもある)になった理由の一つが、この深層学習の発展があります。機械学習では、データのどの部分に注目するべきか人間が教えなくてはならなかったのですが、深層学習ではそれをする必要がなくなりました。つまり、大きなデータを与えれば、AIが自動的にパターンを認識してくれるようになりました。

 

汎用AIと特化型AI

ちなみに、AIには汎用AI(Artificial general intelligence)と呼ばれるものと、特化型AI(Narrow AI)と呼ばれるものがあります。汎用AIとは、ドラえもんやターミネーターのように自分で考え、行動することができるものであり、映画でよく出てくるやつです。皆さんが未来のAIとしてイメージするものもおそらくこちらでしょう。一方で、特化型AIとは極めて限られた狭い領域のことをうまく行うことのできるAIのことです。囲碁を打つAlphaGoや、将棋を打つPONANZAがあります。音声認識や画像認識するAI、自動運転するAIもこちらに含まれます。汎用AIはまだ開発されておらず、いま存在しているのは特化型AIだけです。汎用AIの完成は多くのAI研究者の夢でもあり、AlphaGoを開発したディープマインドも初期から汎用AIの完成を目標にあげています。

汎用AI vs 特化型AI

 

医療においてAIが直面している3つの壁

そして医療においてAIがいま直面している3つの大きな壁(挑戦)があります。

1.AIを学習させるのに必要な「良質なデータ」が不足している

2.AIには(原則として)因果推論ができない

3.医療現場においてAIに実験させることはできない

 

一つずつ順番に見ていきましょう。

 

1.AIを学習させるのに必要な「良質なデータ」が不足している

実は医療において良質なデータを確保することは極めて難しいことが分かってきました。深層学習させるためにはビッグデータである必要がありますが、それだけでは不十分です。AIはシグナルとノイズを見分けることができないので、それなりにきれいにクリーニングされたビッグデータが必要です。また、「正解」が分かっているデータである必要もあります。検査結果と画像診断のデータを入力するだけでは不十分で、それが結果的にがんなのか良性腫瘍なのかも教えてあげる必要がありますが、医療の場合、確定診断は時間が経ってみないと分からない(6か月後にフォローして大きくなっていたらがんで、大きくなっていなかったら良性腫瘍など)場合も多いと考えられます。この確定診断のデータが間違っていると、AIは医師のミス(医療ミス)までも学んでしまうと考えられています。AIが医師を超えるためには、医師が知らない情報まで与える必要があります。

アメリカにおいても日本においても、最もきれいなデータはレセプト(診療報酬)のデータです。しかし、レセプトは行われた医療行為のデータはありますが、診断に至った過程や細かい検査結果のデータはありません。そこで期待されているのが電子カルテのデータですが、電子カルテは「言葉」で入力されているので、それをまずは自然言語処理などでデータ化する必要があります。AIに適したきれいな電子カルテのデータは未だ限られています。実際に、IBMもワトソンに学習材料を与えるために、約30億ドルかけて医療データを保有している会社(Truven Health Analytics)を買収したり、必死に「良質なデータ」を集めています。

一方で、病理診断や画像診断の場合には、多くの場合、確定診断も分かっていますし、きれいな電子化されたデータもすでに存在しています。このような限られた分野ではAIが加速度的に進化するのに対して、より一般的な病気の診断や治療においては「良質なデータ」の不足が障壁になってくると考えられます。

 

2.AIには(原則として)因果推論ができない

2017年7月に放送されたNHKスペシャルの「AIに聞いてみた どうすんのよニッポン」が炎上したことは記憶に新しいと思います。

Picture5

(出典:NHK

この番組では、NHKが開発したAIがビッグデータを解析して、日本がどのようにするべきか答えを提示しました。その結果は、「健康になりたければ病院を減らせ」や「40代ひとり暮らしが日本を滅ぼす」など過激なものでした。これらは疑似相関(2つの事柄が一見すると原因と結果の関係であるが、実は無関係であるもの)であり、因果関係(2つの事柄が原因と結果の関係にあるもの)ではないと多くの専門家から反論があり、AIに因果推論(2つの事柄が原因と結果の関係にあるのか正しく検証する方法の事)させることの難しさが明らかになりました。

Picture2

原因と結果の経済学、ダイヤモンド社を一部改変)

因果関係を明らかにしようとする研究をやったことがある方だったら分かると思うのですが、実は交絡因子(原因と結果の両方に影響を与えるような第三の因子のこと。これが存在していると因果関係が無くてもあるように見えてしまうため、同定して補正する必要があります)をデータから統計学的に見つけ出す方法が今のところありません。人間が頭をひねって考えて、原因と結果の両方に影響を与えそうなもの(交絡因子)をリストアップしているのが現状です。データに任せて選ばせる方法(ステップワイズ法と呼ぶ)を使っていた頃もあったのですが、実はその方法はバイアスのかかった間違った結論になるということが明らかになり、現在では主要な医学論文からこの方法は推奨されないとされています(経済学の分野ではそもそも認められていませんでした)。AIには交絡因子を同定することができないので、データから相関関係を見つけ出すことは得意であるものの、それが因果関係なのか擬似相関なのか見分けることができないのです。

AIが因果推論が苦手であることは専門家の間では良く知られていました。UCLAのコンピューターサイエンティストであり、因果推論の第一人者の一人であるジュディア・パールは、2016年11月に警鐘を鳴らす論文を書きました。パールによると、AIは大きなデータから数多くの相関関係を見つけることはできるが、因果関係を見つけることは(現時点では)できないと考えました。その理由として、因果推論するためには、実験してみてどうなるか確認するトライアル・アンド・エラーしたり、「もし仮に〇〇が起こらなかったららどうなっていたか」(専門用語で反事実と呼びます)を想像することが必要ですが、AIはこのいずれもできないからだであると説明しました。

日本を代表するAIの研究者で、試験問題を解いて東大に合格させることを目標としているAIである東ロボくんを開発している新井紀子氏も、TEDトークの中で、AIには思考力が無いと説明しています。思考力や想像力のない現在のAIには、因果推論をすることは難しいということなのかもしれません。

もちろん、今後学問が進歩することでAIを用いて因果推論できるようになるという可能性は大いにあります。例えば、AIで予測モデルを組み立てて、反事実を予測し、それと実際に観察されたアウトカムを比較することで因果推論を行う方法などが検討されています。この学問分野がもっと発展するようにとの期待をこめて、(原則として)という言葉を加えさせて頂きました。

 

3.医療現場においてAIに実験させることはできない

アマゾンや楽天で商品を売ろうと思ったら、ランダム化比較試験(ビジネス界ではA/Bテストと呼ばれる)を行い、利用者の購買パターンがどう変わるかを観察して、そのデータを集積してAIに学ばせることで、最も売れる方法を確実に明らかにすることができます。動物実験のデータを扱っていたら、ランダム化比較試験をすることで動物がどうなるのかを観察し、そのデータを使えばAIはどうすれば良いのか理解するようになります。要は、上記のパールが述べている「実験ができないからAIは因果推論できない」というロジックの前提条件が崩れます。

しかし、医療現場においてAIに実験させることは倫理的に許されません。例えば、頭痛で病院を受診したときに、AIがランダムにMRIを取る患者と、取らない患者とに割り付けることができたら、この2つのグループがその後どうなったか観察することで(その病院の患者群において)頭痛にMRIを取るべきか分かります。AとBを比べてAの方が良ければAを選択してBは棄却する。次はAとCを比較してCの方が結果が良ければCを採用する。このように連続的にランダム化比較試験を繰り返すことでベストな診断法や治療法が見つかるようになります。これが実際にアマゾンなどのインターネット業界で行われている方法であり、ものを買うかどうかではこの方法を使って最適化することができますが、人の命がかかっている医療においてはAIにこのような「実験」を行わせることは(きちんと倫理委員会に認められた臨床試験である場合を除いて)倫理的に許されません。

よってすべてのコンテキストでAIに因果推論ができないのではなくて、少なくとも医療においてAIは因果推論が苦手であるということが分かって頂けると思います。

 

まとめ

以上、AIによって医療の未来がどのようになるか述べさせて頂きました。AIの中身が分かっていないとどうしても過剰な期待をしてしまい、現在人間がやっている作業のほとんどがAIに取って代わられるように思い不安になってしまうかもしれません。しかし、今のところAIには想像することも、思考することもできず、パターン認識をして指示されたアウトプットを出すことくらいしかできません。AIに関する技術は日々進歩していますが、近い将来に突然、映画で見るような人間のようなAIが開発される可能性は低いでしょう。AIは人間(医療現場においては医師、看護師、患者)の生活を便利にするツールですが万能ではありません。AIはビジネス界ではバズワードにもなっていますが、過剰な期待をせずに、冷静な目で見守ることが肝要なのではないでしょうか。

広告

1件のコメント 追加

コメントを残す

以下に詳細を記入するか、アイコンをクリックしてログインしてください。

WordPress.com ロゴ

WordPress.com アカウントを使ってコメントしています。 ログアウト / 変更 )

Twitter 画像

Twitter アカウントを使ってコメントしています。 ログアウト / 変更 )

Facebook の写真

Facebook アカウントを使ってコメントしています。 ログアウト / 変更 )

Google+ フォト

Google+ アカウントを使ってコメントしています。 ログアウト / 変更 )

%s と連携中