愛育病院 小児科おかもん先生 だより Vol.498
ChatGPTに子どもの症状を聞いていいの?AI医療相談の限界と活用法
今号のポイント
- 2ChatGPTは医療機器ではなく、診断も処方もできない。回答の正確性は6割程度という報告もある
- 4「今すぐ受診すべきか」の判断にAIを使うのは危険。重症サインの見落としは命に関わる
- 6一般的な知識の整理や受診前の質問リスト作成など、補助ツールとしては十分活用できる
こんにちは。愛育病院小児科のおかもん先生です。
外来で「ChatGPTに聞いたら溶連菌かもしれないと言われました」と話すお母さんが、最近明らかに増えました。夜中に子どもが熱を出して、不安で検索する代わりにAIに聞く。その気持ちはよくわかります。ただ、AIの回答をどこまで信じていいのか。ここを整理しておかないと、かえって判断を誤るリスクがあります。
ChatGPTは医療機器ではありません
まず前提として、ChatGPTをはじめとする大規模言語モデル(LLM)は医療機器として認可されていません。日本の薬機法でも、米国FDAでも、診断や治療の意思決定に使うことは想定されていない [1]。
ChatGPTの仕組みは「大量のテキストデータから、もっともらしい次の文章を生成する」というものです。つまり医学的な根拠に基づいて判断しているのではなく、それらしい文章を作っているだけです。正しいこともあれば、完全に間違ったことをもっともらしく述べることもある。この現象は「ハルシネーション(幻覚)」と呼ばれています [2]。
2023年のJAMAに掲載された研究では、ChatGPTが小児科の一般的な質問に対して適切な回答を生成できた割合は約60%前後でした [3]。10回のうち4回は不正確か不十分だったということです。テストの点数として考えれば赤点です。
「友人の意見」と同じレベルだと思ってください。参考にはなるけれど、それで判断を確定してはいけない。
「今すぐ受診すべきか」をAIに聞くのが最も危険
僕が一番心配しているのは、緊急性の判断にAIを使うケースです。
子どもが夜中に39度の熱を出した。ぐったりしている。でもChatGPTに聞いたら「水分補給と解熱剤で朝まで様子を見ましょう」と返ってきた。これを信じて朝まで待った結果、髄膜炎の初期サインを見逃す。こういう事態が起こりうるのです。
ChatGPTは目の前の子どもを診ていません。顔色、呼吸のしかた、泣き方の変化、皮膚の張り。小児科医はこれらの身体所見を総合して判断します。テキストだけのやりとりでは、どうしてもこぼれ落ちる情報があります [4]。
以下のサインがあるときは、AIに聞く前に受診してください。
- 3か月未満の発熱(38度以上)
- ぐったりして反応が鈍い
- 呼吸が速い、肩で息をしている
- 水分がまったく摂れない(半日以上尿が出ない)
- 発疹が急速に広がっている
- けいれんが起きた
じゃあ、AIは何に使えるのか
AIを全否定しているわけではありません。使い方を間違えなければ、保護者にとって頼もしい補助ツールになります。
活用できる場面をまとめます。
一つ目は、一般的な医学知識の整理です。「溶連菌ってどんな病気?」「ロタウイルスワクチンの種類は?」といった一般知識の確認には十分使えます。教科書的な情報の要約は、AIが得意とするところです。
二つ目は、受診前の質問リスト作成です。「子どもがこういう症状のとき、医師に何を伝えるべきか」をAIに聞いておくと、診察がスムーズになります。症状の経過、食事や水分の摂取量、最後の排尿時間。これらを整理しておいてくださると、僕たち小児科医も助かります。
三つ目は、処方された薬の一般情報の確認です。「カロナールって何の薬?」「この薬の一般的な副作用は?」といった確認に使うのは合理的です。ただし、用量の判断は必ず処方医の指示に従ってください。

おかもん先生より
僕自身、論文を読む前の下調べにAIを使うことがあります。「この分野の最近のトレンドは?」と聞いて、出てきたキーワードをもとにPubMedで検索する。そういう使い方です。AIは「調べ物の入口」としては優秀です。でも「最終判断」を委ねる相手ではない。これは医師が使う場合も、保護者が使う場合も同じです。
今後、医療AIはどう変わっていくのか
医療分野でのAI活用は急速に進んでいます。画像診断の補助、電子カルテの要約、トリアージの支援など、医療者側のツールとしてはすでに実用段階に入っています [5]。
ただし、患者や保護者が直接使う「セルフ診断AI」が安全に機能するためには、まだ超えるべきハードルがたくさんあります。医療機器としての認可、精度の担保、責任の所在。これらが整うまでは「参考情報」の域を出ません。
大切なのは「AIか、医師か」という二択ではなく、「AIで予備知識を得て、医師に相談する」という二段構えです。不安なときに情報を集めること自体は健全な行動です。ただ、集めた情報で自己完結しないこと。最後の判断は、目の前のお子さんを診ている医師に委ねてください。
今号のまとめ
- ChatGPTは「もっともらしい文章を生成する」ツールであり、医療機器ではない
- 小児科の質問に対する正確性は約6割。4割は不正確か不十分
- 緊急性の判断(今すぐ受診すべきか)にAIを使うのは最も危険
- 一般知識の整理、受診前の質問リスト作成、処方薬の一般情報確認には活用できる
- 「AIで調べて、医師に相談する」の二段構えが最善
あわせて読みたい
- Vol.499「ネット医療情報の見分け方」
- Vol.500「AI時代の小児科医の役割」
- Vol.289「ネットで調べすぎて不安になる、サイバー心気症の話」
ご質問・ご感想
「AIに聞いてから受診するようにしています」「こういう使い方は大丈夫ですか?」など、ご質問がございましたら、お気軽にお寄せください。
愛育病院 小児科 おかもん先生
本メルマガの内容は一般的な医学情報の提供を目的としており、個別の診断・治療を行うものではありません。お子さまの症状についてはかかりつけの小児科医にご相談ください。