HOKUTO通信
3ヶ月前

生成AIが 「それらしいが誤った回答」 を返す現象は、 もはや周知の事実だ。 英医学誌 「The BMJ」 の2025年クリスマス号では、 AIの欠点を技術の不備として切り分けるのではなく、 医師が置かれてきた 「答えを求められる環境」 と並べて考察する論文が公表された。
BMJのクリスマス号は、 「冗談のような問いを、 真面目に検証する」 がコンセプト。 軽妙な切り口や風刺を許容しつつも、 掲載基準は緩めない。 通常号と同等の新規性や方法論的厳密性などを求め、 「査読と競争的選抜を経る」 と明記している。 捏造や作り話の掲載は行わないという。
今年発表されて注目されているのが、 「Parallel pressures: the common roots of doctor bullshit and large language model hallucinations」 (BMJ 2025;391:r2570) だ。

焦点を当てるのは、 医師の“bullshit”と大規模言語モデル (LLM) の“hallucinations”。 意図的な虚偽ではなく、 正確さよりも 「答えを出すこと」 や 「有能に見えること」 が優先される状況が生む誤情報だ。 論文によると、 「医師とLLMはいずれも、 答えを求められる圧力のもとで誤情報を生みやすく、 正確性より能力の見かけが優先される」 という。
医療現場では、 判断の不確実性を抱えたまま説明を迫られる局面が多い。 患者対応、 院内調整、 教育、 臨床の意思決定―― 「分からない」 と言うこと自体がコストになり得る場面で、 医師は“結論らしきもの”を提示するよう駆動される。

一方、 LLMは、 設計上 「沈黙」 より 「応答」 を返す方向へ最適化されており、 確度の低い推論でも体裁の整った文章として出力され得る。 両者に共通するのは、 回答の生成が止めにくい構造だ。
この論説が医師に突きつけるのは、 AIを外部の異物として批判するだけでは足りない、 という視点だ。 医療がAIにより拡張される環境では、 人間側の意思決定や説明の作法 (とりわけ不確実性の扱い方) が、 誤情報の抑制に直結する。 BMJは、 この共通構造を理解することが、 人間とAIの双方で誤情報を抑える戦略につながり、 患者ケアの安全性を支えると述べている。

編集・作図:編集部、 監修:所属専門医師。各領域の第一線の専門医が複数在籍。最新トピックに関する独自記事を配信中。
編集・作図:編集部、 監修:所属専門医師。各領域の第一線の専門医が複数在籍。最新トピックに関する独自記事を配信中。