AIの欠点は 「医師思考」 にありーーBMJクリスマス論文2025
著者

HOKUTO通信

4ヶ月前

AIの欠点は 「医師思考」 にありーーBMJクリスマス論文2025

AIの欠点は 「医師思考」 にありーーBMJクリスマス論文2025
生成AIが 「それらしいが誤った回答」 を返す現象は、 もはや周知の事実だ。 英医学誌 「The BMJ」 の2025年クリスマス号では、 AIの欠点を技術の不備として切り分けるのではなく、 医師が置かれてきた 「答えを求められる環境」 と並べて考察する論文が公表された。 
※この記事は生成AIが作成、 ファクトチェックをしています。

AIの誤情報は医師の問題でもある

「答えを出す圧力」 の共通構造

BMJのクリスマス号は、 「冗談のような問いを、 真面目に検証する」 がコンセプト。 軽妙な切り口や風刺を許容しつつも、 掲載基準は緩めない。 通常号と同等の新規性や方法論的厳密性などを求め、 「査読と競争的選抜を経る」 と明記している。 捏造や作り話の掲載は行わないという。

今年発表されて注目されているのが、 「Parallel pressures: the common roots of doctor bullshit and large language model hallucinations」 (BMJ 2025;391:r2570) だ。

AIの欠点は 「医師思考」 にありーーBMJクリスマス論文2025
写真はイメージです

焦点を当てるのは、 医師の“bullshit”と大規模言語モデル (LLM) の“hallucinations”。 意図的な虚偽ではなく、 正確さよりも 「答えを出すこと」 や 「有能に見えること」 が優先される状況が生む誤情報だ。 論文によると、 「医師とLLMはいずれも、 答えを求められる圧力のもとで誤情報を生みやすく、 正確性より能力の見かけが優先される」 という。

医療現場では、 判断の不確実性を抱えたまま説明を迫られる局面が多い。 患者対応、 院内調整、 教育、 臨床の意思決定―― 「分からない」 と言うこと自体がコストになり得る場面で、 医師は“結論らしきもの”を提示するよう駆動される。

AIの欠点は 「医師思考」 にありーーBMJクリスマス論文2025
写真はイメージです

一方、 LLMは、 設計上 「沈黙」 より 「応答」 を返す方向へ最適化されており、 確度の低い推論でも体裁の整った文章として出力され得る。 両者に共通するのは、 回答の生成が止めにくい構造だ。

医師に突きつけられた視点

この論説が医師に突きつけるのは、 AIを外部の異物として批判するだけでは足りない、 という視点だ。 医療がAIにより拡張される環境では、 人間側の意思決定や説明の作法 (とりわけ不確実性の扱い方) が、 誤情報の抑制に直結する。 BMJは、 この共通構造を理解することが、 人間とAIの双方で誤情報を抑える戦略につながり、 患者ケアの安全性を支えると述べている。

出典

  • Parallel pressures: the common roots of doctor bullshit and large language model hallucinations. The BMJ 2025;391:r2570.
  • BMJ “Christmas issue” submission standards (査読・基準・捏造不可の明示)

AIの欠点は 「医師思考」 にありーーBMJクリスマス論文2025

ポストのGif画像
AIの欠点は 「医師思考」 にありーーBMJクリスマス論文2025の全コンテンツは、医師会員限定でアプリからご利用いただけます*。
*一部のコンテンツは非医師会員もご利用いただけます
臨床支援アプリHOKUTOをダウンロードしてご覧ください。
今すぐ無料ダウンロード!
こちらの記事の監修医師
こちらの記事の監修医師
HOKUTO編集部
HOKUTO編集部

編集・作図:編集部、 監修:所属専門医師。各領域の第一線の専門医が複数在籍。最新トピックに関する独自記事を配信中。

HOKUTO編集部
HOKUTO編集部

編集・作図:編集部、 監修:所属専門医師。各領域の第一線の専門医が複数在籍。最新トピックに関する独自記事を配信中。

監修・協力医一覧
QRコードから
アプリを
ダウンロード!
AIの欠点は 「医師思考」 にありーーBMJクリスマス論文2025