海外ジャーナルクラブ
1年前
Ayersらは、 対話型人工知能 (AI ) 「ChatGPT」が患者の質問に対し、 質の高い共感的な回答を生成できるかを横断研究で検討。 その結果、 ChatGPTが高品質で共感的な応答を提供できることが示された。 本結果はJAMA Intern Med誌において発表された。
科学論文の根本は再現性と客観性です。 ChatGPTでは、 その再現性が難しいのでアカデミアで評価を得られるには少し時間がかかるのではと思われていましたが、 そうではなかったようです。
バーチャルヘルスケアの急速な拡大により、 患者からのメッセージが増加し、 医療従事者の仕事量の増加とバーンアウトが問題化している。 AIチャットボットは、 この問題の一部を解決する可能性がある。
評価者は全585の評価のうち、 78.6%においてChatGPTの回答を好んだ。
医師の回答の平均値 (IQR ) は、 ChatGPTの回答よりも有意に短かった。
ChatGPTの回答は、 医師の回答よりも有意に高品質と評価された (t = 13.3、 P < .001 )。 例えば、 「良い」または「非常に良い」と評価された回答 (≧4 ) の割合は、 医師よりもChatGPTの方が高かった。
ChatGPTの回答は、 医師の回答よりも有意に共感的と評価された (t=18.9、 P<0.001 )。 共感的または非常に共感的 (≧4 ) と評価された回答の割合は、 医師よりもチャットボットの方が高かった
ChatGPTは、 オンラインフォーラムで提起された患者の質問に対して、 質の高い共感的な回答を生成しました。 ChatGPTを使って回答を作成し、 医師がそれを編集するなど、 この技術について臨床の場でさらに検討することが必要である。 AIアシスタントを使用することで回答が改善され、 臨床医のバーンアウトが低下し、 患者の転帰が改善されるかどうかについては、今後ランダム化比較試験でさらに評価できるだろう。
編集・作図:編集部、 監修:所属専門医師。各領域の第一線の専門医が複数在籍。最新トピックに関する独自記事を配信中。
編集・作図:編集部、 監修:所属専門医師。各領域の第一線の専門医が複数在籍。最新トピックに関する独自記事を配信中。