1. m3.com
  2. AI Lab
  3. 医療現場で信頼性の高いLLM応答を促す手法

医療現場で信頼性の高いLLM応答を促す手法

2025年5月18日(日)    m3.com AI Lab (植田大樹)   

大規模言語モデル(LLM)が示す不確定な回答を俯瞰し、医療に必要な正確性を保つための二段階チェック体制を導入した研究である。

本研究は、医療領域でLLMを活用した際に生じる誤情報や唐突な返答を抑え、安全に臨床や患者支援へ応用する方法を検討している。従来のLLMは多様な文章生成能力をもつ一方、誤った回答や不適切な助言を出...