会員登録・ログインについて
2024年11月26日(火) m3.com AI Lab (植田大樹)
大規模言語モデルの規模拡大と指示調整により正確性は向上するものの、人間にとっての信頼性は低下する傾向があることを、難易度認識、タスク回避、プロンプト安定性の観点から実証的に示した研究。
本研究は、大規模言語モデル(LLM)の規模拡大と指示調整が信頼性に与える影響を調査したものである。研究者らは、人間の難易度認識、タスク回避、プロンプト安定性という3つの観点から分析を行った。対象...
この記事は会員限定コンテンツです。ログイン、または会員登録いただくと、続きがご覧になれます。