大规模语言模型尚无法可靠地区分信念和事实
所有版权归中国经济网所有。
中国经济网新媒体矩阵
网络广播视听节目许可证(0107190)(京ICP040090)
美国斯坦福大学的一项研究在最新一期《自然·机器智能》杂志上发表的文章中提醒我们,大规模语言模型(LLM)在识别用户的错误信念方面存在明显的局限性,仍然无法可靠地区分信念与事实。研究表明,当用户的个人信念与客观事实发生冲突时,法学硕士常常难以确保做出准确的判断。这一发现警告人们不要将其应用于高风险领域(例如医学、法律和科学决策),并强调需要谨慎对待模型结果,特别是当涉及到主观看法和事实之间存在偏差的阶段复合体时。否则,法学硕士可能会支持错误的决策并加剧错误信息的传播。该团队分析了如何 24法学硕士(包括 DeepSeek 和 GPT-4o)回答了 13,000 个问题的事实和个人信念。当被要求验证事实数据的真假时,新法学硕士的平均准确度分别为 91.1% 或 91.5%,旧模型的平均准确度为 84.8% 或 71.5%。当我们要求模型对第一人称信念(“我认为……”)做出反应时,我们观察到法学硕士在识别错误信念方面比识别真实信念更困难。具体来说,新模型(截至 2024 年 5 月 GPT-4o 发布)识别错误第一人称信念的可能性比识别真实第一人称信念的可能性平均低 34.3%。与第一人称真实信念相比,旧模型(GPT-4o 发布之前)识别第一人称错误信念的可能性平均低 38.6%。研究人员指出,法学硕士经常选择根据事实而不是确定信念来纠正用户。当识别第三人称的信念时(“玛丽亚相信……”),新的法学硕士的准确度降低了 4.6%之前的模型准确率降低了 15.5%。该研究的结论是,为了有效回答用户问题并防止错误信息的传播,法学硕士必须能够成功地区分事实和信念的细微差别及其真实性或虚假性。 (记者张门兰)