提高大语言模型可信度,新方法助生成式AI破除“幻觉”

人工智能(AI)在给出准确答案的同时,也会有一些“胡乱输出”令人难辨真假,这被称为“幻觉”(hallucination)。而新一期《自然》杂志发表的一项研究报道了一种新方法,能检测大语言模型(LLM)产生的“幻觉”,即该方法能测量生成回答的含义的不确定性,或能提升LLM输出答案的可靠性。
类似ChatGPT和Gemini等LLM,是能阅读和生成自然人类语言的AI系统。不过,这类系统很容易产生所谓“幻觉”,即生成不准确或没有意义的内容。检测LLM出现的这种错误非常难,因为这些回答的呈现方式看起来很可信。
英国牛津大学研究团队此次尝试量化一个LLM产生此类错误的程度,从而判断生成的内容有多忠于提供的源内容。他们的方法能检测“编造”——这是幻觉的一个子类别,特指不准确和随意的内容,常出现在LLM缺乏某类知识的情况下。这种方法考虑了语言的微妙差别,以及回答如何能以不同的方式表达,从而拥有不同的含义。团队的研究表明,他们的方法能在LLM生成的个人简介,以及关于琐事、常识和生命科学这类话题的回答中识别出“编造”内容。
在同时发表的新闻与观点文章中,澳大利亚皇家墨尔本理工大学科学家指出,该方法由一个LLM完成,并通过第三个LLM进行评价,等于在“以毒攻毒”。文章写道,“用一个LLM评估一种基于LLM的方法似乎是在循环论证,而且可能有偏差。”不过,团队指出他们的方法有望帮助用户理解在哪些情况下使用LLM的回答需要注意,也意味着可以提高LLM在更多应用场景中的置信度。
总编辑圈点
近两年,国内外各种人工智能大模型如雨后春笋般涌现,它们陆续在聊天机器人、智能搜索、文本生成等丰富多样的场景中落地应用。以国内为例,目前用户可通过智能手机下载多款人工智能大模型应用,并与之聊天互动。不过,在应用过程中,人工智能大模型偶尔会“胡言乱语”的问题也受到关注。利用技术手段检测它们是否在“胡言乱语”很有必要,从根本上避免人工智能大模型出现“幻觉”更是急需破解的难题。
本文链接:http://knowith.com/news-1-816.html提高大语言模型可信度,新方法助生成式AI破除“幻觉”
声明:本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。
西双版纳研究生院 研究生考事业单位是不是免笔试啊
萍乡考研地点在哪里,萍乡学院学前教育是专科还是本科
2014经济学考研辅导:宏观经济学案例分析(6)
2014经济学考研辅导:宏观经济学案例分析(7)
青岛新东方考研辅导班?青岛那个考研培训班好一点啊
首都医科大学考研难度(蚌埠医学院考研通过率)
长春的考研机构,白城师范学院是研究生院校吗
天津工业大学研究生怎么样(天津工业大学研究生怎么样好不好)
大学毕业多久可以考研 大学毕业多年还能考研吗
驻马店考研考点()
点击:白条加油购额度怎么取出来;靠谱的刷白条的五个方法
2025官宣!印度(老挝孟加拉)卡马替尼哪里买/代购渠道方法来了,正常2024印度卡马替尼大概多少钱
安全教育:花呗额度怎么刷出来(分享四个最新提现方法)
如登春台:南昌东湖区垫还信用卡,真实商户积分,实体店多种方式
龙凤呈祥:深圳代还信用卡垫还,最便宜的地方,流程简单高效
步入2025年官宣印度曲氟尿苷替匹嘧啶片不出国代购价格多少钱
喜从天降:上海静安区上门代还信用卡,怎么套取出来(一手商家无中介差价)
欢天喜地:合肥蜀山区代还信用卡怎么刷出来,5种常用方式
顶天立地:成都双流区垫还信用卡公司最简单方法来告诉你
最新教程:便荔卡能提现吗?手把手教你羊小咩消费额度怎么套出来