您好,欢迎访问开博网站!
您好,欢迎访问开博网站!
集团动态
联系开博
发布日期:2024-08-30 作者:开博
人工智能(AI)在给出正确谜底的同时,也会有一些“胡乱输出”使人难辨真假,这被称为“幻觉”(hallucination)。而新一期《天然》杂志颁发的一项研究报导了一种新方式,开博体育能检测年夜说话模子(LLM)发生的“幻觉”,即该方式能丈量生成回覆的寄义的不肯定性,或能晋升LLM输出谜底的靠得住性。
近似ChatGPT和Gemini等LLM,是能浏览和生成天然人类说话的AI系统。不外,这类系统很轻易发生所谓“幻觉”,即生成禁绝确或没成心义的内容。检测LLM呈现的这类毛病很是难,由于这些回覆的显现体例看起来很可托。
英国牛津年夜学研究团队此次测验考试量化一个LLM发生此类毛病的水平,从而判定生成的内容有多忠在供给的源内容。他们的方式能检测“编造”——这是幻觉的一个子种别,特指禁绝确和随便的内容,常呈现在LLM缺少某类常识的环境下。这类方式斟酌了说话的奥妙不同,和回覆若何能以分歧的体例表达,从而具有分歧的寄义。团队的研究注解,他们的方式能在LLM生成的小我简介,和关在杂事、常识和生命科学这类话题的回覆中辨认出“编造”内容。
在同时颁发的新闻与不雅点文章中,Australia皇家墨尔本理工年夜学科学家指出,该方式由一个LLM完成,并经由过程第三个LLM进行评价,等在在“以毒攻毒”。文章写道,“用一个LLM评估一种基在LLM的方式仿佛是在轮回论证,并且可能有误差。”不外,团队指出他们的方式有望帮忙用户理解在哪些环境下利用LLM的回覆需要留意,也意味着可以提高LLM在更多利用场景中的置信度。
特殊声明:本文转载仅仅是出在传布信息的需要,其实不意味着代表本网站不雅点或证实其内容的真实性;如其他媒体、网站或小我从本网站转载利用,须保存本网站注明的“来历”,并自大版权等法令责任;作者假如不但愿被转载或联系转载稿费等事宜,请与我们联系。