当前位置:   article > 正文

活动报名|如何减轻幻觉?揭秘LLM局限性,探讨实现效果及对安全性影响

活动报名|如何减轻幻觉?揭秘LLM局限性,探讨实现效果及对安全性影响

1270802c411f5c24e922d376a57e608f.png

报告主题:幻觉无法避免,探讨LLM的根本局限

报告日期:6月26日(周三)14:30-15:30

报告要点

3a556c14a497cdaf06d5d1032d906a43.png

幻觉是大语言模型(LLM)一个公认的重要缺陷。已有许多研究试图解释并减轻幻觉。但到目前为止,这些工作主要是经验性的,它们无法回答一个基本问题,即是否可以从LLM中完全消除幻觉。在本研究中,我们将幻觉问题形式化,并证明在LLMs中消除幻觉是不可能的。具体而言,我们定义一个形式化的世界,并定义幻觉为LLM与一个可计算的ground truth函数之间的不一致。利用机器学习理论中的已有成果,我们证明数据驱动的LLM无法学习所有的可计算函数,因此它们无法避免产生幻觉。由于形式世界是现实世界的一部分,而后者更为复杂,所以对现实世界的LLM而言,幻觉也是不可避免的。此外,对于受到时间复杂度限制的LLM,我们可进一步推测易使之产生幻觉的任务,并通过简单实验来验证这些推测。在论文的最后,利用形式化世界框架,我们讨论现有幻觉缓解方法可能的机制和效果,以及对LLM安全性的实际影响。

报告嘉宾

徐子威,新加坡国立大学(NUS)博士后。2023年于新加坡国立大学取得博士学位,导师为Mohan Kankanhalli。他的研究兴趣包括神经—符号人工智能、视觉关系检测、可信人工智能等。此前,他在2017年于中国科学技术大学(USTC)取得学士学位。

9c99de4008dfa6950ffcfcbd32982332.png

扫码报名


近期热门报告

656adec50b746549d02331e937ee8604.png

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/知新_RL/article/detail/840506
推荐阅读
相关标签
  

闽ICP备14008679号