赞
踩
报告主题:幻觉无法避免,探讨LLM的根本局限
报告日期:6月26日(周三)14:30-15:30
报告要点:
幻觉是大语言模型(LLM)一个公认的重要缺陷。已有许多研究试图解释并减轻幻觉。但到目前为止,这些工作主要是经验性的,它们无法回答一个基本问题,即是否可以从LLM中完全消除幻觉。在本研究中,我们将幻觉问题形式化,并证明在LLMs中消除幻觉是不可能的。具体而言,我们定义一个形式化的世界,并定义幻觉为LLM与一个可计算的ground truth函数之间的不一致。利用机器学习理论中的已有成果,我们证明数据驱动的LLM无法学习所有的可计算函数,因此它们无法避免产生幻觉。由于形式世界是现实世界的一部分,而后者更为复杂,所以对现实世界的LLM而言,幻觉也是不可避免的。此外,对于受到时间复杂度限制的LLM,我们可进一步推测易使之产生幻觉的任务,并通过简单实验来验证这些推测。在论文的最后,利用形式化世界框架,我们讨论现有幻觉缓解方法可能的机制和效果,以及对LLM安全性的实际影响。
报告嘉宾:
徐子威,新加坡国立大学(NUS)博士后。2023年于新加坡国立大学取得博士学位,导师为Mohan Kankanhalli。他的研究兴趣包括神经—符号人工智能、视觉关系检测、可信人工智能等。此前,他在2017年于中国科学技术大学(USTC)取得学士学位。
扫码报名
近期热门报告
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。