当前位置:   article > 正文

活动报名|NPHardEval:动态评估大模型推理能力

nphardeval

bae88dc09c255ed0cb0f82508280b36e.png

报告主题:NPHardEval:一个通过计算复杂性评估大型语言模型推理能力的动态基准

报告日期:1月30日 (周二)10:30-11:30

e63dfbb7f81415db95916aacd570f2b5.png

主题简介:

推理能力是当前LLM最重要的特征之一,它也在复杂决策任务中扮演了不可或缺的角色。因此,研究LLM的推理能力至关重要。然而,现有的基准在对LLM的推理能力进行严格评估方面是不充分的。它们也容易过拟合,因为这些公开且静态的基准允许模型可能针对特定基准指标调整其响应,从而夸大其性能。为了解决这些现存问题,我们的研究引入了一个新的基准,名为NPHardEval。该基准旨在通过900个算法问题评估LLM的推理能力,涵盖上至NP-Hard计算复杂性类别,为LLM的推理能力提供了严格的衡量标准。通过这项研究,我们揭示了LLM当前的真实推理能力,通过比较它们在不同复杂类别中的性能,提供了客观严谨的视角,并为未来增强这些模型的推理能力奠定了基础。此外,该基准设计了一个动态更新机制,数据点每月更新一次。这种定期更新在减少模型过拟合于基准的风险上发挥了重要作用,促进了对LLM推理能力更准确可靠的评估。

The NPHardEval benchmark evaluates the complex reasoning abilities of Large Language Models (LLMs), addressing the limitations of current benchmarks. It comprises 900 algorithmic questions across a spectrum of complexity, including up to NP-Hard class, providing a comprehensive measure of LLM reasoning capabilities. This study highlights the current reasoning performance of LLMs and contributes to understanding their capabilities in complex tasks. NPHardEval features a dynamic update mechanism with monthly data refreshes, reducing the risk of model overfitting and ensuring a more accurate assessment of LLM reasoning abilities.

论文地址:https://arxiv.org/abs/2312.14890

报告嘉宾:

范犁洲,密歇根大学信息学博士候选人。研究领域主要集中在数据档案、机器学习、自然语言处理,以及在社交媒体和医疗保健等领域应用人工智能。其最近的工作尝试将大型语言模型和多智能体系统应用在以上领域。他也对分析复杂人类行为和提高其中的效率有浓厚的兴趣。

华文越,新泽西州立罗格斯大学新布朗斯维克分校计算机科学的博士候选人。研究大语言模型及其应用。她的研究包括用于推荐系统的大语言模型、基于LLM的智能体和多智能体系统,特别是在计算社会科学中的应用。

扫描下方二维码

3fa2925fe2cfe06402e2592dc959952a.png

或点击「阅读原文」报名

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/2023面试高手/article/detail/544513
推荐阅读
相关标签
  

闽ICP备14008679号