当前位置:   article > 正文

Bias and Fairness in Large Language Models: A Survey_bias and fairness in large language models a surve

bias and fairness in large language models a survey

本文是LLM系列文章,针对《Bias and Fairness in Large Language Models: A Survey》的翻译。

摘要

大型语言模型(llm)的快速发展使得处理、理解和生成类人文本成为可能,并越来越多地集成到触及我们社会领域的系统中。尽管取得了成功,但这些模式可以学习、延续和放大有害的社会偏见。在本文中,我们提出了对LLM偏见评估和缓解技术的全面调查。我们首先巩固、形式化并扩展了自然语言处理中的社会偏见和公平的概念,定义了伤害的不同方面,并引入了几个必要的条件来实现LLM的公平。然后,我们通过提出三种直观的分类来统一文献,其中两种用于偏见评估,即指标和数据集,另一种用于缓解。我们的第一个偏差评估指标分类法消除了指标和评估数据集之间的关系,并根据它们在模型中运行的不同层次(嵌入、概率和生成文本)组织了指标。我们用于偏见评估

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/AllinToyou/article/detail/349922
推荐阅读
相关标签
  

闽ICP备14008679号