赞
踩
本文是LLM系列文章,针对《Explainability for Large Language Models: A Survey》的翻译。
大型语言模型(llm)在自然语言处理方面已经展示了令人印象深刻的能力。然而,它们的内部机制仍然不清楚,这种透明度的缺乏给下游应用带来了不必要的风险。因此,理解和解释这些模型对于阐明它们的行为、局限性和社会影响至关重要。在本文中,我们介绍了可解释性技术的分类,并提供了用于解释基于Transformer的语言模型的方法的结构化概述。我们根据LLM的训练范式对技术进行分类:传统的基于微调的范式和基于提示的范式。对于每个范式,我们总结了生成个体预测的局部解释和整体模型知识的全局解释的目标和主要方法。我们还讨论了用于评估生成的解释的度量,并讨论了如何利用解释来调试模型和提高性能。最后,与传统的机器学习模型相比,我们研究了LLM时代解释技术的关键挑战和新兴机遇。<
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。