赞
踩
title:LORA: LOW-RANK ADAPTATION OF LARGE LAN- GUAGE MODELS
论文地址:https://arxiv.org/abs/2106.09685
1.1 Motivation
1.2 Methods
1.3 Conclusion
1.4 Future works
1 模型结构说明
2 LoRA推理latency比adapter方法要好
3 LoRA与Fine-tuning方法,其他Adapter方法在Roberta,deberta模型的效果对比
4 LoRA与Fine-tuning方法,其他Adapter方法在GPT-2模型的效果对比
5 LoRA在GPT3模型上的效果
6 超参数选择上的表现
7 同等参数下,LoRA加到Transformer的那一层效果比较好呢?
8 如何选择参数rank r=?【没咋看懂】
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。