赞
踩
视频链接:大模型时代下做科研的四个思路
作者提到的四个思路主要包括:
1) PEFT(parameter efficient fine tuning)
顾名思义就是为了高效。高效的方法毫无疑问就是冻结大部分模型参数,只对部分模块做微调。以下图为例,只有标红的模块才会训练,这样比起全参数训练,大大的节省了资源。从现在看来,目前较火的微调方法是是lora,github地址为:https://github.com/microsoft/LoRA/tree/main
其中大多数的微调方法都封装到了https://github.com/hiyouga/LLaMA-Factory
而目前的思路可以是:找一个基础模型,设计一个特殊的模块,这个模块可以是为了特定任务也可以是通用任务,然后微调后对比实验效果与不微调的区别。
2)调用已训练好的模型做应用
直接利用预训练好的模型,不去做预训练,只去做funting,去扩展到各个不同的领域。
尽量选新的方法或者新的topic去做,因为这里可能没有成熟的数据集和 Benchmark,因此数据和 Setting 都可以自己选,不用担心比不过别人。例如In-Context Learning:上下文学习,Chain-of-thought prompting:思维链提示,Causal learning:因果学习
3)做即插即用的模块
比如作者团队的MixGen,因为在视觉领域数据增强非常有用,但在多模态中却很少有人用,因此作者吧图片-文本对用mixgen拓展,具体的方法为,图片就是两张图片mixup,文本是把两句话连接。这种思路非常简单,也证明了有效性
4)构建数据集,做分析为主的文章,写一篇综述论文
个人认为分析类文章和综述文章都需要有个人比较新颖的观点,需要阅读大量文章做积累,数据集的构建,也需要综合考虑多种因素,但是这个方向是耗费资源最少的
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。