赞
踩
微软 Power Platform 携手 GPT,从应用层面深入 AI + 低代码开发,一场探索人工智能与行业应用实践的技术盛宴即将到来!
9月16日, 「探索人工智能与行业应用实践沙龙」 ,数位来自 AI、低代码领域的技术专家,将通过**
技术分享
、案例实操
等形式,带来 AI + 低代码开发的最新技术动态与实践技巧
,学习如何利用GPT技术提升应用开发效率与用户体验
**,共同探索低代码开发的无限潜力!
该活动分为2个会场:
由于是第一次到上海-Microsoft,我一不小心跟着导航走到了Microsoft的后门,当时还纳闷,该怎么进去呢.等了几分钟,一个打扫卫生的阿姨过来了,就跟着她进去了.
其实是有一个前门的,而且前门有签到的等等.
前门就很好玩了,打开拍照,签到,送东西都有.
跟随者箭头的指示,就走到了A会场
我提前半个多小时就到了,结果工作人员还在调试中.
因为分享的内容太多了,重点也很多,这里只写一些个人认为关键的部分
后GPT时代:Prompt即代码:
人机协同三范式:
LLM的最大问题:
问题: 当前,LLM的最大问题就是缺乏最新的知识和特定领域的知识.
方案:对于这一问题,业界有两种主要解决方法:微调和检索增强生成.
大模型微调技术路线:
有效参数微调PEFT(Parameter-Efficient Fine Tuning):
1.Prompt Tuning
基座模型的参数不变,为每个特定任务,训练一个少量参数的小模型,在具体执行特定任务的时候按需求调用;
2.Prefix Tuning
在不改变大模型的前提下,在Prompt上下文中添加适当的条件,可以引导大模型有更加出色的表现.
3.LoRA
假设: 我们现在看到的这些大语言模型,它们都是被过度参数化的.而过度参数化的背后,都有一个低维的本质模型.适配特定的下游任务,要训练一个特定的模型.
4.QloRA
QLoRA就是量化版的LoRA,它是在LoRA的基础上,进行了进一步量化,将原本用16bit表示的参数,降低为4bit来表示,可以在保证模型效果的他偶那是个好i,极大的降低成本.
比较有意思的是 RAG和FT的对比:
RAG:这种方法将检索(或搜索)的能力集成到LLM文本生成中。它结合了检索系统(从大型语料库中获取相关文档片段)和LLM(使用这些片段中的信息生成答案)。 本质上, RAG帮助模型"查找”外部信息以改进其响应。
微调:这是采用预训练的LLM并在较小的特定数据集上进一步训练它以使其适应特定任务或提高其性能的过程。通过调优,我们根据数据调整模型的权重,使其更适合应用程序的独特需求。
还分享了一个开发技巧,可以把OPENAI的key设置为一个环境变量,然后在代码中调用:
这样开发效率也会提高
AIGC技术分类:
AIGC成为金融文案工作的特级助手:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。