赞
踩
点击蓝字
关注我们
AI TIME欢迎每一位AI爱好者的加入!
7月7日下午,GLM大模型技术前沿与应用探索论坛在2023世界人工智能大会成功举办。
本次论坛由清华大学知识工程实验室主办,AI TIME承办,东浩兰生(集团)有限公司协办。来自清华大学KEG实验室团队的5位嘉宾聚焦GLM、CodeGeeX等具体大模型,分享了大模型的技术难点、关键技术、前沿研究成果、拓展方向,从技术、产品、应用场景多维度分析讨论未来大模型的发展之路。
”
论坛伊始,上海市经济信息化委副主任张英出席论坛并致辞。张英在致辞中指出,面向未来,上海将围绕开源大模型做好以下三点工作:一是营造大模型开源创新生态,统筹开源组织,聚焦大模型发展关键环节;二是夯实大模型智能算力基础,提升算力资源利用率;三是保障大模型多层次人才供给,积极推动产学研合作,为产业发展提供重要的人才支撑。
在报告环节,东昱晓分享了GLM团队过去几年在ChatGLM模型上所做的学术思考、技术探索与工程研究。他谈到,大模型的研究本质上分为三点:增强模型的能力、解锁模型的能力、实现模型与环境以及自我的交互。
张李牛牛介绍了他在知识增强对话预训练模型方面的研究成果。他指出,如何让大模型更少地反馈错误信息是一项有挑战性的研究内容。GLM-Dialog通过两步训练策略首先学到对话本身的自然语言结构再输出正确的内容,保证可以输出正确内容,然后结合混合预训练的任务进行训练,缓解“灾难性遗忘”的情况。
赖瀚宇报告了关于检索增强的大规模预训练模型的相关研究。如何将外部知识结合到大模型中解决其在对知识密集型任务以及知识停滞性等方面的问题是目前的一大难题。WebGLM通过低成本高效率检索增强系统、大模型蒸馏检索器提升检索性能、自觉生成器自具构造引用长文本问答,从而更进一步地提升回答的质量。
丁铭围绕VisualGLM-6B的原理与实践分享了团队在多模态方面探究的方法及发现。他也提到了未来大模型发展的重点是中文的OCR能力、消除“幻觉”问题、更好地遵循指令。
陈波从蛋白质领域为切入口给听众介绍了GLM在AI For Science领域的应用。他的工作中结合了通用的蛋白质训练、预测、生成模型,探索了统一的蛋白质大语言模型在各种不同类型的蛋白质任务中的表现能力。
郑勤锴为大家带来CodeGeeX多语言代码生成模型与实践的相关分享。自动代码生成是计算机科学领域长久以来的一大难题。CodeGeeX在开源领域的多语言代码生成模型中具有强大的功能,
在Debate环节,上海交通大学长聘教轨副教授戴国浩、清华大学计算机系博士丁铭、上海有孚网络股份有限公司联合创始人兼CTO臧云峰、清华大学知识工程实验室研究助理郑勤锴、清华大学知识工程实验室博士生陈波、AI TIME负责人何芸,六位嘉宾对大模型的技术难点、场景应用、未来发展展开了热烈讨论,共同探索了大模型未来的发展机遇。
本期论坛聚焦于GLM大模型的研究过程、技术突破和应用实践,让观众深入了解了GLM大模型。未来,大模型会如何发展,让我们共同期待!
- 关注我们,记得星标 -
关于AI TIME
AI TIME源起于2019年,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法和场景应用的本质问题进行探索,加强思想碰撞,链接全球AI学者、行业专家和爱好者,希望以辩论的形式,探讨人工智能和人类未来之间的矛盾,探索人工智能领域的未来。
迄今为止,AI TIME已经邀请了1100多位海内外讲者,举办了逾550场活动,超600万人次观看。
我知道你
在看
哦
~
点击 阅读原文 观看回放!
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。