赞
踩
以大语言模型为功能核心(指令理解
与 文本生成
)、通过大语言模型的强大理解能力和生成能力、结合特殊的数据或业务逻辑来提供独特功能的应用。
在这个过程中,一般不会大幅度改动模型,而是将大模型作为一个调用工具,通过 Prompt Engineering、数据工程、业务逻辑分解等手段来充分发挥大模型能力,适配应用任务。
用 Prompt Engineering 来替代子模型的训练调优,通过 Prompt 链路组合来实现业务逻辑,用一个通用大模型 + 若干业务 Prompt 来解决任务。
直接从实际业务需求出发构造小批量验证集,设计合理 Prompt 来满足验证集效果。然后,不断从业务逻辑中收集当下 Prompt 的 Bad Case,并将 Bad Case 加入到验证集中,针对性优化 Prompt,最后实现较好的泛化效果。
项目规划与需求分析:确定项目目标、核心功能、技术架构和工具(LangChain框架、Chroma知识库、GPT、科大讯飞的星火大模型、文心一言、GLM、Gradio、Streamlit
数据准备与向量知识库构建:收集和整理数据,向量化数据,导入知识库,建立知识库索引
大模型集成与API连接:集成大模型,配置 API 连接,实现与大模型 API 的交互
核心功能实现:构建 Prompt Engineering,实现大模型回答功能,根据用户提问和知识库内容生成回答
核心功能迭代优化:进行验证评估,收集 Bad Case,根据 Bad Case 迭代优化核心功能实现
前端与用户交互界面开发:使用 Gradio 和 Streamlit 搭建前端界面
部署测试与上线:部署问答助手到服务器或云平台,确保可在互联网上访问;进行生产环境测试,确保系统稳定,上线并向用户发布
维护与持续改进:监测系统性能和用户反馈,及时处理问题;收集用户需求,进行系统改进和功能扩展
LLM 层:基于四种流行 LLM API 进行了 LLM 调用封装,支持用户以统一的入口、方式来访问不同的模型,支持随时进行模型的切换;
数据层:包括个人知识库的源数据以及 Embedding API,源数据经过 Embedding 处理可以被向量数据库使用;
数据库层:为基于个人知识库源数据搭建的向量数据库;
应用层:为核心功能的最顶层封装,基于 LangChain 提供的检索问答链基类进行了进一步封装,从而支持不同模型切换以及便捷实现基于数据库的检索问答;
服务层:实现了 Gradio 搭建 Demo 与 FastAPI 组建 API 两种方式来支持本项目的服务访问。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。