赞
踩
最近在做个类似的项目,有用到这方面的知识,顺便做一些记录和笔记吧,希望能帮到大家了解智能体应用开发
目录
随着人工智能技术的飞速发展,AI原生应用逐渐成为创新的前沿。这些应用从设计之初就将AI技术作为核心,与传统的应用程序相比,它们能够提供更加智能化、个性化的服务。AI原生应用正在改变我们与技术的互动方式,从简单的工具使用转变为与智能助手的协作,这些助手能够理解我们的需求,预测我们的行动,并提供定制化的解决方案。
智能体(Agent)是AI领域中一个关键的概念,它指的是能够在特定环境中自主运作并执行任务的软件实体。智能体不仅可以感知其环境,还能做出决策并采取行动以达成目标。在AI原生应用中,智能体充当着用户与复杂AI系统之间的桥梁,它们使得AI技术更加易于访问和使用。
机器学习是智能体实现智能行为的关键技术之一。它使智能体能够从数据中学习并改进其性能。
智能体需要有效的数据管理来支持其学习和决策过程。
人类的文字、图片、视频等媒介是无法直接被计算机理解的,要想让计算机理解两段文字是否有相似性、相关性,通常需要将它们转成计算机可以理解的语言,向量是其中的一种方式。
向量可以简单理解为一个数字数组,两个向量之间可以通过数学公式得出一个距离
,距离越小代表两个向量的相似度越大。从而映射到文字、图片、视频等媒介上,可以用来判断两个媒介之间的相似度。向量搜索便是利用了这个原理。
而由于文字是有多种类型,并且拥有成千上万种组合方式,因此在转成向量进行相似度匹配时,很难保障其精确性。在向量方案构建的知识库中,通常使用topk
召回的方式,也就是查找前k
个最相似的内容,丢给大模型去做更进一步的语义判断
、逻辑推理
和归纳总结
,从而实现知识库问答。因此,在知识库问答中,向量搜索的环节是最为重要的。
影响向量搜索精度的因素非常多,主要包括:向量模型的质量、数据的质量(长度,完整性,多样性)、检索器的精度(速度与精度之间的取舍)。与数据质量对应的就是检索词的质量。
检索器的精度比较容易解决,向量模型的训练略复杂,因此数据和检索词质量优化成了一个重要的环节。
- import re
-
- # 假设我们有以下对话历史和问题
- dialog_history = ["今天天气怎么样?", "明天会下雨吗?", "北京的天气如何?"]
- current_question = "北京明天的天气怎么样?"
-
- # 指代消除和问题扩展
- def expand_question(question, history):
- # 这里简单用正则表达式匹配和替换,实际情况可能需要更复杂的NLP处理
- for q in history:
- question = re.sub(r"\b北京\b", q, question, flags=re.IGNORECASE)
- return question
-
- expanded_question = expand_question(current_question, dialog_history)
-
- # Concat查询,假设我们有两个不同的搜索引擎返回的结果
- def concat_query(expanded_question):
- # 这里假设search_engine_1和search_engine_2是两个搜索函数
- results_1 = search_engine_1(expanded_question)
- results_2 = search_engine_2(expanded_question)
- # 合并结果
- return results_1 + results_2
-
- concatenated_results = concat_query(expanded_question)
-
- # RRF合并方式,这里我们简单地使用取并集的方式
- def rrf_merge(results):
- # 假设result是一个包含多个搜索结果的列表
- merged_results = list(set(results)) # 使用set去重
- return merged_results
-
- rrf_results = rrf_merge(concatenated_results)
-
- # Rerank二次排序,这里我们简单地根据结果的相关性进行排序
- def rerank(results):
- # 这里假设我们有一个函数来评估结果的相关性
- ranked_results = sorted(results, key=lambda x: relevance_score(x), reverse=True)
- return ranked_results
-
- reranked_results = rerank(rrf_results)
-
- # 假设的搜索函数和相关性评分函数
- def search_engine_1(question):
- # 这里只是一个示例,实际中会调用搜索引擎API
- return ["晴", "多云", "有雨"]
-
- def search_engine_2(question):
- # 这里只是一个示例,实际中会调用另一个搜索引擎API
- return ["有雨", "晴转多云"]
-
- def relevance_score(result):
- # 这里只是一个示例,实际中会根据结果的相关性进行评分
- return len(result)
-
- # 输出最终结果
- print("Expanded Question:", expanded_question)
- print("Reranked Results:", reranked_results)

强化学习是智能体在动态环境中做出决策的关键。
- import numpy as np
-
- # 假设我们有一组候选答案和它们的初始相关性得分
- candidates = ["答案1", "答案2", "答案3"]
- initial_scores = np.array([0.7, 0.6, 0.8])
-
- # 定义状态转移矩阵,这里简化为随机选择动作
- transition_matrix = np.random.rand(len(candidates), len(candidates))
-
- # 定义奖励函数,这里简化为基于初始得分的随机奖励
- def reward_function(state, action):
- # 假设奖励与初始得分成正比
- return initial_scores[action]
-
- # 定义MDP模型
- class MDP:
- def __init__(self, states, actions, transition_probabilities, reward_function):
- self.states = states
- self.actions = actions
- self.transition_probabilities = transition_probabilities
- self.reward_function = reward_function
-
- def step(self, state, action):
- # 执行动作并返回奖励和下一个状态
- next_state = np.random.choice(self.states, p=self.transition_probabilities[state][action])
- reward = self.reward_function(state, action)
- return reward, next_state
-
- # 初始化MDP
- mdp = MDP(states=candidates, actions=range(len(candidates)), transition_probabilities=transition_matrix, reward_function=reward_function)
-
- # 简单的策略迭代算法
- def policy_iteration(mdp, gamma=0.9, theta=1e-6):
- policy = {s: np.random.choice(mdp.actions) for s in mdp.states}
- V = {s: 0 for s in mdp.states}
-
- while True:
- delta = 0
- for s in mdp.states:
- v = V[s]
- V[s] = max([sum([mdp.transition_probabilities[s][a][i] * (mdp.reward_function(s, a) + gamma * V[i]) for i in mdp.states]) for a in mdp.actions])
- delta = max(delta, abs(v - V[s]))
- if delta < theta:
- break
- policy = {s: np.argmax([sum([mdp.transition_probabilities[s][a][i] * (mdp.reward_function(s, a) + gamma * V[i]) for i in mdp.states]) for a in mdp.actions]) for s in mdp.states}
- return policy, V
-
- # 执行策略迭代
- policy, value_function = policy_iteration(mdp)
-
- # 输出最优策略
- print("最优策略:", policy)

设计和开发智能体的第一步是进行需求分析和场景定义。这一阶段的目标是明确智能体需要解决的问题、它将如何与用户或其他系统交互,以及它需要满足的性能标准。需求分析包括但不限于:
智能体的架构设计是构建其内部结构和组件的过程。一个良好的架构设计能够确保智能体的灵活性、可扩展性和可维护性。架构设计的关键要素包括:
选择合适的开发工具和平台对于智能体的开发至关重要。这些工具和平台能够提供必要的支持,帮助开发者快速构建和测试智能体。
零代码/低代码开发平台使得非技术用户也能够参与到智能体的开发中来。这些平台通过可视化的拖拽界面和预定义的模板简化了开发流程:
利用开源框架和库可以减少开发工作量,同时利用社区的力量来改进和维护智能体:
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。