赞
踩
目录
2. Boolean Multinomial Naïve Bayes
稀疏,维度大,假设词之间是独立的,无法表示语义关系。
分布式表示利用词的上下文,用固定维度的低维稠密向量来储存“大部分”重要信息。
潜在语义索引基于词和文档的共现矩阵。通过奇异值分解SVD来识别非结构化文本集合中包含的术语和概念之间关系的模式。
缺点:慢,引入新词代价大。
直接学习词的低维稠密的向量表示
Word2vec直接计算复杂度高,需要遍历整个词典,可通过负采样技术把上下文预测从多分类问题变成二分类问题。
SGNS的目标——返回 c 是 t 的真正的上下文词的概率。
如何求概率?——考虑用向量点积,计算词之间的相似度,再用sigmoid转化为概率。
采用Spearman相关系数
为实体词指定一个标记,如Name,Organization等。
区别:实体类别和关系类别不固定、数量大。
基于句法:识别表达语义的短语进行关系抽取,同时使用句法和统计数据进行过滤。优点是无需预先定义关系类别,但语义没有归一化,同一关系有不同表示。
基于知识监督:在Wikipedia文本中抽取关系(属性)信息,但无法获取关系类别,也无法获取训练语料。解决方案——在Infobox抽取关系信息,并在Wikipedia条目文本中进行回标,产生训练语料。
远距离监督:开放域信息抽取的一个主要问题是缺乏标注语料,远距离监督可使用知识库中的关系启发式的标注训练语料。但需要进行噪音训练。
事件抽取具体可分为四个子任务:触发词识别、事件类型分类、论元识别、论元角色分类。
目前聊天型对话系统的主要作用还是娱乐,也有用于医疗的(如心理治疗)。
任务型对话系统的目标是帮助用户解决问题,例如进行预约、购买产品等。
两种基本架构:GUS架构(基于框架)和对话状态架构。前者应用较广,后者主要用于研究。
如何根据用户的回复对槽进行填充?——正则表达式,产生式规则,基于模板的回应生成方式等。
如何一次填充多个槽呢?——通过规则处理槽之间的关系。
eg:
填完飞机预约框架的“目的地”槽后,自动将宾馆预约框架的“地点”槽进行填充;
填完短途旅行的“出发日期”槽后,自动将“到达日期”槽进行填充。
NLU(Natural Language Understanding)通过机器学习方法对槽进行填充;
tracker记录最近的行为和槽值;
policy决定下一步的对话内容;
NLG(Natural Language Generation)用于生成更自然的回复。
2.1 对话行为
2.2 槽填充
2.3 对话状态追踪
修正行为主要针对以下两种场景:
1. 对话系统有时无法正确理解识别用户的意图;
2. 用户可能会进行确认——如重复、强调、否定对话系统的输出等。
eg:
由于发音的夸张,演讲的识别错误率很高
2.4 对话策略
显式确认比较直接,用户回答yes/no,但比较笨,而且会增加对话长度。
eg:
U——“我想去哈尔滨。”
S——“你想去哈尔滨对吗?”
U——“对。”【显式确认】
隐式确认可能会复述用户的话,但不会让用户回答yes/no,而是进一步提出其他问题。
U——“我想去哈尔滨?”
S——“你想什么时候去哈尔滨?”【隐式确认】
U——“周二早上去。”
S——“周二早上去哈尔滨,你的名字是?”【隐式确认】
不好的策略:“抱歉我不理解你的意思” or 把问题重复一遍。
好的策略:“抱歉,请重复一遍你想在哪天去哈尔滨。”【引导用户给出想要的信息】
2.5 NLG
content planning在之前对话策略的部分已经解决,只剩下sentence realization。
人工评价:Participant evaluation(让人去对话,然后打分) 和 Observer evaluation(第三方看他们对话,然后打分)。
Participant evaluation:让人和对话系统进行6轮对话,然后从8个维度进行打分——避免重复、有趣、有意义、倾听、询问性、与人相似性、吸引力。
Observer evaluation:第三方看对话记录,从吸引力、有趣性、类人性、智慧等方面打分。
自动评价:对于chatbot来说不太适用,与人类的判别差距较大。
对抗式评价:训练一个分类器,用于判断是否为人类的回应,能“骗过”分类器的就是好的对话系统。
极性通常为 positive 与 negative ,但有时根据需要也会引入其他的类别。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。