赞
踩
复习摘要
大致梳理了下《自然语言处理》这门课程的知识纲要
作者: Hongtauo
CSDN链接:(27条消息) Hongtauo的博客_CSDN博客-笔记,实验题,NLP学习之路领域博主
GitHub:https://github.com/Hongtauo/NLP_notebook
引用说明
部分内容参考自如下链接,文章内容仅作为学习参考使用
[1] 关键词提取和摘要算法TextRank详解与实战 - 知乎 (zhihu.com)
[2] 《LDA漫游指南》arxiv.org/ftp/arxiv/papers/1908/1908.03142.pdf
[3] 从0开始词嵌入(Word embedding) - 知乎 (zhihu.com)
[4] 自然语言处理中N-Gram模型介绍 - 知乎 (zhihu.com)
[5] 【图文并茂】通过实例理解word2vec之Skip-gram - 知乎 (zhihu.com)
[6] 《自然语言处理导论》——张奇、桂韬、黄萱菁
[7] 《Python自然语言处理实战》——涂铭、刘祥、刘树春
[8] CRF++: Yet Another CRF toolkit (taku910.github.io)
学习一个新事物,肯定要先问问,这是什么?在知道这个事物的存在后,再问问这(它)是如何实现的,最后,光有理论知识可不行,还要想想它有什么用,能够用在哪些方面?对我们的生活有什么影响?
自然语言处理(Natural Language Processing)是一门以计算机技术为基础的,对人类社会发展产生的“语言”进行处理、理解、运用,使得计算机能够理解人类语言并能使用人类语言进行生产活动的一门学科
在人类社会的发展中,诞生了无数的用于交流的语言,在这些语言的推动下,各个文明发展愈来愈迅猛,人类的思维碰撞也愈来愈强烈,各种语言在国际大舞台上相互碰撞,相互吸收与学习,在人类文明历史的画卷中留下了经久不衰的璀璨,这份光荣而伟大的“发明”将伴随着人类文明继续发展,陪伴着人类续写文明的史诗。如果说,直立行走、解放双手、使用工具使得人开始有别于动物,那么语言就是人类区别于动物的根本标志,没有语言,人类的文明终究是沙漠中的繁星,闪耀却零散,而语言成功地将这些繁星变为人类文明的一砖一瓦,垒砌了辉煌而多样的文明。
自然语言处理的任务是将待处理的文本处理为不同的信息形式,这些信息从不同的层面表达文本的语义,自然语言处理的流程如下所示
<图片>
我们都说,学习的过程中要学会举一反三,在自然语言处理任务中,计算机程序同样也要面对这两个问题,即“理解”与“生成”。所谓“理解”,就是要让计算机程序能够明白用户在“说什么”,而所谓“生成”,就是计算机程序在“理解”了用户的需求后,能够将需求解决并反馈给用户,从而完成“人机交互”。
自然语言处理技术NLP可以分为两个方向:
自然语言理解
自然语言生成
自然语言的理解就是要能让计算机程序理解用户“说了什么”,一般有三个分析层面:“词法分析”、“句法分析”、“语义分析”
词法分析就是以词为分析句子的基本单元,内容包括“分词”与“词性标注”两个部分。
在汉语中,词以字为基本单位,但是文章的语义表达确是以词进行划分的,对中文文本中的句子转化到词的过程就是分词,通过计算机自动识别出句子的词并且使用符号加以划分,所以分词就是将连续的句子按一定的规则,切分为单个词汇的过程。
词性标注的任务是为分词后的每一个词语赋予词性类别
句法分析就是以句子为单位进行分析,得到句子结构的处理过程。分析句子的结构一方面是为了理解句子的含义,另一方面是为了进行更高级的自然语言处理任务,常见的分析方法包括短语结构句法分析和依存结构的句法分析。
语义分析的目的是理解句子表达的真实语义。
自然语言生成是将以数字和符号表示的机器语言转换为自然语言的过程,可以运用在机器翻译、人机对话、看图说话等场景中
一般按照技术的难度进行划分,可以划分为以下三个级别
数据合并
数据合并方法是自然语言生成的简化形式,将数据通过简单的对应关系转化成文本。通常情况下就是在一段文本中预留出空位,然后填入专用数据,这些专用数据具有相同的结构和用途,例如可以在工资表单中自动填入不同员工的姓名、身份证号、工资等
模板化
通过预先定义好的模板与业务规则,采用模板驱动的方式生成文本,例如当前大部分的“智能语音助手”通过获取今日天气情况,自动生成“天气有雨,记得带伞”的模板化回答。
语义表达
以语义表达为目的的自然语言生成方法更像人类,它能够理解上下文语义关系,将结果以人们可以轻松阅读和理的形式展现出来,表达方式更加灵活,表述能力更加强大,例如ChatGPT4.0
以英语为代表的印欧语系中词之间通常有分隔符来区分,词比较容易的从句子中进行提取,以汉语为代表的汉藏语系、以阿拉伯为代表的闪-含语系中句子之间通常没有明显的分隔符将词划分开,所以,针对汉语的自然语言处理首先要对句子中的词语进行划分。
中文分词(Chinese Word Segmentation,CWS)是指将连续字序列转换为对应词序列的过程,也可也看作是在输入的序列中添加空格或其他边界标记的过程,其形式化表述如下
给定中文句子 c 1 c 2 c 3 c 4 , . . . , c n − 1 c n c_1c_2c_3c_4,...,c_{n-1}c_n c1c2c3c4,...,cn−1cn,其中 C i C_i Ci为单个字符,输出词序列 w 1 , w 2 , w 3 , . . . , w m w_1,w_2,w_3,...,w_m w1,w2,w3,...,wm,其中 w j w_j wj为中文词汇
汉语的语素大部分是单个汉字,单独出现的时候可以作为词,不单独出现的时候又是构词成分,所以汉语的构词能力非常强大且灵活,对于新出现的事物不需要重新创造新的汉字,仅需使用当前的汉字进行组合即可得到新词,这同时也是中文分词工作的巨大挑战:
分词规范
汉语中对词的具体界定目前还未有定论,目前仅根据定性的描述来解释词的概念,而计算机难以直接处理定性的事物,不同研究机构给出的分词规范也有所不同,词在中文中的概念本身就是非常主观的(这也是作者认为中文非常唯美感性、可塑性强的原因,中华文化,博大精深!)比如,“羌笛何须怨杨柳,春风不度玉门关”这句出自唐代诗人王之涣的《凉州词》。传说中一位书法家为慈禧写这首诗,但是由于疏忽忘记写了一个“间”,慈禧大怒,这位书法家灵机一动,说道:这是臣用王之涣的诗句填的词啊!于是读到:黄河远上,白云一片,孤城万仞山。羌笛何须怨?杨柳春风,不度玉门关。由此可见,何为词?不同人可以给出不同的理解,而我们日常交流的时候也只是按照约定俗称的语言习惯进行,不会刻意在意词与字的关系。
切分歧义
未登录词
未登录词指的是在训练语料中没有出现或是词典中没有,但是在测试数据集合中出现的词,汉语具有非常强的灵活性,未登录词的情况也非常复杂,可以粗略的将汉语中的未登录词分为以下几个方面
N-最短路径法
最短路径法进行分词的思想实际上是一种动态规划的思想,假设句子中两两词之间的距离为1,(如图)若从0->7存在一条最短路径{0,1,2,4,5,7},其路径长度d=5,那么该最短路径中的子结构也是最短的,即{0->5}构成的路径{0,1,2,4,5}是最短的,以此类推。
所以,我们可以对具有最优子结构的最短路径问题,采用动态规划算法或者贪心算法求解其最短路径
基于Dijkstra的最短路径分词算法
Dijkstra算法采取的是贪心的策略,每次纳入一个距离分量最小的节点到节点集合中,递推地更新初始节点到当前节点的下一节点的距离。但是此算法在面对多条距离相同的路径的时候,其只保留其中一条。
N-最短路径分词算法
在算法的每一步只保留最短的N条路径,并记录这些路径上当前节点的前驱节点,当算法求得最优解的时候,进行回溯,求解得到最短路径。在画图的时候,需要从初始节点到末尾节点根据词典中给出的词构建有向无环图。
例题:
(暂时忽略词性)
词典 | ||
---|---|---|
他 | 说 | 的 |
确 | 实 | 在 |
理 | 的确 | 确实 |
实在 | 在理 |
画出有向无环图
向前搜索(table的编号表示当前节点的最短路径情况,前驱节点用(n,m)表示,n代表前驱节点的编号,m表示此前驱节点出现的次数,值得注意的是,当长度相同时,两条路径应该放在同一个编号内,N最短的意思就是保留N条最短的路径,此处N=3,所以保留3条最短的路径(相等的看成一条))
回溯(纠正:table5中的长度为4的应该要放一起)
最大匹配法
最大匹配法包含 前向最大匹配,后向最大匹配以及双向最大匹配
前向最大匹配
对于需要分词的句子Sentence,从左到右取m个字符作为切分字段,m为词典中最大的字符串长度
对于该字段在字典中进行查词匹配,若匹配成功,则将该字段作为一个词切分出来,若匹配不成功,则将该字段最末尾的一个字去掉,将剩下的字段作为新的字段重复“2”操作,直到切分完所有词
后向最大匹配
1、对于需要分词的句子Sentence,从右到左取m个字符作为切分字段,m为词典中最大的字符串长度
2、对于该字段在字典中进行查词匹配,若匹配成功,则将该字段作为一个词切分出来,若匹配不成功,则将该字段最末尾的一个字去掉,将剩下的字段作为新的字段重复“2”操作,直到切分完所有词
双向最大匹配
双向最大匹配算法实际上是将正向最大匹配算法与逆向最大匹配算法得到的结果进行比较,选择词数切分最少的作为结果
例题:
假设字典为{“轻工业”,“工业”,“质量”,“产品”,“大幅度”,“提升”,“年轻”}
现有句子:“2013年轻工业产品质量大幅度提升”
正向匹配:
字典中字符串最大长度为“3”,从左往右取3个字符进行切分,若不在字典中出现,则去掉末尾的一个字,重复此操作
{201} nofound , m–
{20} nofound , m–
{2} nofound && length == 1 ,cut the word
2 {013} nofound , m–
{01} nofound , m–
{0} nofound && length == 1 ,cut the word
…
2/0/1/3 {年轻工}
{年轻工} nofound , m–
{年轻} found , cut the word
…
2/0/1/3/年轻/工业/产品/质量/大幅度/提升
逆向匹配
2/0/1/3/年/轻工业/产品/质量/大幅度/提升
双向匹配
取切词数量最少的
基于规则的中文分词方法根据语言学规则对句子中包含的词义信息进行分析,通过人为设定的一组规则来建立推理机和知识库,从而识别中文语句中的词语边界
基于统计的中文分词实际上是把分词的过程看作是字的分类,我们先规定,对于每个字,在构词的时候都有可能处在以下位置:{B,I,E,S}
在{B,I,E,S}标签表示法中
举个例子,对“自然语言”的分词如下:“自然”“语言”,那么对应的标记为“自/B然/S”,“语/B言/S”
所以{B,I,E,S}标签表示法将分词任务变为字的分类问题,故中文分词任务也是典型的序列标注问题,其核心思想是通过统计的方法,通过统计相连字在文本中出现的频率来估计相连的字组成词的概率,当组合的概率(频度)高于某一个临界值得时候,便认为该组合很有可能会构成一个词语
隐马尔可夫模型HMM
贝叶斯公式
P ( A ∣ B ) = P ( A B ) P ( B ) = P ( B ∣ A ) P ( A ) P ( B ) P(A|B)=\frac{P(AB)}{P(B)}=\frac{P(B|A)P(A)}{P(B)} P(A∣B)=P(B)P(AB)=P(B)P(B∣A)P(A)
虽然贝叶斯的形式已经给出,一眼看过去很清晰的知道等式的左项表示:在B条件下A发生的概率,但是我们并没有办法了解它的显示含义,所以我们对上式进行处理,赋予上式一种解释:
①H表示假设:我们将A用H替代
②D表示已掌握的数据:将B用D替代
那么我们可以很容易的得到如下式子:
P ( H ∣ D ) = P ( H D ) P ( D ) = P ( D ∣ H ) P ( H ) P ( D ) P(H|D)=\frac{P(HD)}{P(D)}=\frac{P(D|H)P(H)}{P(D)} P(H∣D)=P(D)P(HD)=P(D)P(D∣H)P(H)
对于句子“他从小学会了解题”,我们假设这句话的分词标注为“他/S 从/B 小/E 学/B 会/E 了/S 解/B 题/E”,这样,我们得到了假设H:
D:{“他从小学会了解题”}
H:{“SBEBESBE”}
我们想要知道这种假设的发生概率是多大,也就是求 P ( H ∣ D ) P(H|D) P(H∣D),在模式识别-贝叶斯一章中我们已经了解到,一个假设其后验概率最大,其越有可能发生,在统计分词中也是如此,只要我们检查每个假设的后验分布,当假设的后验分布足够大,表示按此假设分词的可能性也就越大。
将上述假设H(注意,H只是所有假设中的其中一个)带入我们的贝叶斯公式:
P ( “ S B E B E S B E ” ∣ “他从小学会了解题” ) = P ( “ S B E B E S B E ” “他从小学会了解题” ) P ( “他从小学会了解题” ) = P ( “他从小学会了解题” ∣ “ S B E B E S B E ” ) P ( “ S B E B E S B E ” ) P ( “他从小学会了解题” ) P({“SBEBESBE”}|{“他从小学会了解题”})=\frac{P({“SBEBESBE”}{“他从小学会了解题”})}{P({“他从小学会了解题”})} \\ =\frac{P({“他从小学会了解题”}|{“SBEBESBE”})P({“SBEBESBE”})}{P({“他从小学会了解题”})} P(“SBEBESBE”∣“他从小学会了解题”)=P(“他从小学会了解题”)P(“SBEBESBE”“他从小学会了解题”)=P(“他从小学会了解题”)P(“他从小学会了解题”∣“SBEBESBE”)P(“SBEBESBE”)
现在,我们的难点就从计算假设的“后验概率”简化为计算假设的“条件概率”与假设的“先验分布”,但是,这看起来还是有难度。
HMM模型
HMM模型的提出就是为了解决上述问题条件概率的求解困难,同时引入了状态转移概率,解决了部分不可能出现的标注情况
为了方便展示字与字、标注与标注、标注与字之间的关系,对于假设H,我们使用一连串的o表示标签,即 o = o 1 o 2 . . . o n o=o _{1}o_{2}...o_{n} o=o1o2...on。对于句子D我们使用 λ = λ 1 λ 2 . . . λ n \lambda=\lambda _{1}\lambda _{2}...\lambda_{n} λ=λ1λ2...λn表示。
P ( “ S B E B E S B E ” ∣ “他从小学会了解题” ) = P ( o ∣ λ ) = P ( λ ∣ o ) P ( o ) P ( λ ) ⟺ P ( λ ∣ o ) P ( o ) P({“SBEBESBE”}|{“他从小学会了解题”})=P(o|\lambda)=\frac{P(\lambda|o)P(o)}{P(\lambda)}\Longleftrightarrow P(\lambda|o)P(o) P(“SBEBESBE”∣“他从小学会了解题”)=P(o∣λ)=P(λ)P(λ∣o)P(o)⟺P(λ∣o)P(o)
由于 P ( λ ) P(\lambda) P(λ)是全概率公式,计算结果为常数,我们可以让后验概率等价于条件概率与先验分布的乘积
对 P ( λ ∣ o ) P ( o ) P(\lambda|o)P(o) P(λ∣o)P(o)做马尔可夫假设
P ( λ ∣ o ) = P ( λ 1 ∣ o 1 ) P ( λ 2 ∣ o 2 ) . . . P ( λ n ∣ o n ) P(\lambda|o)=P(\lambda_{1}|o_{1})P(\lambda_{2}|o_{2})...P(\lambda_{n}|o_{n}) P(λ∣o)=P(λ1∣o1)P(λ2∣o2)...P(λn∣on)
也就是每个标注对应于一个字的概率, P ( λ n ∣ o n ) P(\lambda_n|o_n) P(λn∣on)叫做发射概率
对 P ( o ) P(o) P(o)做其次马尔可夫假设
P ( o ) = P ( o 1 ) P ( o 2 ∣ o 1 ) P ( o 3 ∣ o 2 ) . . . P ( o n ∣ o n − 1 ) P(o)=P(o_{1})P(o_{2}|o_{1})P(o_{3}|o_{2})...P(o_{n}|o_{n-1}) P(o)=P(o1)P(o2∣o1)P(o3∣o2)...P(on∣on−1)
也就是当前状态仅与前一个状态有关。其中 P ( o 1 ) P(o_1) P(o1)表示初始状态概率向量, P ( o n ∣ o n + 1 ) P(o_n|o_{n+1}) P(on∣on+1)为状态转移概率,通过认为设置某些状态转移概率为0,即可杜绝不合理的状态组合,比如“BBB”类似的组合
综上,我们终于解决了计算的难题,我们得到了如下的公式:
P ( o ∣ λ ) = P ( λ ∣ o ) P ( o ) = P ( λ 1 ∣ o 1 ) P ( λ 2 ∣ o 2 ) . . . P ( λ n ∣ o n ) P ( o 1 ) P ( o 2 ∣ o 1 ) P ( o 3 ∣ o 2 ) . . . P ( o n ∣ o n − 1 ) P(o|\lambda)= P(\lambda|o)P(o)=P(\lambda_{1}|o_{1})P(\lambda_{2}|o_{2})...P(\lambda_{n}|o_{n})P(o_{1})P(o_{2}|o_{1})P(o_{3}|o_{2})...P(o_{n}|o_{n-1}) P(o∣λ)=P(λ∣o)P(o)=P(λ1∣o1)P(λ2∣o2)...P(λn∣on)P(o1)P(o2∣o1)P(o3∣o2)...P(on∣on−1)
调整下次序
P ( o ∣ λ ) = P ( λ ∣ o ) P ( o ) = P ( o 1 ) P ( λ 1 ∣ o 1 ) P ( o 2 ∣ o 1 ) P ( λ 2 ∣ o 2 ) P ( o 3 ∣ o 2 ) . . . . . . P ( o n ∣ o n − 1 ) P ( λ n ∣ o n ) P(o|\lambda)= P(\lambda|o)P(o)=P(o_{1})P(\lambda_{1}|o_{1})P(o_{2}|o_{1})P(\lambda_{2}|o_{2})P(o_{3}|o_{2})......P(o_{n}|o_{n-1})P(\lambda_{n}|o_{n}) P(o∣λ)=P(λ∣o)P(o)=P(o1)P(λ1∣o1)P(o2∣o1)P(λ2∣o2)P(o3∣o2)......P(on∣on−1)P(λn∣on)
示例:
基于上面的例子,我们可以这样计算 P ( “ S B E B E S B E ” ∣ “他从小学会了解题” ) P({“SBEBESBE”}|{“他从小学会了解题”}) P(“SBEBESBE”∣“他从小学会了解题”)
P ( “ S B E B E S B E ” ∣ “他从小学会了解题” ) = P ( S ) P ( 他 ∣ S ) P ( B ∣ S ) P ( 从 ∣ B ) P ( E ∣ B ) P ( 小 ∣ E ) P ( B ∣ E ) P ( 学 ∣ B ) P ( E ∣ B ) P ( 会 ∣ E ) P ( S ∣ E ) P ( 了 ∣ S ) P ( B ∣ S ) P ( 解 ∣ B ) P ( E ∣ B ) P ( 题 ∣ E ) P({“SBEBESBE”}|{“他从小学会了解题”})=P(S)P(他|S)P(B|S)P(从|B)P(E|B)P(小|E)P(B|E)P(学|B)P(E|B)P(会|E)P(S|E)P(了|S)P(B|S)P(解|B)P(E|B)P(题|E) P(“SBEBESBE”∣“他从小学会了解题”)=P(S)P(他∣S)P(B∣S)P(从∣B)P(E∣B)P(小∣E)P(B∣E)P(学∣B)P(E∣B)P(会∣E)P(S∣E)P(了∣S)P(B∣S)P(解∣B)P(E∣B)P(题∣E)
Viterbi算法求解概率最大的标注序列与分词结果
假设状态转移概率矩阵、初始概率矩阵、观测矩阵概率如下所示
使用维特比算法求解句子的标注
长短时记忆网络
往后翻
关键词就是能够代表文章重要内容的一组词,对文本聚类、分类、自动摘要等起重要的作用。关键词提取算法也分为两类,即有监督的和无监督的,本章重点讲解无监督的关键词提取算法。
优劣\算法 | 有监督的关键词提取技术 | 无监督的关键词提取技术 |
---|---|---|
优势 | 高精度 | 人工维护成本低,对数据的要求低 |
劣势 | 人工维护成本高。难以适应新信息 | 精度稍差 |
TF/IDF算法是一种基于统计的计算方法,常常用于评估在一个文档集中,一个词对某份文档的重要程度,TF-IDF算法实际上是两个算法的融合,对单个的TF或IDF算法来说,效果可能不那么好,将其进行融合,即可取长补短,提高算法的提取能力。
TF算法
TF算法也叫做词频算法(Term Frequency),其思想是,如果一次词是文章的关键词,那么他一定在文章中频繁的出现,其函数定义如下:
t f i j = n i j ∑ k n k j tf_{ij}=\frac {n_{ij}}{\textstyle \sum_{k}^{} n_{kj}} tfij=∑knkjnij
也就是,词频tf = 某个词在文章中出现的次数/该文章的总词数
IDF算法
IDF算法的思想是,如果一个词他在这篇文章中频繁的出现,但是在整个文档集合中他在其他文档中很少出现,那么这个词就是这篇文章的关键词,从算法思想中不难看出,IDF算法他力求找到一个词,不但能代表整篇文章,还能够将这篇文章与其他文章区分开来。
其函数定于如下:
i d f i = l o g ( ∣ D ∣ 1 + ∣ D i ∣ ) idf_i=log(\frac{|D|}{1+|D_i|}) idfi=log(1+∣Di∣∣D∣)
也就是,逆文档词频idf = log(语料库的文档总数/包含该词的文档数+1)
分母加1的原因是,可能有些文档不包含这个词,为了避免计算错误,进行平滑处理,根据算法,我们可以看出,如果一个词在越多篇文章中出现,其分母就越大,分数值越小,经过log函数处理后,整体的idf值就越小(log函数的作用是压缩变化的尺度,使得变化激烈的变量运算结果表现得缓和,避免算法对某些数据产生偏好,同时也方便计算)
TF-IDF的结合
对于如何将TF与IDF进行组合,经过学者的大量研究,最终发现相乘是最有效的计算方式,即
t f × i d f ( i , j ) = t f i j × i d f i = n i j ∑ k n k j × l o g ( ∣ D ∣ 1 + ∣ D i ∣ ) tf\times idf(i,j)=tf_{ij}\times idf_i=\frac {n_{ij}}{\textstyle \sum_{k}^{} n_{kj}}\times log(\frac{|D|}{1+|D_i|}) tf×idf(i,j)=tfij×idfi=∑knkjnij×log(1+∣Di∣∣D∣)
PageRank算法是一种网页排名算法,其基本思路如下:
TextRank算法是可以脱离语料库的背景,仅对单篇文档进行分析就可以提取该文档的关键词,最早用于文档的自动摘要,基于句子维度的分析,利用TextRank对每个句子进行打分。挑选出分数最高的n个句子作为文档的关键句,以达到自动摘要的效果。
衡量一个网页的PageRank值的计算公式为
S ( V i ) = ∑ j ∈ I n ( V i ) ( 1 ∣ O u t ( V j ) ∣ × S ( V j ) ) S(V_i)=\textstyle \sum_{j∈In(V_i)} \left ( \frac{1}{|Out(V_j)|} \times S(V_j) \right) S(Vi)=∑j∈In(Vi)(∣Out(Vj)∣1×S(Vj))
公式中的 I n ( V i ) In(V_i) In(Vi)为 V i V_i Vi的入链集合, O u t ( V j ) Out(V_j) Out(Vj)为 V j V_j Vj的出链集合, ∣ O u t ( V j ) ∣ |Out(V_j)| ∣Out(Vj)∣为出链的数量,每个网页要将自己的分数平均地贡献给每个出链接,则 1 ∣ O u t ( V j ) ∣ × S ( V j ) \frac{1}{|Out(V_j)|} \times S(V_j) ∣Out(Vj)∣1×S(Vj)即为 V j V_j Vj贡献给 V i V_i Vi的分数。将 V i V_i Vi的所有的入链贡献给他的分数累加,就是 V i V_i Vi自身的分数。
算法初始时会将所有网页的得分初始化为1,然后通过多次迭代来对每个网页的分数进行收敛,收敛时得到的得分就是网页的最终得分,若不能收敛,则设定最大迭代次数,超过此次数后计算停止,此时的分数就是网页的得分。
为了避免出现某些网页因为没有出链和入链的得分为0的情况,对公式进行改造,加入阻尼系数d
S ( V i ) = ( 1 − d ) + d × ∑ j ∈ I n ( V i ) ( 1 ∣ O u t ( V j ) ∣ × S ( V j ) ) S(V_i)=(1-d)+d \times \textstyle \sum_{j∈In(V_i)} \left ( \frac{1}{|Out(V_j)|} \times S(V_j) \right) S(Vi)=(1−d)+d×∑j∈In(Vi)(∣Out(Vj)∣1×S(Vj))
可以通过图的角度理解PagrRank
这篇文章写的好,点击跳转
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。