当前位置:   article > 正文

PostgreSQL SQL 语言:全文搜索

where: while setting parameter "default_text_search_config" to "zsoa_cms_par

本文档为PostgreSQL 9.6.0文档,本转载已得到原译者彭煜玮授权。
1. 介绍

全文搜索(或者文本搜索)提供了确定满足一个查询的自然语言文档的能力,并可以选择将它们按照与查询的相关度排序。最常用的搜索类型是找到所有包含给定查询词的文档并按照它们与查询的相似性顺序返回它们。查询和相似性的概念非常灵活并且依赖于特定的应用。最简单的搜索认为查询是一组词而相似性是查询词在文档中的频度。

文本搜索操作符已经在数据库中存在很多年了。PostgreSQL对文本数据类型提供了~、~*、LIKE和ILIKE操作符,但是它们缺少现代信息系统所要求的很多基本属性:

  • 即使对英语也缺乏语言的支持。正则表达式是不够的,因为它们不能很容易地处理派生词,例如satisfies和satisfy。你可能会错过包含satisfies的文档,尽管你可能想要在对于satisfy的搜索中找到它们。可以使用OR来搜索多个派生形式,但是这样做太罗嗦也容易出错(有些词可能有数千种派生)。
  • 它们不提供对搜索结果的排序(排名),这使它们面对数以千计被找到的文档时变得无效。
  • 它们很慢因为没有索引支持,因此它们必须为每次搜索处理所有的文档。

全文索引允许文档被预处理并且保存一个索引用于以后快速的搜索。预处理包括:

  • 将文档解析成记号。标识出多种类型的记号是有所帮助的,例如数字、词、复杂的词、电子邮件地址,这样它们可以被以不同的方式处理。原则上记号分类取决于相关的应用,但是对于大部分目的都可以使用一套预定义的分类。PostgreSQL使用一个解析器来执行这个步骤。其中提供了一个标准的解析器,并且为特定的需要也可以创建定制的解析器。
  • 将记号转换成词位。和一个记号一样,一个词位是一个字符串,但是它已经被正规化,这样同一个词的不同形式被变成一样。例如,正规化几乎总是包括将大写字母转换成小写形式,并且经常涉及移除后缀(例如英语中的s或es)。这允许搜索找到同一个词的变体形式,而不需要冗长地输入所有可能的变体。此外,这个步骤通常会消除停用词,它们是那些太普通的词,它们对于搜索是无用的(简而言之,记号是文档文本的原始片段,而词位是那些被认为对索引和搜索有用的词)。PostgreSQL使用词典来执行这个步骤。已经提供了多种标准词典,并且为特定的需要也可以创建定制的词典。
  • 为搜索优化存储预处理好的文档。例如,每一个文档可以被表示为正规化的词位的一个有序数组。与词位一起,通常还想要存储用于近似排名的位置信息,这样一个包含查询词更"密集"区域的文档要比那些包含分散的查询词的文档有更高的排名。

词典允许对记号如何被正规化进行细粒度的控制。使用合适的词典,你可以:

  • 定义不应该被索引的停用词。
  • 使用Ispell把同义词映射到一个单一词。
  • 使用一个分类词典把短语映射到一个单一词。
  • 使用一个Ispell词典把一个词的不同变体映射到一种规范的形式。
  • 使用Snowball词干分析器规则将一个词的不同变体映射到一种规范的形式。

我们提供了一种数据类型tsvector来存储预处理后的文档,还提供了一种类型tsquery来表示处理过的查询。有很多函数和操作符可以用于这些数据类型,其中最重要的是匹配操作符@@。全文搜索可以使用索引来加速。

1.1. 什么是一个文档?

一个document是在一个全文搜索系统中进行搜索的单元,例如,一篇杂志文章或电子邮件消息。文本搜索引擎必须能够解析文档并存储词位(关键词)与它们的父文档之间的关联。随后,这些关联会被用来搜索包含查询词的文档。

对于PostgreSQL中的搜索,一个文档通常是一个数据库表中一行内的一个文本形式的域,或者可能是这类域的一个组合(连接),这些域可能存储在多个表或者是动态获取。换句话说,一个文档可能从用于索引的不同部分构建,并且它可能被作为一个整体存储在某个地方。例如:

  1. SELECT title || ' ' || author || ' ' || abstract || ' ' || body AS document
  2. FROM messages
  3. WHERE mid = 12;
  4. SELECT m.title || ' ' || m.author || ' ' || m.abstract || ' ' || d.body AS document
  5. FROM messages m, docs d
  6. WHERE mid = did AND mid = 12;

Note:
实际上在这些例子查询中,coalesce应该被用来防止一个单一NULL属性导致整个文档的一个NULL结果。

另一种存储文档的可能性是作为文件系统中的简单文本文件。在这种情况下,数据库可以被用来存储全文索引并执行搜索,并且某些唯一标识符可以被用来从文件系统检索文档。但是,从数据库的外面检索文件要求超级用户权限或者特殊函数支持,因此这种方法通常不如把所有数据放在PostgreSQL内部方便。另外,把所有东西放在数据库内部允许方便地访问文档元数据来协助索引和现实。

对于文本搜索目的,每一个文档必须被缩减成预处理后的tsvector格式。搜索和排名被整个在一个文档的tsvector表示上执行 — 只有当文档被选择来显示给用户时才需要检索原始文本。我们因此经常把tsvector说成是文档,但是当然它只是完整文档的一种紧凑表示。

1.2. 基本文本匹配

PostgreSQL中的全文搜索基于匹配操作符@@,它在一个tsvector(文档)匹配一个tsquery(查询)时返回true。哪种数据类型写在前面没有影响:

  1. SELECT 'a fat cat sat on a mat and ate a fat rat'::tsvector @@ 'cat & rat'::tsquery;
  2. ?column?
  3. ----------
  4. t
  5. SELECT 'fat & cow'::tsquery @@ 'a fat cat sat on a mat and ate a fat rat'::tsvector;
  6. ?column?
  7. ----------
  8. f

正如以上例子所建议的,一个tsquery并不只是一个未经处理的文本,顶多一个tsvector是这样。一个tsquery包含搜索术语,它们必须是已经正规化的词位,并且可以使用 AND 、OR、NOT 以及 FOLLOWED BY 操作符结合多个术语。有几个函数to_tsquery、plainto_tsquery以及phraseto_tsquery可用于将用户书写的文本转换为正确的tsquery,它们会主要采用正则化出现在文本中的词的方法。相似地,to_tsvector被用来解析和正规化一个文档字符串。因此在实际上一个文本搜索匹配可能看起来更像:

  1. SELECT to_tsvector('fat cats ate fat rats') @@ to_tsquery('fat & rat');
  2. ?column?
  3. ----------
  4. t

注意如果这个匹配被写成下面这样它将不会成功:

  1. SELECT 'fat cats ate fat rats'::tsvector @@ to_tsquery('fat & rat');
  2. ?column?
  3. ----------
  4. f

因为这里不会发生词rats的正规化。一个tsvector的元素是词位,它被假定为已经正规化好,因此rats不匹配rat。

@@操作符也支持text输出,它允许在简单情况下跳过从文本字符串到tsvector或tsquery的显式转换。可用的变体是:

  1. tsvector @@ tsquery
  2. tsquery @@ tsvector
  3. text @@ tsquery
  4. text @@ text

前两种我们已经见过。形式text @@ tsquery等价于to_tsvector(x) @@ y。形式text @@ text等价于to_tsvector(x) @@ plainto_tsquery(y)。

在tsquery中,&(AND)操作符指定它的两个参数都必须出现在文档中才表示匹配。类似地,|(OR)操作符指定至少一个参数必须出现,而!(NOT)操作符指定它的参数不出现才能匹配。

在<->(FOLLOWED BY) tsquery操作符的帮助下搜索可能的短语,只有该操作符的参数的匹配是相邻的并且符合给定顺序时,该操作符才算是匹配。例如:

  1. SELECT to_tsvector('fatal error') @@ to_tsquery('fatal <-> error');
  2. ?column?
  3. ----------
  4. t
  5. SELECT to_tsvector('error is not fatal') @@ to_tsquery('fatal <-> error');
  6. ?column?
  7. ----------
  8. f

FOLLOWED BY 操作符还有一种更一般的版本,形式是<N>,其中N是一个表示匹配词位位置之间的差。<1>和<->相同,而<2>允许刚好一个其他词位出现在匹配之间,以此类推。当有些词是停用词时,phraseto_tsquery函数利用这个操作符来构造一个能够匹配多词短语的tsquery。例如:

  1. SELECT phraseto_tsquery('cats ate rats');
  2. phraseto_tsquery
  3. -------------------------------
  4. 'cat' <-> 'ate' <-> 'rat'
  5. SELECT phraseto_tsquery('the cats ate the rats');
  6. phraseto_tsquery
  7. -------------------------------
  8. 'cat' <-> 'ate' <2> 'rat'

一种有时候有用的特殊情况是,<0>可以被用来要求两个匹配同一个词的模式。

圆括号可以被用来控制tsquery操作符的嵌套。如果没有圆括号,|的计算优先级最低,然后从低到高依次是&、<->、!。

1.3. 配置

前述的都是简单的文本搜索例子。正如前面所提到的,全文搜索功能包括做更多事情的能力:跳过索引特定词(停用词)、处理同义词并使用更高级的解析,例如基于空白之外的解析。这个功能由文本搜索配置控制。PostgreSQL中有多种语言的预定义配置,并且你可以很容易地创建你自己的配置(psql的dF命令显示所有可用的配置)。

在安装期间一个合适的配置将被选择并且default_text_search_config也被相应地设置在postgresql.conf中。如果你正在对整个集簇使用相同的文本搜索配置,你可以使用在postgresql.conf中使用该值。要在集簇中使用不同的配置但是在任何一个数据库内部使用同一种配置,使用ALTER DATABASE ... SET。否则,你可以在每个会话中设置default_text_search_config。

依赖一个配置的每一个文本搜索函数都有一个可选的regconfig参数,因此要使用的配置可以被显式指定。只有当这个参数被忽略时,default_text_search_config才被使用。

为了让建立自定义文本搜索配置更容易,一个配置可以从更简单的数据库对象来建立。PostgreSQL的文本搜索功能提供了四类配置相关的数据库对象:

  • 文本搜索解析器将文档拆分成记号并分类每个记号(例如,作为词或者数字)。
  • 文本搜索词典将记号转变成正规化的形式并拒绝停用词。
  • 文本搜索模板提供位于词典底层的函数(一个词典简单地指定一个模板和一组用于模板的参数)。
  • 文本搜索配置选择一个解析器和一组用于将解析器产生的记号正规化的词典。

文本搜索解析器和模板是从低层 C 函数构建而来,因此它要求 C 编程能力来开发新的解析器和模板,并且还需要超级用户权限来把它们安装到一个数据库中(在PostgreSQL发布的contrib/区域中有一些附加的解析器和模板的例子)。由于词典和配置只是对底层解析器和模板的参数化和连接,不需要特殊的权限来创建一个新词典或配置。创建定制词典和配置的例子将在本章稍后的部分给出。

2. 表和索引

在前一节中的例子演示了使用简单常数字符串进行全文匹配。本节展示如何搜索表数据,以及可选择地使用索引。

2.1. 搜索一个表

可以在没有一个索引的情况下做一次全文搜索。一个简单的查询将打印每一个行的title,这些行在其body域中包含词friend:

  1. SELECT title
  2. FROM pgweb
  3. WHERE to_tsvector('english', body) @@ to_tsquery('english', 'friend');

这将还会找到相关的词例如friends和friendly,因为这些都被约减到同一个正规化的词位。

以上的查询指定要使用english配置来解析和正规化字符串。我们也可以忽略配置参数:

  1. SELECT title
  2. FROM pgweb
  3. WHERE to_tsvector(body) @@ to_tsquery('friend');

这个查询将使用由default_text_search_config设置的配置。

一个更复杂的例子是选择 10 个最近的文档,要求它们在title或body中包含create和table:

  1. SELECT title
  2. FROM pgweb
  3. WHERE to_tsvector(title || ' ' || body) @@ to_tsquery('create & table')
  4. ORDER BY last_mod_date DESC
  5. LIMIT 10;

为了清晰,我们忽略coalesce函数调用,它可能需要被用来查找在这两个域之中包含NULL的行。

尽管这些查询可以在没有索引的情况下工作,大部分应用会发现这种方法太慢了,除了偶尔的临时搜索。实际使用文本搜索通常要求创建一个索引。

2.2. 创建索引

我们可以创建一个GIN索引(Section 12.9)来加速文本搜索:

  1. CREATE INDEX pgweb_idx ON pgweb USING GIN(to_tsvector('english', body));

注意这里使用了to_tsvector的双参数版本。只有指定了一个配置名称的文本搜索函数可以被用在表达式索引(Section 11.7)中。这是因为索引内容必须是没有被default_text_search_config影响的。如果它们被影响,索引内容可能会不一致因为不同的项可能包含被使用不同文本搜索配置创建的tsvector,并且没有办法猜测哪个是哪个。也没有可能正确地转储和恢复这样的一个索引。

由于to_tsvector的双参数版本被使用在上述的索引中,只有一个使用了带有相同配置名的双参数版to_tsvector的查询引用才能使用该索引。即,WHERE to_tsvector('english', body) @@ 'a & b' 可以使用该索引,但WHERE to_tsvector(body) @@ 'a & b'不能。这保证一个索引只能和创建索引项时所用的相同配置一起使用。

可以建立更复杂的表达式索引,在其中配置名被另一个列指定,例如:

  1. CREATE INDEX pgweb_idx ON pgweb USING GIN(to_tsvector(config_name, body));

这里config_name是pgweb表中的一个列。这允许在同一个索引中有混合配置,同时记录哪个配置被用于每一个索引项。例如,如果文档集合包含不同语言的文档,这就可能会有用。同样,要使用索引的查询必须被措辞成匹配,例如WHERE to_tsvector(config_name, body) @@ 'a & b'。

索引甚至可以连接列:

  1. CREATE INDEX pgweb_idx ON pgweb USING GIN(to_tsvector('english', title || ' ' || body));

另一种方法是创建一个单独的tsvector列来保存to_tsvector的输出。这个例子是title和body的连接,使用coalesce来保证当其他域为NULL时一个域仍然能留在索引中:

  1. ALTER TABLE pgweb ADD COLUMN textsearchable_index_col tsvector;
  2. UPDATE pgweb SET textsearchable_index_col =
  3. to_tsvector('english', coalesce(title,'') || ' ' || coalesce(body,''));

然后我们创建一个GIN索引来加速搜索:

  1. CREATE INDEX textsearch_idx ON pgweb USING GIN(textsearchable_index_col);

现在我们准备好执行一个快速的全文搜索了:

  1. SELECT title
  2. FROM pgweb
  3. WHERE textsearchable_index_col @@ to_tsquery('create & table')
  4. ORDER BY last_mod_date DESC
  5. LIMIT 10;

在使用一个单独的列来存储tsvector表示时,有必要创建一个触发器在title或body改变时保证tsvector列为当前值。Section 4.3解释了怎样去做。

单独列方法相对于表达式索引的一个优势在于,它不必为了利用索引而在查询中显式地指定文本搜索配置。如上述例子所示,查询可以依赖default_text_search_config。另一个优势是搜索将会更快,因为它不必重做to_tsvector调用来验证索引匹配(在使用 GiST 索引时这一点比使用 GIN 索引时更重要;)。表达式索引方法更容易建立,但是它要求更少的磁盘空间,因为tsvector表示没有被显式地存储下来。

3. 空值文本搜索

要实现全文搜索必须要有一个从文档创建tsvector以及从用户查询创建tsquery的函数。而且我们需要一种有用的顺序返回结果,因此我们需要一个函数能够根据文档与查询的相关性比较文档。还有一点重要的是要能够很好地显示结果。PostgreSQL对所有这些函数都提供了支持。

3.1. 解析文档

PostgreSQL提供了函数to_tsvector将一个文档转换成tsvector数据类型。

to_tsvector([ config regconfig, ] document text) returns tsvector

to_tsvector把一个文本文档解析成记号,把记号缩减成词位,并且返回一个tsvector,它列出了词位以及词位在文档中的位置。文档被根据指定的或默认的文本搜索配置来处理。下面是一个简单例子:

  1. SELECT to_tsvector('english', 'a fat cat sat on a mat - it ate a fat rats');
  2. to_tsvector
  3. -----------------------------------------------------
  4. 'ate':9 'cat':3 'fat':2,11 'mat':7 'rat':12 'sat':4

在上面这个例子中我们看到,作为结果的tsvector不包含词a、on或it,词rats变成了rat,并且标点符号-被忽略了。

to_tsvector函数在内部调用了一个解析器,它把文档文本分解成记号并且为每一种记号分配一个类型。对于每一个记号,会去查询一个词典列表(Section 6),该列表会根据记号的类型而变化。第一个识别记号的词典产生一个或多个正规化的词位来表示该记号。例如,rats变成rat是因为一个词典识别到该词rats是rat的复数形式。一些词会被识别为停用词(Section 6.1),这将导致它们被忽略,因为它们出现得太频繁以至于在搜索中起不到作用。在我们的例子中有a、on和it是停用词。如果在列表中没有词典能识别该记号,那它将也会被忽略。在这个例子中标点符号-就属于这种情况,因为事实上没有词典会给它分配记号类型(空间符号),即空间记号不会被索引。对于解析器、词典以及要索引哪些记号类型是由所选择的文本搜索配置(Section 7)决定的。可以在同一个数据库中有多种不同的配置,并且有用于很多种语言的预定义配置。在我们的例子中,我们使用用于英语的默认配置english。

函数setweight可以被用来对tsvector中的项标注一个给定的权重,这里一个权重可以是四个字母之一:A、B、C或D。这通常被用来标记来自文档不同部分的项,例如标题对正文。稍后,这种信息可以被用来排名搜索结果。

因为to_tsvector(NULL) 将返回NULL,不论何时一个域可能为空时,我们推荐使用coalesce。下面是我们推荐的从一个结构化文档创建一个tsvector的方法:

  1. UPDATE tt SET ti =
  2. setweight(to_tsvector(coalesce(title,'')), 'A') ||
  3. setweight(to_tsvector(coalesce(keyword,'')), 'B') ||
  4. setweight(to_tsvector(coalesce(abstract,'')), 'C') ||
  5. setweight(to_tsvector(coalesce(body,'')), 'D');

这里我们已经使用了setweight在完成的tsvector标注每一个词位的来源,并且接着将标注过的tsvector值用tsvector连接操作符||合并在一起(Section 4.1给出了关于这些操作符的细节)。

3.2. 解析查询

PostgreSQL提供了函数to_tsquery、plainto_tsquery和phraseto_tsquery用来把一个查询转换成tsquery数据类型。to_tsquery提供了比plainto_tsquery和phraseto_tsquery更多的特性,但是它对其输入要求更加严格。

to_tsquery([ config regconfig, ] querytext text) returns tsquery

to_tsquery从querytext创建一个tsquery值,该值由被tsquery操作符&(AND)、|(OR)、!(NOT)和<->(FOLLOWED BY)分隔的单个记号组成。 这些操作符可以使用圆括号分组。换句话说,to_tsquery的输入必须已经遵循tsquery输入的一般规则,如Section 8.11.2所述。区别在于基本的tsquery输入把记号当作表面值,而to_tsquery 会使用指定的或者默认的配置把每一个记号正规化成一个词位,并且丢弃掉任何根据配置是停用词的记号。例如:

  1. SELECT to_tsquery('english', 'The & Fat & Rats');
  2. to_tsquery
  3. ---------------
  4. 'fat' & 'rat'
  5. 和在基本tsquery输
  1. SELECT to_tsquery('english', 'Fat | Rats:AB');
  2. to_tsquery
  3. ------------------
  4. 'fat' | 'rat':AB

同样,*可以被附加到一个词位来指定前缀匹配:

  1. SELECT to_tsquery('supern:*A & star:A*B');
  2. to_tsquery
  3. --------------------------
  4. 'supern':*A & 'star':*AB

这样一个词位将匹配一个tsvector中的任意以给定字符串开头的词。

to_tsquery也能够接受单引号短语。当配置包括一个会在这种短语上触发的分类词典时就是它的主要用处。在下面的例子中,一个分类词典含规则supernovae stars : sn:

  1. SELECT to_tsquery('''supernovae stars'' & !crab');
  2. to_tsquery
  3. ---------------
  4. 'sn' & !'crab'

在没有引号时,to_tsquery将为那些没有被 AND、OR 或者 FOLLOWED BY 操作符分隔的记号产生一个语法错误。

plainto_tsquery([ config regconfig, ] querytext text) returns tsquery

plainto_tsquery将未格式化的文本querytext转换成一个tsquery值。该文本被解析并被正规化,很像to_tsvector,然后&(AND)布尔操作符被插入到留下来的词之间。

例子:

  1. SELECT plainto_tsquery('english', 'The Fat Rats');
  2. plainto_tsquery
  3. -----------------
  4. 'fat' & 'rat'

注意plainto_tsquery不会识其输入中的tsquery操作符、权重标签或前缀匹配标签:

  1. SELECT plainto_tsquery('english', 'The Fat & Rats:C');
  2. plainto_tsquery
  3. ---------------------
  4. 'fat' & 'rat' & 'c'

这里,所有输入的标点都被作为空间符号并且丢弃。

phraseto_tsquery([ config regconfig, ] querytext text) returns tsquery

phraseto_tsquery的行为很像plainto_tsquery,不过前者会在留下来的词之间插入<->(FOLLOWED BY)操作符而不是&(AND)操作符。还有,停用词也不是简单地丢弃掉,而是通过插入<N>操作符(而不是<->操作符)来解释。在搜索准确的词位序列时这个函数很有用,因为 FOLLOWED BY 操作符不只是检查所有词位的存在性,还会检查词位的顺序。

例子:

  1. SELECT phraseto_tsquery('english', 'The Fat Rats');
  2. phraseto_tsquery
  3. ------------------
  4. 'fat' <-> 'rat'

和plainto_tsquery相似,phraseto_tsquery函数不会识别其输入中的tsquery操作符、权重标签或者前缀匹配标签:

  1. SELECT phraseto_tsquery('english', 'The Fat & Rats:C');
  2. phraseto_tsquery
  3. -----------------------------
  4. 'fat' <-> 'rat' <-> 'c'

3.3. 排名搜索结果

排名处理尝试度量文档和一个特定查询的接近程度,这样当有很多匹配时最相关的那些可以被先显示。PostgreSQL提供了两种预定义的排名函数,它们考虑词法、临近性和结构信息;即,它们考虑查询词在文档中出现得有多频繁,文档中的词有多接近,以及词出现的文档部分有多重要。不过,相关性的概念是模糊的并且与应用非常相关。不同的应用可能要求额外的信息用于排名,例如,文档修改时间。内建的排名函数只是例子。你可以编写你自己的排名函数和/或把它们的结果与附加因素整合在一起来适应你的特定需求。

目前可用的两种排名函数是:

ts_rank([ weights float4[], ] vector tsvector, query tsquery [, normalization integer ]) returns float4

基于向量的匹配词位的频率来排名向量。

ts_rank_cd([ weights float4[], ] vector tsvector, query tsquery [, normalization integer ]) returns float4

这个函数为给定文档向量和查询计算覆盖密度排名,该方法在 Clarke、Cormack 和 Tudhope 于 1999 年在期刊 "Information Processing and Management" 上的文章 "Relevance Ranking for One to Three Term Queries" 文章中有描述。覆盖密度类似于ts_rank排名,不过它会考虑匹配词位相互之间的接近度。

这个函数要求词位的位置信息来执行其计算。因此它会忽略tsvector中任何"被剥离的"词位。如果在输入中有未被剥离的词位,结果将会是零(strip函数和tsvector中的位置信息的更多内容请见Section 4.1)。

对这两个函数,可选的权重参数提供了为词实例赋予更多或更少权重的能力,这种能力是依据它们被标注的情况的。权重数组指定每一类词应该得到多重的权重,按照如下的顺序:

{D-权重, C-权重, B-权重, A-权重}
如果没有提供权重,那么将使用这些默认值:

  1. {0.1, 0.2, 0.4, 1.0}

通常权重被用来标记来自文档特别区域的词,如标题或一个初始的摘要,这样它们可以被认为比来自文档正文的词更重要或更不重要。

由于一个较长的文档有更多的机会包含一个查询术语,因此考虑文档的尺寸是合理的,例如一个一百个词的文档中有一个搜索词的五个实例而零一个一千个词的文档中有该搜索词的五个实例,则前者比后者更相关。两种排名函数都采用一个整数正规化选项,它指定文档长度是否影响其排名以及如何影响。该整数选项控制多个行为,因此它是一个位掩码:你可以使用|指定一个或多个行为(例如,2|4)。

  • 0(默认值)忽略文档长度
  • 1 用 1 + 文档长度的对数除排名
  • 2 用文档长度除排名
  • 4 用长度之间的平均调和距离除排名(只被ts_rank_cd实现)
  • 8 用文档中唯一词的数量除排名
  • 16 用 1 + 文档中唯一词数量的对数除排名
  • 32 用排名 + 1 除排名

如果多于一个标志位被指定,转换将根据列出的顺序被应用。

值得注意的是排名函数并不使用任何全局信息,因此它不可能按照某些时候期望地产生一个公平的正规化,从 1% 或 100%。正规化选项 32 (rank/(rank+1))可以被应用来缩放所有的排名到范围零到一,但是当然这只是一个外观上的改变;它不会影响搜索结果的顺序。

这里是一个例子,它只选择十个最高排名的匹配:

  1. SELECT title, ts_rank_cd(textsearch, query) AS rank
  2. FROM apod, to_tsquery('neutrino|(dark & matter)') query
  3. WHERE query @@ textsearch
  4. ORDER BY rank DESC
  5. LIMIT 10;
  6. title | rank
  7. -----------------------------------------------+----------
  8. Neutrinos in the Sun | 3.1
  9. The Sudbury Neutrino Detector | 2.4
  10. A MACHO View of Galactic Dark Matter | 2.01317
  11. Hot Gas and Dark Matter | 1.91171
  12. The Virgo Cluster: Hot Plasma and Dark Matter | 1.90953
  13. Rafting for Solar Neutrinos | 1.9
  14. NGC 4650A: Strange Galaxy and Dark Matter | 1.85774
  15. Hot Gas and Dark Matter | 1.6123
  16. Ice Fishing for Cosmic Neutrinos | 1.6
  17. Weak Lensing Distorts the Universe | 0.818218

这是相同的例子使用正规化的排名:

  1. SELECT title, ts_rank_cd(textsearch, query, 32 /* rank/(rank+1) */ ) AS rank
  2. FROM apod, to_tsquery('neutrino|(dark & matter)') query
  3. WHERE query @@ textsearch
  4. ORDER BY rank DESC
  5. LIMIT 10;
  6. title | rank
  7. -----------------------------------------------+-------------------
  8. Neutrinos in the Sun | 0.756097569485493
  9. The Sudbury Neutrino Detector | 0.705882361190954
  10. A MACHO View of Galactic Dark Matter | 0.668123210574724
  11. Hot Gas and Dark Matter | 0.65655958650282
  12. The Virgo Cluster: Hot Plasma and Dark Matter | 0.656301290640973
  13. Rafting for Solar Neutrinos | 0.655172410958162
  14. NGC 4650A: Strange Galaxy and Dark Matter | 0.650072921219637
  15. Hot Gas and Dark Matter | 0.617195790024749
  16. Ice Fishing for Cosmic Neutrinos | 0.615384618911517
  17. Weak Lensing Distorts the Universe | 0.450010798361481

排名可能会非常昂贵,因为它要求查询每一个匹配文档的tsvector,这可能会涉及很多I/O因而很慢。不幸的是,这几乎不可能避免,因为实际查询常常导致巨大数目的匹配。

3.4. 加亮结果

要表示搜索结果,理想的方式是显示每一个文档的一个部分并且显示它是怎样与查询相关的。通常,搜索引擎显示文档片段时会对其中的搜索术语进行标记。PostgreSQL提供了一个函数ts_headline来实现这个功能。

ts_headline([ config regconfig, ] document text, query tsquery [, options text ]) returns text

ts_headline接受一个文档和一个查询,并且从该文档返回一个引用,在其中来自查询的术语会被加亮。被用来解析该文档的配置可以用config指定;如果config被忽略,将会使用default_text_search_config配置。

如果一个options字符串被指定,它必须由一个逗号分隔的列表组成,列表中是一个或多个option=value对。可用的选项是:

  • StartSel、StopSel:用来定界文档中出现的查询词的字符串,这用来把它们与其他被引用的词区分开。如果这些字符串包含空格或逗号,你必须把它们加上双引号。
  • MaxWords、MinWords:这些数字决定要输出的最长和最短 headline。
  • ShortWord:长度小于等于这个值的词将被从一个 headline 的开头或结尾处丢掉。默认值三消除普通英语文章。
  • HighlightAll:布尔标志,如果为true整个文档将被用作 headline,并忽略前面的三个参数。
  • MaxFragments:要显示的文本引用或片段的最大数量。默认值零选择一种非片段倾向的 headline 生成方法。一个大于零的值选择基于片段的 headline 生成。这种方法找到有尽可能多查询词的文本片段并且展开查询词周围的那些片段。结果是查询词会靠近每个片段的中间并且在其两侧都有词。每一个片段将是最多MaxWords并且长度小于等于ShortWord的词被从每个片段的开头或结尾丢弃。如果不是所有的查询词都在该文档中找到,文档中第一个MinWords的单一片段将被显示。
  • FragmentDelimiter:当多于一个片段被显示时,片段将被这个字符串所分隔。

任何未指定的选项将收到这些默认值:

  1. StartSel=<b>, StopSel=</b>,
  2. MaxWords=35, MinWords=15, ShortWord=3, HighlightAll=FALSE,
  3. MaxFragments=0, FragmentDelimiter=" ... "

例如:

  1. SELECT ts_headline('english',
  2. 'The most common type of search
  3. is to find all documents containing given query terms
  4. and return them in order of their similarity to the
  5. query.',
  6. to_tsquery('query & similarity'));
  7. ts_headline
  8. ------------------------------------------------------------
  9. containing given <b>query</b> terms
  10. and return them in order of their <b>similarity</b> to the
  11. <b>query</b>.
  12. SELECT ts_headline('english',
  13. 'The most common type of search
  14. is to find all documents containing given query terms
  15. and return them in order of their similarity to the
  16. query.',
  17. to_tsquery('query & similarity'),
  18. 'StartSel = <, StopSel = >');
  19. ts_headline
  20. -------------------------------------------------------
  21. containing given <query> terms
  22. and return them in order of their <similarity> to the
  23. <query>.

ts_headline使用原始文档,而不是一个tsvector摘要,因此它可能很慢并且应该被小心使用。一个典型的失误是当最终只有 10 个文档要被显示时为每个匹配的文档调用ts_headline。SQL子查询可以有助于此,这里是一个例子:

  1. SELECT id, ts_headline(body, q), rank
  2. FROM (SELECT id, body, q, ts_rank_cd(ti, q) AS rank
  3. FROM apod, to_tsquery('stars') q
  4. WHERE ti @@ q
  5. ORDER BY rank DESC
  6. LIMIT 10) AS foo;

4. 额外特性

这一节描述在文本搜索中有用的一些额外的函数和操作符。

4.1. 操纵文档

Section 3.1展示了未经处理的文本文档如何被转换成tsvector值。PostgreSQL也提供了用于操纵已经为tsvector形式的文档的函数和操作符。

tsvector || tsvector

tsvector连接操作符返回一个向量,它结合了作为参数给出的两个向量的词位和位置信息。位置和权重标签在连接期间被保留。出现在右手向量中的位置被使用左手向量中提到的最大位置进行偏移,这样结果几乎等于在两个原始文档字符串的连接上执行to_tsvector的结果(这种等价不是完全的,因为从左手参数的尾端移除的任何停用词将会影响结果,而如果文本连接被使用它们就影响了右手参数中的词位位置)。

使用向量形式的连接而不是在应用to_tsvector之前连接文本的一个优点是你可以使用不同配置来解析文档的不同小节。此外,因为setweight函数按照相同的方式标记给定向量的所有词位,如果你想把文档的不同部分标注不同的权重,你就有必要解析文本并且在连接之前做setweight。

setweight(vector tsvector, weight "char") returns tsvector

setweight返回输入向量的一个拷贝,其中每一个位置都被标注为给定的权重:A、B、C或D(D是新向量的默认值并且并不会被显示在输出上)。向量被连接时会保留这些标签,允许来自文档的不同部分的词被排名函数给予不同的权重。

注意权重标签是应用到位置而不是词位。如果输入向量已经被剥离了位置,则setweight什么也不会做。

length(vector tsvector) returns integer

返回存储在向量中的词位数。

strip(vector tsvector) returns tsvector

返回一个向量,其中列出了和给定向量相同的词位,不过没有任何位置或者权重信息。其结果通常比未被剥离的向量小很多,但是用处也小很多。和未被剥离的向量一样,相关度排名在已剥离的向量上也不起作用。此外,<->(FOLLOWED BY)tsquery操作符不会匹配已剥离的输入,因为它无法确定词位之间的距离。

Table 9-40中有tsvector相关函数的完整列表。

4.2. 操纵查询

Section 3.2展示了未经处理的文本形式的查询如何被转换成tsquery值。PostgreSQL也提供了用于操纵已经是tsquery形式的查询的函数和操作符。

tsquery && tsquery

返回用 AND 结合的两个给定查询。

tsquery || tsquery

返回用 OR 结合的两个给定查询。

!! tsquery

返回一个给定查询的反(NOT)。

tsquery <-> tsquery

返回一个查询,它用<->(FOLLOWED BY)tsquery操作符搜索两个紧跟的匹配,第一个匹配符合第一个给定的查询而第二个匹配符合第二个给定的查询。例如:

  1. SELECT to_tsquery('fat') <-> to_tsquery('cat | rat');
  2. ?column?
  3. -----------------------------------
  4. 'fat' <-> 'cat' | 'fat' <-> 'rat'
  5. tsquery_phrase(query1 tsquery, query2 tsquery [, distance integer ]) returns tsquery

返回一个查询,它使用 tsquery操作符搜索两个距离为distance个词位的匹配,第一个匹配符合第一个给定的查询而第二个匹配符合第二个给定的查询。例如:

  1. SELECT tsquery_phrase(to_tsquery('fat'), to_tsquery('cat'), 10);
  2. tsquery_phrase
  3. ------------------
  4. 'fat' <10> 'cat'
  5. numnode(query tsquery) returns integer

返回一个tsquery中的结点数(词位外加操作符)。要确定查询是否有意义或者是否只包含停用词时,这个函数有用,在前一种情况它返回 > 0,后一种情况返回 0。例子:

  1. SELECT numnode(plainto_tsquery('the any'));
  2. NOTICE: query contains only stopword(s) or doesn't contain lexeme(s), ignored
  3. numnode
  4. ---------
  5. 0
  6. SELECT numnode('foo & bar'::tsquery);
  7. numnode
  8. ---------
  9. 3
  10. querytree(query tsquery) returns text

返回一个tsquery中可以被用来搜索一个索引的部分。这个函数可用来检测不可被索引的查询,例如那些只包含停用词或者只有否定术语的查询。例如:

  1. SELECT querytree(to_tsquery('!defined'));
  2. querytree
  3. -----------

4.2.1. 查询重写

ts_rewrite函数族在一个给定的tsquery中搜索一个目标子查询的出现,并且将每一次出现替换成一个替补子查询。本质上这个操作就是一个tsquery版本的子串替换。一个目标和替补的组合可以被看成是一个查询重写规则。一个这类重写规则的集合可以是一个强大的搜索助手。例如,你可以使用同义词扩展搜索(如,new york、big apple、nyc、gotham),或者收缩搜索来将用户导向某些特点主题。在这个特性和分类词典(Section 6.4)有些功能重叠。但是,你可以随时修改一组重写规则而无需重索引,而更新一个分类词典则要求进行重索引才能生效。

ts_rewrite (query tsquery, target tsquery, substitute tsquery) returns tsquery

这种形式的ts_rewrite简单地应用一个单一重写规则:不管target出现在query中的那个地方,它都被substitute替代。例如:

  1. SELECT ts_rewrite('a & b'::tsquery, 'a'::tsquery, 'c'::tsquery);
  2. ts_rewrite
  3. ------------
  4. 'b' & 'c'

ts_rewrite (query tsquery, select text) returns tsquery

这种形式的ts_rewrite接受一个开始query和一个 SQL select命令,它们以一个文本字符串的形式给出。select必须得到tsquery类型的两列。对于select结果的每一行,在当前query值中出现的第一列值(目标)被第二列值(替补)所替换。例如:

  1. CREATE TABLE aliases (t tsquery PRIMARY KEY, s tsquery);
  2. INSERT INTO aliases VALUES('a', 'c');
  3. SELECT ts_rewrite('a & b'::tsquery, 'SELECT t,s FROM aliases');
  4. ts_rewrite
  5. ------------
  6. 'b' & 'c'

注意当多个重写规则被以这种方式应用时,应用的顺序很重要;因此在实际中你会要求源查询按某些排序键ORDER BY。

让我们考虑一个现实的天文学例子。我们将使用表驱动的重写规则扩展查询supernovae:

  1. CREATE TABLE aliases (t tsquery primary key, s tsquery);
  2. INSERT INTO aliases VALUES(to_tsquery('supernovae'), to_tsquery('supernovae|sn'));
  3. SELECT ts_rewrite(to_tsquery('supernovae & crab'), 'SELECT * FROM aliases');
  4. ts_rewrite
  5. ---------------------------------
  6. 'crab' & ( 'supernova' | 'sn' )

我们可以通过只更新表来改变重写规则:

  1. UPDATE aliases
  2. SET s = to_tsquery('supernovae|sn & !nebulae')
  3. WHERE t = to_tsquery('supernovae');
  4. SELECT ts_rewrite(to_tsquery('supernovae & crab'), 'SELECT * FROM aliases');
  5. ts_rewrite
  6. ---------------------------------------------
  7. 'crab' & ( 'supernova' | 'sn' & !'nebula' )

当有很多重写规则时,重写可能会很慢,因为它要为为每一个可能的匹配检查每一条规则。要过滤掉明显不符合的规则,我们可以为tsquery类型使用包含操作符。在下面的例子中,我们只选择那些可能匹配原始查询的规则:

  1. SELECT ts_rewrite('a & b'::tsquery,
  2. 'SELECT t,s FROM aliases WHERE ''a & b''::tsquery @> t');
  3. ts_rewrite
  4. ------------
  5. 'b' & 'c'

4.3. 用于自动更新的触发器

当使用一个单独的列来存储你的文档的tsvector表示时,有必要创建一个触发器在文档内容列改变时更新tsvector列。两个内建触发器函数可以用于这个目的,或者你可以编写你自己的触发器函数。

tsvector_update_trigger(tsvector_column_name, config_name, text_column_name [, ... ])
tsvector_update_trigger_column(tsvector_column_name, config_column_name, text_column_name [, ... ])

这些触发器函数在CREATE TRIGGER命令中指定的参数控制下,自动从一个或多个文本列计算一个tsvector列。它们使用的一个例子是:

  1. CREATE TABLE messages (
  2. title text,
  3. body text,
  4. tsv tsvector
  5. );
  6. CREATE TRIGGER tsvectorupdate BEFORE INSERT OR UPDATE
  7. ON messages FOR EACH ROW EXECUTE PROCEDURE
  8. tsvector_update_trigger(tsv, 'pg_catalog.english', title, body);
  9. INSERT INTO messages VALUES('title here', 'the body text is here');
  10. SELECT * FROM messages;
  11. title | body | tsv
  12. ------------+-----------------------+----------------------------
  13. title here | the body text is here | 'bodi':4 'text':5 'titl':1
  14. SELECT title, body FROM messages WHERE tsv @@ to_tsquery('title & body');
  15. title | body
  16. ------------+-----------------------
  17. title here | the body text is here

在创建了这个触发器后,在title或body中的任何修改将自动地被反映到tsv中,不需要应用来操心同步的问题。

第一个触发器参数必须是要被更新的tsvector列的名字。第二个参数指定要被用来执行转换的文本搜索配置。对于tsvector_update_trigger,配置名被简单地用第二个触发器参数给出。如上所示,它必须是模式限定的,因此该触发器行为不会因为search_path中的改变而改变。对于tsvector_update_trigger_column,第二个触发器参数是另一个表列的名称,它必须是类型regconfig。这允许做一种逐行的配置选择。剩下的参数是文本列的名称(类型为text、varchar或char)。它们将按给定的顺序被包括在文档中。NULL 值将被跳过(但是其他列仍将被索引)。

这些内建触发器的一个限制是它们将所有输入列同样对待。要对列进行不同的处理 — 例如,使标题的权重和正文的不同 — 就需要编写一个自定义触发器。下面是用PL/pgSQL作为触发器语言的一个例子:

  1. CREATE FUNCTION messages_trigger() RETURNS trigger AS
  2. $$
  3. begin
  4. new.tsv :=
  5. setweight(to_tsvector('pg_catalog.english', coalesce(new.title,'')), 'A') ||
  6. setweight(to_tsvector('pg_catalog.english', coalesce(new.body,'')), 'D');
  7. return new;
  8. end
  9. $$
  10. LANGUAGE plpgsql;
  11. CREATE TRIGGER tsvectorupdate BEFORE INSERT OR UPDATE
  12. ON messages FOR EACH ROW EXECUTE PROCEDURE messages_trigger();

记住当在触发器内创建tsvector值时,显式地指定配置名非常重要,这样列的内容才不会被default_text_search_config的改变所影响。如果不这样做很可能导致问题,例如在转储并重新载入之后搜索结果改变。

4.4. 收集文档统计数据

ts_stat被用于检查你的配置以及寻找候选的停用词。

  1. ts_stat(sqlquery text, [ weights text, ]
  2. OUT word text, OUT ndoc integer,
  3. OUT nentry integer) returns setof record

sqlquery是一个文本值,它包含一个必须返回单一tsvector列的 SQL 查询。ts_stat执行该查询并返回有关包含在该tsvector数据中的每一个可区分词位(词)的统计数据。返回的列是:

  • word text — 一个词位的值
  • ndoc integer — 词出现过的文档(tsvector)的数量
  • nentry integer — 词出现的总次数

如果提供了权重,只有具有其中之一权重的出现才被计算在内。

例如,要在一个文档集合中查找十个最频繁的词:

  1. SELECT * FROM ts_stat('SELECT vector FROM apod')
  2. ORDER BY nentry DESC, ndoc DESC, word
  3. LIMIT 10;

同样的要求,但是只计算以权重A或B出现的次数:

  1. SELECT * FROM ts_stat('SELECT vector FROM apod', 'ab')
  2. ORDER BY nentry DESC, ndoc DESC, word
  3. LIMIT 10;

5. 解析器

文本搜索解析器负责把未处理的文档文本划分成记号并且标识每一个记号的类型,而可能的类型集合由解析器本身定义。注意一个解析器完全不会修改文本 — 它简单地标识看似有理的词边界。因为这种有限的视野,对于应用相关的自定义解析器的需求就没有自定义字典那么强烈。目前PostgreSQL只提供了一种内建解析器,它已经被证实对很多种应用都适用。

内建解析器被称为pg_catalog.default。它识别 23 种记号类型,如Table 12-1所示。

Table 12-1. 默认解析器的记号类型


image


Note:
解析器的一个"字母"的概念由数据库的区域设置决定,具体是lc_ctype。只包含基本 ASCII 字母的词被报告为一个单独的记号类型,因为有时可以用来区别它们。在大部分欧洲语言中,记号类型word和asciiword应该被同样对待。

email不支持 RFC 5322 定义的所有合法 email 字符。具体来说,对 email 用户名被支持的非字母数字字符只有句点、破折号和下划线。

解析器有可能从同一份文本得出相互覆盖的记号。例如,一个带连字符的词可能会被报告为一整个词或者多个部分:

  1. SELECT alias, description, token FROM ts_debug('foo-bar-beta1');
  2. alias | description | token
  3. -----------------+------------------------------------------+---------------
  4. numhword | Hyphenated word, letters and digits | foo-bar-beta1
  5. hword_asciipart | Hyphenated word part, all ASCII | foo
  6. blank | Space symbols | -
  7. hword_asciipart | Hyphenated word part, all ASCII | bar
  8. blank | Space symbols | -
  9. hword_numpart | Hyphenated word part, letters and digits | beta1

这种行为是值得要的,因为它允许对整个复合词和每个部分进行搜索。这里是另一个例子:

  1. SELECT alias, description, token FROM ts_debug('http://example.com/stuff/index.html');
  2. alias | description | token
  3. ----------+---------------+------------------------------
  4. protocol | Protocol head | http://
  5. url | URL | example.com/stuff/index.html
  6. host | Host | example.com
  7. url_path | URL path | /stuff/index.html

6. 词典

词典被用来消除不被搜索考虑的词(stop words)、并被用来正规化词这样同一个词的不同派生形式将会匹配。一个被成功地正规化的词被称为一个词位。除了提高搜索质量,正规化和移除停用词减小了文档的tsvector表示的尺寸,因而提高了性能。正规化不会总是有语言上的意义并且通常依赖于应用的语义。

一些正规化的例子:

  • 语言学的 - Ispell 词典尝试将输入词缩减为一种正规化的形式;词干分析器词典移除词的结尾
  • URL位置可以被规范化来得到等效的 URL 匹配:

  • 颜色名可以被它们的十六进制值替换,例如red, green, blue, magenta -> FF0000, 00FF00, 0000FF, FF00FF
  • 如果索引数字,我们可以移除某些小数位来缩减可能的数字的范围,因此如果只保留小数点后两位,例如3.14159265359、3.1415926、3.14在正规化后会变得相同。
  • 一个词典是一个程序,它接受一个记号作为输入,并返回:
  • 如果输入的记号对词典是已知的,则返回一个词位数组(注意一个记号可能产生多于一个词位)
  • 一个TSL_FILTER标志被设置的单一词位,用一个新记号来替换要被传递给后续字典的原始记号(做这件事的一个字典被称为一个过滤字典)
  • 如果字典知道该记号但它是一个停用词,则返回一个空数组
  • 如果字典不识别该输入记号,则返回NULL

PostgreSQL为许多语言提供了预定义的字典。也有多种预定义模板可以被用于创建带自定义参数的新词典。每一种预定义词典模板在下面描述。如果没有合适的现有模板,可以创建新的;例子见PostgreSQL发布的contrib/区域。

一个文本搜索配置把一个解析器和一组处理解析器输出记号的词典绑定在一起。对于每一中解析器能返回的记号类型,配置都指定了一个单独的词典列表。当该类型的一个记号被解析器找到时,每一个词典都被按照顺序查询,知道某个词典将其识别为一个已知词。如果它被标识为一个停用词或者没有一个词典识别它,它将被丢弃并且不会被索引和用于搜索。通常,第一个返回非NULL输出的词典决定结果,并且任何剩下的词典都不会被查找;但是一个过滤词典可以将给定词替换为一个被修改的词,它再被传递给后续的词典。

配置一个词典列表的通用规则是将最狭窄、最特定的词典放在第一位,然后是更加通用的词典,以一个非常通用的词典结尾,像一个Snowball词干分析器或什么都识别的simple。例如,对于一个天文学相关的搜索(astro_en 配置)我们可以把记号类型asciiword(ASCII 词)绑定到一个天文学术语的分类词典、一个通用英语词典和一个Snowball英语词干分析器:

  1. ALTER TEXT SEARCH CONFIGURATION astro_en
  2. ADD MAPPING FOR asciiword WITH astrosyn, english_ispell, english_stem;

一个过滤词典可以被放置在列表中的任意位置,除了在最后,因为过滤词典放在最后就等于无用。过滤词典可用于部分正规化词来简化后续词典的工作。例如,一个过滤词典可以被用来从音标字母中移除重音符号,就像unaccent模块所做的。

6.1. 停用词

停用词是非常常用、在几乎每一个文档中出现并且没有任何区分度的词。因此,在全文搜索的环境中它们可以被忽略。例如,每一段英语文本都包含a和the等次,因此把它们存储在一个索引中是没有用处的。但是,停用词确实会影响在tsvector中的位置,这进而会影响排名:

  1. SELECT to_tsvector('english','in the list of stop words');
  2. to_tsvector
  3. ----------------------------
  4. 'list':3 'stop':5 'word':6

缺失的位置 1、2、4 是因为停用词。文档的排名计算在使用和不使用停用词的情况下是很不同的:

  1. SELECT ts_rank_cd (to_tsvector('english','in the list of stop words'), to_tsquery('list & stop'));
  2. ts_rank_cd
  3. ------------
  4. 0.05
  5. SELECT ts_rank_cd (to_tsvector('english','list stop words'), to_tsquery('list & stop'));
  6. ts_rank_cd
  7. ------------
  8. 0.1

如何对待停用词是由指定词典决定的。例如,ispell词典首先正规化词并且查看停用词列表,而Snowball词干分析器首先检查停用词的列表。这种不同行为的原因是一冲降低噪声的尝试。

6.2. 简单词典

simple词典模板的操作是将输入记号转换为小写形式并且根据一个停用词文件检查它。如果该记号在该文件中被找到,则返回一个空数组,导致该记号被丢弃。否则,该词的小写形式被返回作为正规化的词位。作为一种选择,该词典可以被配置为将非停用词报告为未识别,允许它们被传递给列表中的下一个词典。

下面是一个使用simple模板的词典定义的例子:

  1. CREATE TEXT SEARCH DICTIONARY public.simple_dict (
  2. TEMPLATE = pg_catalog.simple,
  3. STOPWORDS = english
  4. );

这里,english是一个停用词文件的基本名称。该文件的全名将是$SHAREDIR/tsearch_data/english.stop,其中$SHAREDIR表示PostgreSQL安装的共享数据目录,通常是/usr/local/share/postgresql(如果不确定,使用pg_config --sharedir)。该文件格式是一个词的列表,每行一个。空行和尾部的空格都被忽略,并且大写也被折叠成小写,但是没有其他对该文件内容的处理。

现在我们能够测试我们的词典:

  1. SELECT ts_lexize('public.simple_dict','YeS');
  2. ts_lexize
  3. -----------
  4. {yes}
  5. SELECT ts_lexize('public.simple_dict','The');
  6. ts_lexize
  7. -----------
  8. {}

如果没有在停用词文件中找到,我们也可以选择返回NULL而不是小写形式的词。这种行为可以通过设置词典的Accept参数为false来选择。继续该例子:

  1. ALTER TEXT SEARCH DICTIONARY public.simple_dict ( Accept = false );
  2. SELECT ts_lexize('public.simple_dict','YeS');
  3. ts_lexize
  4. -----------
  5. SELECT ts_lexize('public.simple_dict','The');
  6. ts_lexize
  7. -----------
  8. {}

在使用默认值Accept = true,只有把一个simple词典放在词典列表的尾部才有用,因为它将不会传递任何记号给后续的词典。相反,Accept = false只有当至少有一个后续词典的情况下才有用。

Caution

大部分类型的词典依赖于配置文件,例如停用词文件。这些文件必须被存储为 UTF-8 编码。当它们被读入服务器时,如果存在不同,它们将被翻译成真实的数据库编码。

Caution

通常,当一个词典配置文件第一次在数据库会话中使用时,数据库会话将只读取它一次。如果你修改了一个配置文件并且想强迫现有的会话取得新内容,可以在该词典上发出一个ALTER TEXT SEARCH DICTIONARY命令。这可以是一次"假"更新,它并不实际修改任何参数值。

6.3. 同义词词典

这个词典模板被用来创建用于同义词替换的词典。不支持短语(使用分类词典模板(Section 16.4)可以支持)。一个同义词词典可以被用来解决语言学问题,例如,阻止一个英语词干分析器词典把词"Paris"缩减成"pari"。在同义词词典中有一行Paris paris并把它放在english_stem词典之前就足够了。例如:

  1. SELECT * FROM ts_debug('english', 'Paris');
  2. alias | description | token | dictionaries | dictionary | lexemes
  3. -----------+-----------------+-------+----------------+--------------+---------
  4. asciiword | Word, all ASCII | Paris | {english_stem} | english_stem | {pari}
  5. CREATE TEXT SEARCH DICTIONARY my_synonym (
  6. TEMPLATE = synonym,
  7. SYNONYMS = my_synonyms
  8. );
  9. ALTER TEXT SEARCH CONFIGURATION english
  10. ALTER MAPPING FOR asciiword
  11. WITH my_synonym, english_stem;
  12. SELECT * FROM ts_debug('english', 'Paris');
  13. alias | description | token | dictionaries | dictionary | lexemes
  14. -----------+-----------------+-------+---------------------------+------------+---------
  15. asciiword | Word, all ASCII | Paris | {my_synonym,english_stem} | my_synonym | {paris}

synonym模板要求的唯一参数是SYNONYMS,它是其配置文件的基本名 — 上例中的my_synonyms。该文件的完整名称将是$SHAREDIR/tsearch_data/my_synonyms.syn(其中$SHAREDIR表示PostgreSQL安装的共享数据目录)。该文件格式是每行一个要被替换的词,后面跟着它的同义词,用空白分隔。空行和结尾的空格会被忽略。

synonym模板还有一个可选的参数CaseSensitive,其默认值为false。当CaseSensitive为false时,同义词文件中的词被折叠成小写,这和输入记号一样。当它为true时,词和记号将不会被折叠成小写,但是比较时就好像被折叠过一样。

一个星号(*)可以被放置在配置文件中一个同义词的末尾。这表示该同义词是一个前缀。当项被用在to_tsvector()中时,星号会被忽略;当它被用在to_tsquery()中时,结果将是一个带有前缀匹配标记器(见Section 12.3.2)的查询项。例如,假设我们在$SHAREDIR/tsearch_data/synonym_sample.syn中有这些项:

  1. postgres pgsql
  2. postgresql pgsql
  3. postgre pgsql
  4. gogle googl
  5. indices index*

那么我们将得到这些结果:

  1. mydb=# CREATE TEXT SEARCH DICTIONARY syn (template=synonym, synonyms='synonym_sample');
  2. mydb=# SELECT ts_lexize('syn','indices');
  3. ts_lexize
  4. -----------
  5. {index}
  6. (1 row)
  7. mydb=# CREATE TEXT SEARCH CONFIGURATION tst (copy=simple);
  8. mydb=# ALTER TEXT SEARCH CONFIGURATION tst ALTER MAPPING FOR asciiword WITH syn;
  9. mydb=# SELECT to_tsvector('tst','indices');
  10. to_tsvector
  11. -------------
  12. 'index':1
  13. (1 row)
  14. mydb=# SELECT to_tsquery('tst','indices');
  15. to_tsquery
  16. ------------
  17. 'index':*
  18. (1 row)
  19. mydb=# SELECT 'indexes are very useful'::tsvector;
  20. tsvector
  21. ---------------------------------
  22. 'are' 'indexes' 'useful' 'very'
  23. (1 row)
  24. mydb=# SELECT 'indexes are very useful'::tsvector @@ to_tsquery('tst','indices');
  25. ?column?
  26. ----------
  27. t
  28. (1 row)

6.4. 分类词典

一个分类词典(有时被简写成TZ)是一个词的集合,其中包括了词与短语之间的联系,即广义词(BT)、狭义词(NT)、首选词、非首选词、相关词等。

基本上一个分类词典会用一个首选词替换所有非首选词,并且也可选择地保留原始术语用于索引。PostgreSQL的分类词典的当前实现是同义词词典的一个扩展,并增加了短语支持。一个分类词典要求一个下列格式的配置文件:

  1. # this is a comment
  2. sample word(s) : indexed word(s)
  3. more sample word(s) : more indexed word(s)
  4. ...

其中冒号(:)符号扮演了一个短语及其替换之间的定界符。

一个分类词典使用一个子词典(在词典的配置中指定)在检查短语匹配之前正规化输入文本。只能选择一个子词典。如果子词典无法识别一个词,将报告一个错误。在这种情况下,你应该移除该词的使用或者让子词典学会这个词。你可以在一个被索引词的开头放上一个星号(*)来跳过在其上应用子词典,但是所有采样词必须被子词典知道。

如果有多个短语匹配输入,则分类词典选择最长的那一个,并且使用最后的定义打破连结。

由子词典识别的特定停用词不能够被指定;改用?标记任何可以出现停用词的地方。例如,假定根据子词典a和the是停用词:

? one ? two : swsw

匹配a one the two和the one a two;两者都将被swsw替换。

由于一个分类词典具有识别短语的能力,它必须记住它的状态并与解析器交互。一个分类词典使用这些任务来检查它是否应当处理下一个词或者停止累积。分类词典必须被小心地配置。例如,如果分类词典被分配只处理asciiword记号,则一个形如one 7的分类词典定义将不会工作,因为记号类型uint没有被分配给该分类词典。

Caution

在索引期间要用到分类词典,因此分类词典参数中的任何变化都要求重索引。对于大多数其他索引类型,例如增加或移除停用词等小改动都不会强制重索引。

6.4.1. 分类词典配置

要定义一个新的分类词典,可使用thesaurus模板。例如:

  1. CREATE TEXT SEARCH DICTIONARY thesaurus_simple (
  2. TEMPLATE = thesaurus,
  3. DictFile = mythesaurus,
  4. Dictionary = pg_catalog.english_stem
  5. );

这里:

  • thesaurus_simple是新词典的名称
  • mythesaurus是分类词典配置文件的基础名称(它的全名将是$SHAREDIR/tsearch_data/mythesaurus.ths,其中$SHAREDIR表示安装的共享数据目录)。
  • pg_catalog.english_stem是要用于分类词典正规化的子词典(这里是一个 Snowball 英语词干分析器)。注意子词典将拥有它自己的配置(例如停用词),但这里没有展示。

现在可以在配置中把分类词典thesaurus_simple绑定到想要的记号类型上,例如:

  1. ALTER TEXT SEARCH CONFIGURATION russian
  2. ALTER MAPPING FOR asciiword, asciihword, hword_asciipart
  3. WITH thesaurus_simple;

6.4.2. 分类词典例子

考虑一个简单的天文学分类词典thesaurus_astro,它包含一些天文学词组合:

  1. supernovae stars : sn
  2. crab nebulae : crab

下面我们创建一个词典并绑定一些记号类型到一个天文学分类词典以及英语词干分析器:

  1. CREATE TEXT SEARCH DICTIONARY thesaurus_astro (
  2. TEMPLATE = thesaurus,
  3. DictFile = thesaurus_astro,
  4. Dictionary = english_stem
  5. );
  6. ALTER TEXT SEARCH CONFIGURATION russian
  7. ALTER MAPPING FOR asciiword, asciihword, hword_asciipart
  8. WITH thesaurus_astro, english_stem;

现在我们可以看看它如何工作。ts_lexize对于测试一个分类词典用处不大,因为它把它的输入看成是一个单一记号。我们可以用plainto_tsquery和to_tsvector,它们将把其输入字符串打断成多个记号:

  1. SELECT plainto_tsquery('supernova star');
  2. plainto_tsquery
  3. -----------------
  4. 'sn'
  5. SELECT to_tsvector('supernova star');
  6. to_tsvector
  7. -------------
  8. 'sn':1

原则上,如果你对参数加了引号,你可以使用to_tsquery:

  1. SELECT to_tsquery('''supernova star''');
  2. to_tsquery
  3. ------------
  4. 'sn'

注意在thesaurus_astro中supernova star匹配supernovae stars,因为我们在分类词典定义中指定了english_stem词干分析器。该词干分析器移除了e和s。

要和替补一样也索引原始短语,只要将它包含在定义的右手部分中:

  1. supernovae stars : sn supernovae stars
  2. SELECT plainto_tsquery('supernova star');
  3. plainto_tsquery
  4. -----------------------------
  5. 'sn' & 'supernova' & 'star'

6.5. Ispell 词典

Ispell词典模板支持词法词典,它可以把一个词的很多不同语言学的形式正规化成相同的词位。例如,一个英语Ispell词典可以匹配搜索词bank的词尾变化和词形变化,例如banking、banked、banks、banks'和bank's。

标准的PostgreSQL发布不包括任何Ispell配置文件。用于很多种语言的词典可以从Ispell得到。此外,也支持一些更现代的词典文件格式 — MySpell(OO < 2.0.1)和Hunspell(OO >= 2.0.2)。一个很大的词典列表在OpenOffice Wiki上可以得到。

要创建一个Ispell词典,执行这三步:

  • 下载词典配置文件。OpenOffice扩展文件的扩展名是.oxt。有必要抽取.aff和.dic文件,把扩展改为.affix和.dict。对于某些词典文件,还需要使用下面的命令把字符转换成 UTF-8 编码(例如挪威语词典):
  1. iconv -f ISO_8859-1 -t UTF-8 -o nn_no.affix nn_NO.aff
  2. iconv -f ISO_8859-1 -t UTF-8 -o nn_no.dict nn_NO.dic
  • 拷贝文件到$SHAREDIR/tsearch_data目录
  • 用下面的命令把文件载入到 PostgreSQL:
  1. CREATE TEXT SEARCH DICTIONARY english_hunspell (
  2. TEMPLATE = ispell,
  3. DictFile = en_us,
  4. AffFile = en_us,
  5. Stopwords = english);

这里,DictFile、AffFile和StopWords指定词典、词缀和停用词文件的基础名称。停用词文件的格式和前面解释的simple词典类型相同。其他文件的格式在这里没有指定,但是也可以从上面提到的网站获得。

Ispell 词典通常识别一个有限集合的词,这样它们后面应该跟着另一个更广义的词典;例如,一个 Snowball 词典,它可以识别所有东西。

Ispell的.affix文件具有下面的结构:

  1. prefixes
  2. flag *A:
  3. . > RE # As in enter > reenter
  4. suffixes
  5. flag T:
  6. E > ST # As in late > latest
  7. [^AEIOU]Y > -Y,IEST # As in dirty > dirtiest
  8. [AEIOU]Y > EST # As in gray > grayest
  9. [^EY] > EST # As in small > smallest

.dict文件具有下面的结构:

  1. lapse/ADGRS
  2. lard/DGRS
  3. large/PRTY
  4. lark/MRS

.dict文件的格式是:

  1. basic_form/affix_class_name

在.affix文件中,每一个词缀标志以下面的格式描述:

  1. condition > [-stripping_letters,] adding_affix

这里的条件具有和正则表达式相似的格式。它可以使用分组[...]和1。例如,[AEIOU]Y表示词的最后一个字母是"y"并且倒数第二个字母是"a"、"e"、"i"、"o"或者"u"。2表示最后一个字母既不是"e"也不是"y"。

Ispell 词典支持划分复合词,这是一个有用的特性。注意词缀文件应该用compoundwords controlled语句指定一个特殊标志,它标记可以参与到复合格式中的词典词:

  1. compoundwords controlled z

下面是挪威语的一些例子:

  1. SELECT ts_lexize('norwegian_ispell', 'overbuljongterningpakkmesterassistent');
  2. {over,buljong,terning,pakk,mester,assistent}
  3. SELECT ts_lexize('norwegian_ispell', 'sjokoladefabrikk');
  4. {sjokoladefabrikk,sjokolade,fabrikk}

MySpell格式是Hunspell格式的一个子集。Hunspell的.affix文件具有下面的结构:

  1. PFX A Y 1
  2. PFX A 0 re .
  3. SFX T N 4
  4. SFX T 0 st e
  5. SFX T y iest [^aeiou]y
  6. SFX T 0 est [aeiou]y
  7. SFX T 0 est [^ey]

一个词缀类的第一行是头部。头部后面列出了词缀规则的域:

  • 参数名(PFX 或者 SFX)
  • 标志(词缀类的名称)
  • 从该词的开始(前缀)或者结尾(后缀)剥离字符
  • 增加词缀
  • 和正则表达式格式类似的条件。

.dict文件看起来和Ispell的.dict文件相似:

  1. larder/M
  2. lardy/RT
  3. large/RSPMYT
  4. largehearted

Note:
MySpell 不支持复合词。Hunspell则对复合词有更好的支持。当前,PostgreSQL只实现了 Hunspell 中基本的复合词操作。

6.6. Snowball 词典

Snowball词典模板基于 Martin Porter 的一个项目,他是流行的英语 Porter 词干分析算法的发明者。Snowball 现在对许多语言提供词干分析算法(详见Snowball 站点)。每一个算法懂得按照其语言中的拼写,如何缩减词的常见变体形式为一个基础或词干。一个 Snowball 词典要求一个language参数来标识要用哪种词干分析器,并且可以选择地指定一个stopword文件名来给出一个要被消除的词列表(PostgreSQL的标准停用词列表也是由 Snowball 项目提供的)。例如,有一个内建的定义等效于

  1. CREATE TEXT SEARCH DICTIONARY english_stem (
  2. TEMPLATE = snowball,
  3. Language = english,
  4. StopWords = english
  5. );

停用词文件格式和已经解释的一样。

一个Snowball词典识别所有的东西,不管它能不能简化该词,因此它应当被放置在词典列表的最后。把它放在任何其他词典前面是没有用处的,因为一个记号永远不会穿过它而进入到下一个词典。

7. 配置例子

一个文本搜索配置指定了将一个文档转换成一个tsvector所需的所有选项:用于把文本分解成记号的解析器,以及用于将每一个记号转换成词位的词典。每一次to_tsvector或to_tsquery的调用都需要一个文本搜索配置来执行其处理。配置参数default_text_search_config指定了默认配置的名称,如果忽略了显式的配置参数,文本搜索函数将会使用它。它可以在postgresql.conf中设置,或者使用SET命令为一个单独的会话设置。

有一些预定义的文本搜索配置可用,并且你可以容易地创建自定义的配置。为了便于管理文本搜索对象,可以使用一组SQL命令,并且有多个psql命令可以显示有关文本搜索对象的信息。

作为一个例子,我们将创建一个配置pg,从复制内建的english配置开始:

  1. CREATE TEXT SEARCH CONFIGURATION public.pg ( COPY = pg_catalog.english );

我们将使用一个 PostgreSQL 相关的同义词列表,并将它存储在$SHAREDIR/tsearch_data/pg_dict.syn中。文件内容看起来像:

  1. postgres pg
  2. pgsql pg
  3. postgresql pg

我们定义同义词词典如下:

  1. CREATE TEXT SEARCH DICTIONARY pg_dict (
  2. TEMPLATE = synonym,
  3. SYNONYMS = pg_dict
  4. );

接下来我们注册Ispell词典english_ispell,它有其自己的配置文件:

  1. CREATE TEXT SEARCH DICTIONARY english_ispell (
  2. TEMPLATE = ispell,
  3. DictFile = english,
  4. AffFile = english,
  5. StopWords = english
  6. );

现在我们可以在配置pg中建立词的映射:

  1. ALTER TEXT SEARCH CONFIGURATION pg
  2. ALTER MAPPING FOR asciiword, asciihword, hword_asciipart,
  3. word, hword, hword_part
  4. WITH pg_dict, english_ispell, english_stem;

我们选择不索引或搜索某些内建配置确实处理的记号类型:

  1. ALTER TEXT SEARCH CONFIGURATION pg
  2. DROP MAPPING FOR email, url, url_path, sfloat, float;

现在我们可以测试我们的配置:

  1. SELECT * FROM ts_debug('public.pg', '
  2. PostgreSQL, the highly scalable, SQL compliant, open source object-relational
  3. database management system, is now undergoing beta testing of the next
  4. version of our software.
  5. ');

下一个步骤是设置会话让它使用新配置,它被创建在public模式中:

  1. => \dF
  2. List of text search configurations
  3. Schema | Name | Description
  4. ---------+------+-------------
  5. public | pg |
  6. SET default_text_search_config = 'public.pg';
  7. SET
  8. SHOW default_text_search_config;
  9. default_text_search_config
  10. ----------------------------
  11. public.pg

8. 测试和调试文本搜索

一个自定义文本搜索配置的行为很容易变得混乱。本节中描述的函数对于测试文本搜索对象有用。你可以测试一个完整的配置,或者独立测试解析器和词典。

8.1. 配置测试

函数ts_debug允许简单地测试一个文本搜索配置。

  1. ts_debug([ config regconfig, ] document text,
  2. OUT alias text,
  3. OUT description text,
  4. OUT token text,
  5. OUT dictionaries regdictionary[],
  6. OUT dictionary regdictionary,
  7. OUT lexemes text[])
  8. returns setof record

ts_debug显示document的每一个记号的信息,记号由解析器产生并由配置的词典处理过。该函数使用由config指定的配置,如果该参数被忽略则使用default_text_search_config指定的配置。

ts_debug为解析器在文本中标识的每一个记号返回一行。被返回的列是:

  • alias text — 记号类型的短名称
  • description text — 记号类型的描述
  • token text — 记号的文本
  • dictionaries regdictionary[] — 配置为这种记号类型选择的词典
  • dictionary regdictionary — 识别该记号的词典,如果没有词典能识别则为NULL
  • lexemes text[] — 识别该记号的词典产生的词位,如果没有词典能识别则为NULL;一个空数组({})表示该记号被识别为一个停用词

这里是一个简单的例子:

  1. SELECT * FROM ts_debug('english','a fat cat sat on a mat - it ate a fat rats');
  2. alias | description | token | dictionaries | dictionary | lexemes
  3. -----------+-----------------+-------+----------------+--------------+---------
  4. asciiword | Word, all ASCII | a | {english_stem} | english_stem | {}
  5. blank | Space symbols | | {} | |
  6. asciiword | Word, all ASCII | fat | {english_stem} | english_stem | {fat}
  7. blank | Space symbols | | {} | |
  8. asciiword | Word, all ASCII | cat | {english_stem} | english_stem | {cat}
  9. blank | Space symbols | | {} | |
  10. asciiword | Word, all ASCII | sat | {english_stem} | english_stem | {sat}
  11. blank | Space symbols | | {} | |
  12. asciiword | Word, all ASCII | on | {english_stem} | english_stem | {}
  13. blank | Space symbols | | {} | |
  14. asciiword | Word, all ASCII | a | {english_stem} | english_stem | {}
  15. blank | Space symbols | | {} | |
  16. asciiword | Word, all ASCII | mat | {english_stem} | english_stem | {mat}
  17. blank | Space symbols | | {} | |
  18. blank | Space symbols | - | {} | |
  19. asciiword | Word, all ASCII | it | {english_stem} | english_stem | {}
  20. blank | Space symbols | | {} | |
  21. asciiword | Word, all ASCII | ate | {english_stem} | english_stem | {ate}
  22. blank | Space symbols | | {} | |
  23. asciiword | Word, all ASCII | a | {english_stem} | english_stem | {}
  24. blank | Space symbols | | {} | |
  25. asciiword | Word, all ASCII | fat | {english_stem} | english_stem | {fat}
  26. blank | Space symbols | | {} | |
  27. asciiword | Word, all ASCII | rats | {english_stem} | english_stem | {rat}

为了一个更广泛的示范,我们先为英语语言创建一个public.english配置和 Ispell 词典:

  1. CREATE TEXT SEARCH CONFIGURATION public.english ( COPY = pg_catalog.english );
  2. CREATE TEXT SEARCH DICTIONARY english_ispell (
  3. TEMPLATE = ispell,
  4. DictFile = english,
  5. AffFile = english,
  6. StopWords = english
  7. );
  8. ALTER TEXT SEARCH CONFIGURATION public.english
  9. ALTER MAPPING FOR asciiword WITH english_ispell, english_stem;
  10. SELECT * FROM ts_debug('public.english','The Brightest supernovaes');
  11. alias | description | token | dictionaries | dictionary | lexemes
  12. -----------+-----------------+-------------+-------------------------------+----------------+-------------
  13. asciiword | Word, all ASCII | The | {english_ispell,english_stem} | english_ispell | {}
  14. blank | Space symbols | | {} | |
  15. asciiword | Word, all ASCII | Brightest | {english_ispell,english_stem} | english_ispell | {bright}
  16. blank | Space symbols | | {} | |
  17. asciiword | Word, all ASCII | supernovaes | {english_ispell,english_stem} | english_stem | {supernova}

在这个例子中,词Brightest被解析器识别为一个ASCII 词(别名asciiword)。对于这种记号类型,词典列表是english_ispell和english_stem。该词被english_ispell识别,这个词典将它缩减为名词bright。词supernovaes对于english_ispell词典是未知的,因此它被传递给下一个词典,并且幸运地是,它被识别了(实际上,english_stem是一个 Snowball 词典,它识别所有的东西;这也是为什么它被放置在词典列表的尾部)。

词The被english_ispell词典识别为一个停用词并且将不会被索引。空格也被丢弃,因为该配置没有为它们提供词典。

你可以通过显式地指定你想看哪些列来缩减输出的宽度:

  1. SELECT alias, token, dictionary, lexemes
  2. FROM ts_debug('public.english','The Brightest supernovaes');
  3. alias | token | dictionary | lexemes
  4. -----------+-------------+----------------+-------------
  5. asciiword | The | english_ispell | {}
  6. blank | | |
  7. asciiword | Brightest | english_ispell | {bright}
  8. blank | | |
  9. asciiword | supernovaes | english_stem | {supernova}

8.2. 解析器测试

下列函数允许直接测试一个文本搜索解析器。

  1. ts_parse(parser_name text, document text,
  2. OUT tokid integer, OUT token text) returns setof record
  3. ts_parse(parser_oid oid, document text,
  4. OUT tokid integer, OUT token text) returns setof record

ts_parse解析给定的document并返回一系列记录,每一个记录对应一个由解析产生的记号。每一个记录包括一个tokid展示分配给记号的类型以及一个token展示记号的文本。例如:

  1. SELECT * FROM ts_parse('default', '123 - a number');
  2. tokid | token
  3. -------+--------
  4. 22 | 123
  5. 12 |
  6. 12 | -
  7. 1 | a
  8. 12 |
  9. 1 | number
  10. ts_token_type(parser_name text, OUT tokid integer,
  11. OUT alias text, OUT description text) returns setof record
  12. ts_token_type(parser_oid oid, OUT tokid integer,
  13. OUT alias text, OUT description text) returns setof record

ts_token_type返回一个表,该表描述指定解析器能够识别的每一种记号类型。对于每一种记号类型,该表给出了解析器用来标注该类型记号的整数tokid,还给出了在配置命令中命名该记号类型的alias,以及一个简短的description。例如:

  1. SELECT * FROM ts_token_type('default');
  2. tokid | alias | description
  3. -------+-----------------+------------------------------------------
  4. 1 | asciiword | Word, all ASCII
  5. 2 | word | Word, all letters
  6. 3 | numword | Word, letters and digits
  7. 4 | email | Email address
  8. 5 | url | URL
  9. 6 | host | Host
  10. 7 | sfloat | Scientific notation
  11. 8 | version | Version number
  12. 9 | hword_numpart | Hyphenated word part, letters and digits
  13. 10 | hword_part | Hyphenated word part, all letters
  14. 11 | hword_asciipart | Hyphenated word part, all ASCII
  15. 12 | blank | Space symbols
  16. 13 | tag | XML tag
  17. 14 | protocol | Protocol head
  18. 15 | numhword | Hyphenated word, letters and digits
  19. 16 | asciihword | Hyphenated word, all ASCII
  20. 17 | hword | Hyphenated word, all letters
  21. 18 | url_path | URL path
  22. 19 | file | File or path name
  23. 20 | float | Decimal notation
  24. 21 | int | Signed integer
  25. 22 | uint | Unsigned integer
  26. 23 | entity | XML entity

8.3. 词典测试

ts_lexize函数帮助词典测试。

ts_lexize(dict regdictionary, token text) returns text[]

如果输入的token是该词典已知的,则ts_lexize返回一个词位数组;如果记号是词典已知的但是它是一个停用词,则返回一个空数组;或者如果它对词典是未知词,则返回NULL。

例子:

  1. SELECT ts_lexize('english_stem', 'stars');
  2. ts_lexize
  3. -----------
  4. {star}
  5. SELECT ts_lexize('english_stem', 'a');
  6. ts_lexize
  7. -----------
  8. {}

Note:
ts_lexize函数期望一个单一记号而不是文本。下面的情况会让它搞混:

  1. SELECT ts_lexize('thesaurus_astro','supernovae stars') is null;
  2. ?column?
  3. ----------
  4. t

分类词典thesaurus_astro确实知道短语supernovae stars,但是ts_lexize会失败,因为它无法解析输入文本而把它当做一个单一记号。可以使用plainto_tsquery或to_tsvector来测试分类词典,例如:

  1. SELECT plainto_tsquery('supernovae stars');
  2. plainto_tsquery
  3. -----------------
  4. 'sn'

9. GIN 和 GiST 索引类型

有两种索引可以被用来加速全文搜索。注意全文搜索并非一定需要索引,但是在一个定期会被搜索的列上,通常需要有一个索引。

CREATE INDEX name ON table USING GIN(column);

创建一个基于 GIN(通用倒排索引)的索引。column必须是tsvector类型。

CREATE INDEX name ON table USING GIST(column);

创建一个基于 GiST(通用搜索树)的索引。column可以是tsvector或tsquery类型。

GIN 索引是更好的文本搜索索引类型。作为倒排索引,每个词(词位)在 其中都有一个索引项,其中有压缩过的匹配位置的列表。多词搜索可以找到 第一个匹配,然后使用该索引移除缺少额外词的行。GIN 索引只存储 tsvector值的词(词位),并且不存储它们的权重标签。因此, 在使用涉及权重的查询时需要一次在表行上的重新检查。

一个 GiST 索引是有损的,这表示索引可能产生假匹配,并且有必要检查真实的表行来消除这种假匹配(PostgreSQL在需要时会自动做这一步)。GiST 索引之所以是有损的,是因为每一个文档在索引中被表示为一个定长的签名。该签名通过哈希每一个词到一个 n 位串中的一个单一位来产生,通过将所有这些位 OR 在一起产生一个 n 位的文档签名。当两个词哈希到同一个位位置时就会产生假匹配。如果查询中所有词都有匹配(真或假),则必须检索表行查看匹配是否正确。

有损性导致的性能下降归因于不必要的表记录(即被证实为假匹配的记录)获取。因为表记录的随机访问是较慢的,这限制了 GiST 索引的可用性。假匹配的可能性取决于几个因素,特别是唯一词的数量,因此推荐使用词典来缩减这个数量。

注意GIN索引的构件时间常常可以通过增加maintenance_work_mem来改进,而GiST索引的构建时间则与该参数无关。

对大集合分区并正确使用 GIN 和 GiST 索引允许实现带在线更新的快速搜索。分区可以在数据库层面上使用表继承来完成,或者是通过将文档分布在服务器上并使用dblink收集结果。后者是可能的,因为排名函数只使用本地信息。

10. psql支持

关于文本搜索配置对象的信息可以在psql中使用一组命令获得:

  1. \dF{d,p,t}[+] [PATTERN]

可选的+能产生更多细节。

可选参数PATTERN可以是一个文本搜索对象的名称,可以是模式限定的。如果PATTERN被忽略,则所有可见对象的信息都将被显示。PATTERN可以是一个正则表达式并且可以为模式和对象名称提供独立的模式。下面的例子展示了这些特性:

  1. => \dF *fulltext*
  2. List of text search configurations
  3. Schema | Name | Description
  4. --------+--------------+-------------
  5. public | fulltext_cfg |
  6. => \dF *.fulltext*
  7. List of text search configurations
  8. Schema | Name | Description
  9. ----------+----------------------------
  10. fulltext | fulltext_cfg |
  11. public | fulltext_cfg |

可用的命令是:

  1. \dF[+] [PATTERN]

列出文本搜索配置(加上+得到更多细节)。

  1. => \dF russian
  2. List of text search configurations
  3. Schema | Name | Description
  4. ------------+---------+------------------------------------
  5. pg_catalog | russian | configuration for russian language
  6. => \dF+ russian
  7. Text search configuration "pg_catalog.russian"
  8. Parser: "pg_catalog.default"
  9. Token | Dictionaries
  10. -----------------+--------------
  11. asciihword | english_stem
  12. asciiword | english_stem
  13. email | simple
  14. file | simple
  15. float | simple
  16. host | simple
  17. hword | russian_stem
  18. hword_asciipart | english_stem
  19. hword_numpart | simple
  20. hword_part | russian_stem
  21. int | simple
  22. numhword | simple
  23. numword | simple
  24. sfloat | simple
  25. uint | simple
  26. url | simple
  27. url_path | simple
  28. version | simple
  29. word | russian_stem
  30. \dFd[+] [PATTERN]

列出文本搜索词典(加上+得到更多细节)。

  1. => \dFd
  2. List of text search dictionaries
  3. Schema | Name | Description
  4. ------------+-----------------+-----------------------------------------------------------
  5. pg_catalog | danish_stem | snowball stemmer for danish language
  6. pg_catalog | dutch_stem | snowball stemmer for dutch language
  7. pg_catalog | english_stem | snowball stemmer for english language
  8. pg_catalog | finnish_stem | snowball stemmer for finnish language
  9. pg_catalog | french_stem | snowball stemmer for french language
  10. pg_catalog | german_stem | snowball stemmer for german language
  11. pg_catalog | hungarian_stem | snowball stemmer for hungarian language
  12. pg_catalog | italian_stem | snowball stemmer for italian language
  13. pg_catalog | norwegian_stem | snowball stemmer for norwegian language
  14. pg_catalog | portuguese_stem | snowball stemmer for portuguese language
  15. pg_catalog | romanian_stem | snowball stemmer for romanian language
  16. pg_catalog | russian_stem | snowball stemmer for russian language
  17. pg_catalog | simple | simple dictionary: just lower case and check for stopword
  18. pg_catalog | spanish_stem | snowball stemmer for spanish language
  19. pg_catalog | swedish_stem | snowball stemmer for swedish language
  20. pg_catalog | turkish_stem | snowball stemmer for turkish language
  21. \dFp[+] [PATTERN]

列出文本搜索解析器(加上+得到更多细节)。

  1. => \dFp
  2. List of text search parsers
  3. Schema | Name | Description
  4. ------------+---------+---------------------
  5. pg_catalog | default | default word parser
  6. => \dFp+
  7. Text search parser "pg_catalog.default"
  8. Method | Function | Description
  9. -----------------+----------------+-------------
  10. Start parse | prsd_start |
  11. Get next token | prsd_nexttoken |
  12. End parse | prsd_end |
  13. Get headline | prsd_headline |
  14. Get token types | prsd_lextype |
  15. Token types for parser "pg_catalog.default"
  16. Token name | Description
  17. -----------------+------------------------------------------
  18. asciihword | Hyphenated word, all ASCII
  19. asciiword | Word, all ASCII
  20. blank | Space symbols
  21. email | Email address
  22. entity | XML entity
  23. file | File or path name
  24. float | Decimal notation
  25. host | Host
  26. hword | Hyphenated word, all letters
  27. hword_asciipart | Hyphenated word part, all ASCII
  28. hword_numpart | Hyphenated word part, letters and digits
  29. hword_part | Hyphenated word part, all letters
  30. int | Signed integer
  31. numhword | Hyphenated word, letters and digits
  32. numword | Word, letters and digits
  33. protocol | Protocol head
  34. sfloat | Scientific notation
  35. tag | XML tag
  36. uint | Unsigned integer
  37. url | URL
  38. url_path | URL path
  39. version | Version number
  40. word | Word, all letters
  41. (23 rows)
  42. \dFt[+] [PATTERN]

列出文本搜索模板(加上+得到更多细节)。

  1. => \dFt
  2. List of text search templates
  3. Schema | Name | Description
  4. ------------+-----------+-----------------------------------------------------------
  5. pg_catalog | ispell | ispell dictionary
  6. pg_catalog | simple | simple dictionary: just lower case and check for stopword
  7. pg_catalog | snowball | snowball stemmer
  8. pg_catalog | synonym | synonym dictionary: replace word by its synonym
  9. pg_catalog | thesaurus | thesaurus dictionary: phrase by phrase substitution

11. 限制

PostgreSQL的文本搜索特性的当前限制是:

  • 每一个词位的长度必须小于 2K 字节
  • 一个tsvector(词位 + 位置)的长度必须小于 1 兆字节
  • 词位的数量必须小于 264
  • tsvector中的位置值必须大于 0 并且小于 16,383
  • <N>(FOLLOWED BY)tsquery操作符中的匹配距离不能超过 16,384
  • 每个词位不超过 256 个位置
  • 一个tsquery中结点(词位 + 操作符)的个数必须小于 32,768

为了对比,PostgreSQL 8.1 的文档包含 10,441 个唯一词,总数 335,420 个词,并且最频繁的词"postgresql"在 655 个文档中被提到 6,127 次。

另一个例子 — PostgreSQL的邮件列表归档在 461,020 条消息的 57,491,343 个词位中包含 910,989 个唯一词。

  1. 从 8.3 之前的文本搜索迁移
    使用tsearch2模块进行文本搜索的应用将需要一些调整来适应内建的特性:
  • 某些函数必须被重命名或者对其参数列表做小调整,并且它们现在都在pg_catalog模式中,而在一个以前的安装中它们会出现在public或者另一个非系统模式中。有一个tsearch2的新版本可以提供一个兼容性层来解决这个领域内的大部分问题。
  • 老的tsearch2函数和其他对象在载入来自一个 8.3 以前数据库的pg_dump输出时必须被抑制。虽然它们中的许多无论怎样也不会载入,但是确有一部分会被载入然后导致问题。解决这个问题的一个简单方法是在恢复该转储之前载入新的tsearch2模块;然后它会阻止老的对象被载入。
  • 文本搜索配置建立现在完全不同了。不同于手工将行插入到配置表中,搜索可以通过本章早前展示的特制 SQL 命令来配置。没有自动化的支持来将用于 8.3 的现有自定义配置转换成新版本的配置;这里就得靠你自己了。
  • 大部分词典类型依赖于某些数据库外部的配置文件。这些大多和 8.3 之前的用法兼容,但是注意下列不同:

    • 配置文件现在必须被放置在一个单一指定的目录($SHAREDIR/tsearch_data)中,并且必须有一个与其文件类型相关的特定扩展,如之前对多种词典类型的描述所示。这个限制是为了防止安全性问题而加入的。
    • 配置文件必须以 UTF-8 编码,不管数据库使用何种编码。
    • 在分类词典配置文件中,停用词必须被使用?标记。

  1. ...
  2. EY
声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:【wpsshop博客】
推荐阅读
相关标签
  

闽ICP备14008679号