当前位置:   article > 正文

python unicode 标点范围_Unicode的文本处理二三事

unicodedata.category(c) != 'mn

0654d78b134633b3237c05d2ab0fa311.png
本文不对unicode进行科普式的宣讲,主要针对其在文本处理过程中的一些有趣应用进行记录和剖析。

0x01. 前言

在日常工作的文本处理过程中,经常会遇到一些利用unicode特性对文本进行处理的技巧。在这篇文章中则主要对其进行一些汇总和剖析。在开始之前,这里对 unicode 一些鲜为人知的概念做一些介绍。

大部分时候,我们都会只认为Unicode只是对字符的一个数字编码,在Python内部,我们可以通过这样的方式,查看一个文本的 unicode 编码:

  1. a = "母"
  2. a.encode("raw_unicode_escape")
  3. # b'u2e9f'

但实际上,一个unicode除了其 codepoint 之外,还有很多特殊的属性,而这些属性在很多的NLP处理任务的过程中起到帮助的作用。如下图:

898ad6ab0b984e88779c4577aba774c3.png
unicode的其他属性

在这里,我推荐使用这个站点来查询unicode的相关属性。从上图可以看出,一个unicode还具备以下常用的属性:

  • Name: 每个Unicode会有一个独特的名字,后面我们会展示一个根据名字前缀来识别unicode属于哪一种语言的技巧。
  • Block: 一个连续的编码范围,具体可以参考:Wikipedia - Unicode block
  • Plane: 具体可以参考:Wikipedia - Plane (Unicode)
  • Script: 每个文字的书写体系,具体可以参考:Wikipedia - Script(Unicode)。
  • Category: 类别,待会会详细介绍。

0x02. Unicode Range

我们都知道unicode利用一个数字来表示每个字符。而实际上,每个书写语言(script)所涉及的文字,都有其独特的unicode范围。因此最直接的一个应用就是利用 unicode range 来判定一个字符 or 文本属于哪一种语言。

在开始之前,我先推荐一个站点:Code Chars。这个站点按照不用的书写语言和地域进行分类,列举出每个语言的unicode range。如下图绿框,其中中文script的名字叫做 Unihan。

6a62fdeb56496bc6d864733549b041e4.png
Code Chars:不同语言的unicode-range

在上面站点可以查询到,汉字(Han scirpt)包含以下的block,而每个block的 block-range 可以表示为:

  • CJK Unified Ideographs: U+4E00–U+9FEF
  • CJK Unified Ideographs Extension A: U+3400–U+4DB5
  • CJK Unified Ideographs Extension B: U+20000–U+2A6D6
  • CJK Unified Ideographs Extension C: U+2A700–U+2B734
  • CJK Unified Ideographs Extension D: U+2B740–U+2B81D
  • CJK Unified Ideographs Extension E: U+2B820–U+2CEA1
  • CJK Unified Ideographs Extension F: U+2CEB0–U+2EBE0

因此,我们可以根据上述的 unicode-range,开开心心的写一个判定是否为汉字的正则表达式

  1. HAN_SCRIPT_PAT = re.compile(
  2. r'[u4E00-u9FEFu3400-u4DB5u20000-u2A6D6u2A700-u2B734'
  3. r'u2B740-u2B81Du2D820-u2CEA1u2CEB0-u2EBE0]'
  4. )
  5. def is_chinese_char(c):
  6. return bool(HAN_SCRIPT_PAT.match(c))

然而值得注意的是,这种方法并不算是一种很好的方式。因为不同文字的unicode范围会有变化。如果只是一次性的搞一波,那也可以考虑一下。

0x03. Unicode 的其他属性应用

在这一小节,我们主要讨论unicode的其他属性以及 normalize 的问题,主要涉及 Python 中 unicodedataregrex 两个标准库。

3.1 字符名字(Name)判断:

在第一小节中我们提及到,每个unicode字符都有其独特的名字。在Python中,我们可以通过这样的方式来获取某个unicode字符的名字:

  1. import unicodedata
  2. text = "中"
  3. print(unicodedata.name(text)) # CJK UNIFIED IDEOGRAPH-4E2D

进一步的,我们可以简单来看下多个unicode的名字特点:从下表可以看到: 对于中文字符,其 Unicode 名字都是以 CJK 开头; 对于印地语(天成文),其前缀也基本是以 DEVANAGARI 开头; * 对于表情符号,其名字还包含了表情符号本身的文字描述。这额外的描述也可以在NLP任务过程中作为表情符号的特征进行补充,让模型能够更好的理解符号本身。

590f21150c4f91bb39c329ccdd784257.png

回到判定字符所属的语言任务本身,利用Unicode-range判定法会存在范围变化的问题。那么可以更改为利用名字判断:

  1. def is_chinese_char(c):
  2. return unicodedata.name(c).startswith("CJK")

除了利用名字之外,更加规范的做法应该是直接判断该unicode的Script属性(汉字的Script属于Han)。可惜 unicodedata 这个库不支持。但是可以用 regrex 库搞一波:

  1. def is_chinese_char(c):
  2. return bool(regrex.match(r"p{script=han}", c))

3.2 字符类别(Category)判断:

在Unicode中,每个字符还会被赋予上Category的属性,而这个属性跟语种是无关的。总体而言,Category一共分为 Letter, Mark, Number, Punctuation, Symbol, Seperator, Other 七大类, 而每个类别下面还有进一步的二级分类。在 Python 中,我们可以利用 unicodedata.category 这个库来获取这个属性;

  1. import unicodedata
  2. rst = []
  3. for char in "1a天。 ❤️":
  4. rst.append("{}:{}".format(char, unicodedata.category(char)))
  5. print(",".join(rst))
  6. # 1:Nd,a:Ll,天:Lo,。:Po, :So,❤:So,️:Mn

更详细的,我们可以来看看所有Category的类型码和对应信息类别:

00c0d1feace55bd224883fd0124eb856.png
二级Category列表,参考[1]

一旦知晓了字符的类别,那么在文本处理过程中就有很多技巧可以应用的上的。例如:

  • 利用类别中P开头的字符,把标点符号全部筛选出来。
  • 类别N开头的是数字符号,除了常见的阿拉伯数字,还可以将罗马数字、其他语种的数字体、带圆圈的数序序号等也排除出来。
  1. unicodedata.category("२") == 'Nd' # 天成文中的数字2
  2. unicodedata.category("⑩") == 'Nd'
  • 利用类别中C类别的字符,可以把文本中一些不可见的控制字符(如"^V, ^I" 或者zero-width的如u200d等字符)给过滤掉:
  1. import unicodedata
  2. text = text.replace("t", " ")
  3. return "".join(ch for ch in text if unicodedata.category(ch)[0] != 'C')

在这里,我展示一下 tensor2tensor 中计算 BLEU 分数的时候,用于分词的函数 bleu_tokenizer:

  1. class UnicodeRegex(object):
  2. """Ad-hoc hack to recognize all punctuation and symbols."""
  3. def __init__(self):
  4. # 获取所有的标点符号
  5. punctuation = self.property_chars("P")
  6. # 标点符号左边不带数字
  7. self.nondigit_punct_re = re.compile(r"([^d])([" + punctuation + r"])")
  8. # 标点符号右边不带数字
  9. self.punct_nondigit_re = re.compile(r"([" + punctuation + r"])([^d])")
  10. # 所有的符号集合
  11. self.symbol_re = re.compile("([" + self.property_chars("S") + "])")
  12. def property_chars(self, prefix):
  13. return "".join(six.unichr(x) for x in range(sys.maxunicode)
  14. if unicodedata.category(six.unichr(x)).startswith(prefix))
  15. uregex = UnicodeRegex()
  16. def bleu_tokenize(string):
  17. # 粗暴的分割所有除了前后包含数字的标点符号。
  18. string = uregex.nondigit_punct_re.sub(r"1 2 ", string)
  19. string = uregex.punct_nondigit_re.sub(r" 1 2", string)
  20. # 所有的symbol默认分割
  21. string = uregex.symbol_re.sub(r" 1 ", string)
  22. return string.split()

3.3 对unicode字符进行normalized:

在某些自然语言处理任务的过程中,会遇到一些神奇的灵异现象。 例如两个单词 or 字符用肉眼看是完全一模一样的,但是在计算机中读取出来却表示两者不相等。进一步的,当我们查看这个item的编码字符的时候,发现两者确实也不一样。那究竟是什么样的一回事呢??

  1. text_a = "ज़म्पा"
  2. text_b = "ज़म्पा"
  3. print(text_a == text_b) # False
  4. print(unicodedata.normalize("NFKD", text_a) == text_b) # True

事实上,在Unicode的编码中,经常会有一些特殊字符被编码成多种 Unicode 形式。例如: 字符 U+00C7 (LATIN CAPITAL LETTER C WITH CEDILLA) 也可以被表示为下面列个字符的组合: U+0043 (LATIN CAPITAL LETTER C) 和 字符U+0327 (COMBINING CEDILLA).

这种情况下多发于那些需要包含音调的字符体系中(例如印地语、德语、西班牙语等),如以下字符"Ç"。Unicode体系中,即可以用Compose(组合)的形式U+00C7来表示这个字符。 也可以使用Decompose(分离)分别存储字符(U+0043)本身和音调(U+0327)本身。

在上面的印地语中,出现问题的主要是因为字符"ज़",该字符下有一个小点,表示印地语中的一些音调问题(具体参考 Nuqta)。该字符就拥有 Compose 和 Decompose 两种Unicode表示方法, 因此才会出现上文中字符不等的例子。

在Python中,我们可以利用 unicodedata.normalize 函数对字符进行标准化。标准化分为两个方式:

  • unicodedata.normalize("NFKC", text): Normal form Composition: 将所有的文本标准化为 Compose 形式。
  • unicodedata.normalize("NFKD", text): Normal form Decomposition: 将所有的文本标准化为 Decompose 形式。

更标准的写法,应该为

  1. import unicodedata
  2. def strip_accents(s):
  3. return ''.join(c for c in unicodedata.normalize('NFD', s)
  4. if unicodedata.category(c) != 'Mn')

3.3.1 题外话:

在撰写本文的时候,我发现了一些外观长的一模一样,并且通过normalize方法也无法归一化的问题。例如:

  1. a = "⻢"
  2. b = "马"
  3. print(a == b) # False
  4. print(a.encode("raw_unicode_escape")) # b'u2ee2'
  5. print(b.encode("raw_unicode_escape")) # b'u9a6c'
  6. print(unicodedata.normalize("NFKD", a) == b) # False
  7. print(unicodedata.normalize("NFKC", a) == b) # False

于是我对上述文本中的第一个『马』进行了一番查询(正是文章开头图片的字符),发现:

  • 第一个马的Category是一个Symbol,也就是说是一个符号。
  • 第一个马的Block属于Radical-Block,查询了一下,主要是在汉字中用于偏旁作用的。

那么,如果在实际应用中,应该如何对这两个字符进行归一化呢??? 目前我也没有 idea 。。。。。

0x04. Reference:

  • [1]. NLP哪里跑: Unicode相关的一些小知识和工具
  • [2]. Python - Unicodedata
声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/小蓝xlanll/article/detail/172213
推荐阅读
相关标签
  

闽ICP备14008679号