赞
踩
人工智能AI:Keras PyTorch MXNet TensorFlow PaddlePaddle 深度学习实战(不定时更新)
物品画像构建步骤:
前面提到,物品画像的特征标签主要都是指的如电影的导演、演员、图书的作者、出版社等结构话的数据,也就是他们的特征提取,尤其是体征向量的计算是比较简单的,如直接给作品的分类定义0或者1的状态。
但另外一些特征,比如电影的内容简介、电影的影评、图书的摘要等文本数据,这些被称为非结构化数据,首先他们本应该也属于物品的一个特征标签,但是这样的特征标签进行量化时,也就是计算它的特征向量时是很难去定义的。
因此这时就需要借助一些自然语言处理、信息检索等技术,将如用户的文本评论或其他文本内容信息的非结构化数据进行量化处理,从而实现更加完善的物品画像/用户画像。
TF-IDF算法便是其中一种在自然语言处理领域中应用比较广泛的一种算法。可用来提取目标文档中,并得到关键词用于计算对于目标文档的权重,并将这些权重组合到一起得到特征向量。
算法原理
TF-IDF自然语言处理领域中计算文档中词或短语的权值的方法,是词频(Term Frequency,TF)和逆转文档频率(Inverse Document Frequency,IDF)的乘积。TF指的是某一个给定的词语在该文件中出现的次数。这个数字通常会被正规化,以防止它偏向长的文件(同一个词语在长文件里可能会比短文件有更高的词频,而不管该词语重要与否)。IDF是一个词语普遍重要性的度量,某一特定词语的IDF,可以由总文件数目除以包含该词语之文件的数目,再将得到的商取对数得到。
TF-IDF算法基于一个这样的假设:若一个词语在目标文档中出现的频率高而在其他文档中出现的频率低,那么这个词语就可以用来区分出目标文档。这个假设需要掌握的有两点:
因此,TF-IDF算法的计算可以分为词频(Term Frequency,TF)和逆转文档频率(Inverse Document Frequency,IDF)两部分,由TF和IDF的乘积来设置文档词语的权重。
结论:TF-IDF与词语在文档中的出现次数成正比,与该词在整个文档集中的出现次数成反比。
用途:在目标文档中,提取关键词(特征标签)的方法就是将该文档所有词语的TF-IDF计算出来并进行对比,取其中TF-IDF值最大的k个数组成目标文档的特征向量用以表示文档。
注意:文档中存在的停用词(Stop Words),如“是”、“的”之类的,对于文档的中心思想表达没有意义的词,在分词时需要先过滤掉再计算其他词语的TF-IDF值。
算法举例
对于计算影评的TF-IDF,以电影“加勒比海盗:黑珍珠号的诅咒”为例,假设它总共有1000篇影评,其中一篇影评的总词语数为200,其中出现最频繁的词语为“海盗”、“船长”、“自由”,分别是20、15、10次,并且这3个词在所有影评中被提及的次数分别为1000、500、100,就这3个词语作为关键词的顺序计算如下。
将影评中出现的停用词过滤掉,计算其他词语的词频。以出现最多的三个词为例进行计算如下:
计算词语的逆文档频率如下:
通过对比可得,该篇影评的关键词排序应为:“自由”、“船长”、“海盗”。把这些词语的TF-IDF值作为它们的权重按照对应的顺序依次排列,就得到这篇影评的特征向量,我们就用这个向量来代表这篇影评,向量中每一个维度的分量大小对应这个属性的重要性。
将总的影评集中所有的影评向量与特定的系数相乘求和,得到这部电影的综合影评向量,与电影的基本属性结合构建视频的物品画像,同理构建用户画像,可采用多种方法计算物品画像和用户画像之间的相似度,为用户做出推荐。
加载数据集
- import pandas as pd
- import numpy as np
- '''
- - 利用tags.csv中每部电影的标签作为电影的候选关键词
- - 利用TF·IDF计算每部电影的标签的tfidf值,选取TOP-N个关键词作为电影画像标签
- - 并将电影的分类词直接作为每部电影的画像标签
- '''
-
- def get_movie_dataset():
- # 加载基于所有电影的标签
- # all-tags.csv来自ml-latest数据集中
- # 由于ml-latest-small中标签数据太多,因此借助其来扩充
- _tags = pd.read_csv("datasets/ml-latest-small/all-tags.csv", usecols=range(1, 3)).dropna()
- tags = _tags.groupby("movieId").agg(list)
-
- # 加载电影列表数据集
- movies = pd.read_csv("datasets/ml-latest-small/movies.csv", index_col="movieId")
- # 将类别词分开
- movies["genres"] = movies["genres"].apply(lambda x: x.split("|"))
- # 为每部电影匹配对应的标签数据,如果没有将会是NAN
- movies_index = set(movies.index) & set(tags.index)
- new_tags = tags.loc[list(movies_index)]
- ret = movies.join(new_tags)
-
- # 构建电影数据集,包含电影Id、电影名称、类别、标签四个字段
- # 如果电影没有标签数据,那么就替换为空列表
- # map(fun,可迭代对象)
- movie_dataset = pd.DataFrame(
- map(
- lambda x: (x[0], x[1], x[2], x[2]+x[3]) if x[3] is not np.nan else (x[0], x[1], x[2], []), ret.itertuples())
- , columns=["movieId", "title", "genres","tags"]
- )
-
- movie_dataset.set_index("movieId", inplace=True)
- return movie_dataset
-
- movie_dataset = get_movie_dataset()
- print(movie_dataset)
map函数
描述
map() 会根据提供的函数对指定序列做映射。
第一个参数 function 以参数序列中的每一个元素调用 function 函数,返回包含每次 function 函数返回值的新列表。
语法
map() 函数语法:
map(function, iterable, ...)
参数
返回值
Python 2.x 返回列表。
Python 3.x 返回迭代器。
示例
- >>>def square(x) : # 计算平方数
- ... return x ** 2
- ...
- >>> map(square, [1,2,3,4,5]) # 计算列表各个元素的平方
- [1, 4, 9, 16, 25]
- >>> map(lambda x: x ** 2, [1, 2, 3, 4, 5]) # 使用 lambda 匿名函数
- [1, 4, 9, 16, 25]
-
- # 提供了两个列表,对相同位置的列表数据进行相加
- >>> map(lambda x, y: x + y, [1, 3, 5, 7, 9], [2, 4, 6, 8, 10])
- [3, 7, 11, 15, 19]
基于TF·IDF提取TOP-N关键词,构建电影画像
gensim介绍
gensim基本概念
词袋模型(BOW bag of words)
文本特征提取有两个非常重要的模型:
两者本质上的区别,词袋是在词集的基础上增加了频率的维度,词集只关注有和没有,词袋还要关注有几个。
- from gensim.models import TfidfModel
-
- import pandas as pd
- import numpy as np
-
- from pprint import pprint
-
- # ......
-
- def create_movie_profile(movie_dataset):
- '''
- 使用tfidf,分析提取topn关键词
- :param movie_dataset:
- :return:
- '''
- dataset = movie_dataset["tags"].values
-
- from gensim.corpora import Dictionary
- # 根据数据集建立词袋,并统计词频,将所有词放入一个词典,使用索引进行获取
- dct = Dictionary(dataset)
- # 根据将每条数据,返回对应的词索引和词频
- corpus = [dct.doc2bow(line) for line in dataset]
- # 训练TF-IDF模型,即计算TF-IDF值
- model = TfidfModel(corpus)
-
- movie_profile = {}
- for i, mid in enumerate(movie_dataset.index):
- # 根据每条数据返回,向量
- vector = model[corpus[i]]
- # 按照TF-IDF值得到top-n的关键词
- movie_tags = sorted(vector, key=lambda x: x[1], reverse=True)[:30]
- # 根据关键词提取对应的名称
- movie_profile[mid] = dict(map(lambda x:(dct[x[0]], x[1]), movie_tags))
-
- return movie_profile
-
- movie_dataset = get_movie_dataset()
- pprint(create_movie_profile(movie_dataset))
完善画像关键词
- from gensim.models import TfidfModel
-
- import pandas as pd
- import numpy as np
-
- from pprint import pprint
-
- # ......
-
- def create_movie_profile(movie_dataset):
- '''
- 使用tfidf,分析提取topn关键词
- :param movie_dataset:
- :return:
- '''
- dataset = movie_dataset["tags"].values
-
- from gensim.corpora import Dictionary
- # 根据数据集建立词袋,并统计词频,将所有词放入一个词典,使用索引进行获取
- dct = Dictionary(dataset)
- # 根据将每条数据,返回对应的词索引和词频
- corpus = [dct.doc2bow(line) for line in dataset]
- # 训练TF-IDF模型,即计算TF-IDF值
- model = TfidfModel(corpus)
-
- _movie_profile = []
- for i, data in enumerate(movie_dataset.itertuples()):
- mid = data[0]
- title = data[1]
- genres = data[2]
- vector = model[corpus[i]]
- movie_tags = sorted(vector, key=lambda x: x[1], reverse=True)[:30]
- topN_tags_weights = dict(map(lambda x: (dct[x[0]], x[1]), movie_tags))
- # 将类别词的添加进去,并设置权重值为1.0
- for g in genres:
- topN_tags_weights[g] = 1.0
- topN_tags = [i[0] for i in topN_tags_weights.items()]
- _movie_profile.append((mid, title, topN_tags, topN_tags_weights))
-
- movie_profile = pd.DataFrame(_movie_profile, columns=["movieId", "title", "profile", "weights"])
- movie_profile.set_index("movieId", inplace=True)
- return movie_profile
-
- movie_dataset = get_movie_dataset()
- pprint(create_movie_profile(movie_dataset))
为了根据指定关键词迅速匹配到对应的电影,因此需要对物品画像的标签词,建立倒排索引
倒排索引介绍
通常数据存储数据,都是以物品的ID作为索引,去提取物品的其他信息数据
而倒排索引就是用物品的其他数据作为索引,去提取它们对应的物品的ID列表
- # ......
-
- '''
- 建立tag-物品的倒排索引
- '''
-
- def create_inverted_table(movie_profile):
- inverted_table = {}
- for mid, weights in movie_profile["weights"].iteritems():
- for tag, weight in weights.items():
- #到inverted_table dict 用tag作为Key去取值 如果取不到就返回[]
- _ = inverted_table.get(tag, [])
- #将电影的id 和 权重 放到一个tuple中 添加到list中
- _.append((mid, weight))
- #将修改后的值设置回去
- inverted_table.setdefault(tag, _)
- return inverted_table
-
- inverted_table = create_inverted_table(movie_profile)
- pprint(inverted_table)
用户画像构建步骤:
用户画像建立
- import pandas as pd
- import numpy as np
- from gensim.models import TfidfModel
-
- from functools import reduce
- import collections
-
- from pprint import pprint
-
- # ......
-
- '''
- user profile画像建立:
- 1. 提取用户观看列表
- 2. 根据观看列表和物品画像为用户匹配关键词,并统计词频
- 3. 根据词频排序,最多保留TOP-k个词,这里K设为100,作为用户的标签
- '''
-
- def create_user_profile():
- watch_record = pd.read_csv("datasets/ml-latest-small/ratings.csv", usecols=range(2), dtype={"userId":np.int32, "movieId": np.int32})
-
- watch_record = watch_record.groupby("userId").agg(list)
- # print(watch_record)
-
- movie_dataset = get_movie_dataset()
- movie_profile = create_movie_profile(movie_dataset)
-
- user_profile = {}
- for uid, mids in watch_record.itertuples():
- record_movie_prifole = movie_profile.loc[list(mids)]
- counter = collections.Counter(reduce(lambda x, y: list(x)+list(y), record_movie_prifole["profile"].values))
- # 取出出现次数最多的前50个词
- interest_words = counter.most_common(50)
- # 取出出现次数最多的词 出现的次数
- maxcount = interest_words[0][1]
- # 利用次数计算权重 出现次数最多的词权重为1
- interest_words = [(w,round(c/maxcount, 4)) for w,c in interest_words]
- user_profile[uid] = interest_words
-
- return user_profile
-
- user_profile = create_user_profile()
- pprint(user_profile)
reduce函数
描述
reduce() 函数会对参数序列中元素进行累积。
函数将一个数据集合(链表,元组等)中的所有数据进行下列操作:用传给 reduce 中的函数 function(有两个参数)先对集合中的第 1、2 个元素进行操作,得到的结果再与第三个数据用 function 函数运算,最后得到一个结果。
语法
reduce() 函数语法:
reduce(function, iterable[, initializer])
参数
返回值
返回函数计算结果。
示例
- >>>def add(x, y) : # 两数相加
- ... return x + y
- ...
- >>> reduce(add, [1,2,3,4,5]) # 计算列表和:1+2+3+4+5
- 15
- >>> reduce(lambda x, y: x+y, [1,2,3,4,5]) # 使用 lambda 匿名函数
- 15
使用collections.Counter类统计列表元素出现次数
- from collections import Counter
- names = ["Stanley", "Lily", "Bob", "Well", "Peter", "Bob", "Well", "Peter", "Well", "Peter", "Bob","Stanley", "Lily", "Bob", "Well", "Peter", "Bob", "Bob", "Well", "Peter", "Bob", "Well"]
- names_counts = Counter(names)
- # ......
-
- user_profile = create_user_profile()
-
- watch_record = pd.read_csv("datasets/ml-latest-small/ratings.csv", usecols=range(2),dtype={"userId": np.int32, "movieId": np.int32})
-
- watch_record = watch_record.groupby("userId").agg(list)
-
- for uid, interest_words in user_profile.items():
- result_table = {} # 电影id:[0.2,0.5,0.7]
- for interest_word, interest_weight in interest_words:
- related_movies = inverted_table[interest_word]
- for mid, related_weight in related_movies:
- _ = result_table.get(mid, [])
- _.append(interest_weight) # 只考虑用户的兴趣程度
- # _.append(related_weight) # 只考虑兴趣词与电影的关联程度
- # _.append(interest_weight*related_weight) # 二者都考虑
- result_table.setdefault(mid, _)
-
- rs_result = map(lambda x: (x[0], sum(x[1])), result_table.items())
- rs_result = sorted(rs_result, key=lambda x:x[1], reverse=True)[:100]
- print(uid)
- pprint(rs_result)
- break
-
- # 历史数据 ==> 历史兴趣程度 ==> 历史推荐结果 离线推荐 离线计算
- # 在线推荐 ===> 娱乐(王思聪) ===> 我 ==> 王思聪 100%
- # 近线:最近1天、3天、7天 实时计算
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。