赞
踩
流程:
1.Python采集网易云音乐歌手、歌词、音乐、评论等约10-20万+海量数据,存入mysql数据库;
2.使用pandas+numpy/MapReduce对mysql中四类数据进行数据清洗,写入.csv文件并上传至hdfs(含评论NLP文本分类/lsm情感分析);
3.使用hive建库建表,导入.csv数据集;
4.一半分析指标使用hive_sql完成,一半分析指标使用Spark之Scala语法完成;
5.将分析结果使用sqoop导入mysql数据库的指标表;
6.使用Flask+Echarts搭建可视化大屏界面;
创新点:
1.Python爬虫采集海量数据;
2.lstml情感分析/NLP文本分类;
3.spark实时分析+(hadoop、hive离线分析数据仓库)双实现,可实时可离线防止导师喷人;
4.可视化大屏炫酷显摆;
注意:如果还觉得本系统太简单太low工作量不够,可以选装推荐系统、知识图谱、预测系统、后台管理
核心算法代码分享如下:
- def file_remove_same(input_file_name, output_file_name):
- """
- 小文件去重
- :param input_file_name: 输入文件夹文件名
- :param output_file_name: 输出文件夹文件名
- :return:
- """
- with open(input_file_name, 'r', encoding='utf-8') as input, open(output_file_name, 'a', encoding='utf-8') as output:
- input_lines = []
- for line in input:
- if line not in input_lines:
- input_lines.append(line)
- output.write(line)
- output.flush()
- input.close()
- output.close()
-
- # 去重
- file_remove_same('dataset/user_info_init.txt', 'dataset/user_info.txt')
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。