当前位置:   article > 正文

计算机毕业设计hadoop+spark+hive汽车评价情感分析 新能源汽车推荐系统 汽车数据分析可视化 新能源汽车推荐系统 汽车爬虫 机器学习 深度学习 人工智能 知识图谱 大数据毕业设计

计算机毕业设计hadoop+spark+hive汽车评价情感分析 新能源汽车推荐系统 汽车数据分析可视化 新能源汽车推荐系统 汽车爬虫 机器学习 深度学习 人工智能 知识图谱 大数据毕业设计

贵州商学院毕业论文(设计)任务书

学生信息

学号

学院

计算机与信息工程学院

班级

数据科学与大数据技术XXXX-X班

姓名

专业

数据科学与大数据技术

教师

信息

姓名

 职称

学历

任务书

发出时间

2022年11月21日

论文(设计)

题目

本课题研究的目的在于使用户更好的了解市场上的汽车信息,便于用户选择出适合自己的智能汽车。另外通过此次基于大数据的汽车数据分析的设计与实现,了解了系统设计的框架原理,掌握了基本程序框架的设计与实现,巩固对hadoop、spark等大数据开发框架的了解以及它们在使用方面知识的学习和掌握。掌握汽车数据分析系统的开发过程、python爬虫技术、熟练掌握数据库的运用。根据对大数据的分析与讨论,提供与用户的交互界面,完成系统的设计和开发,开发出来的系统能展示出它所具备的功能并能应用到现实中。本系统的主要功能如下:

1、推荐系统:包含协同过滤算法的两种实现(基于用户、基于物品)、基础业务功能(短信注册、支付宝沙箱支付定金、AI识别、浏览等);

2、后台管理系统:对用户、汽车等数据进行管理;

3、爬虫:爬取懂车帝汽车数据作为基础数据集,并可以实时更新;

4、数据大屏驾驶舱:使用Spark实时计算框架完成数据统计,以echarts形式进行可视化显示;

二、主要要求:

毕业论文主体是毕业论文文本的核心部分,一般应包括中文摘要与中文关键词、英文摘要与英文关键词、前言或引言、毕业论文正文、结论或结语、参考文献等部分。

1.论文摘要

摘要必须是对全文内容的高度概括,应反映出毕业论文的内容、方法、成果和结论,要语句通顺,文字流畅。摘要中不宜使用公式、图表、不标注引用文献编号。中文摘要字数控制在300字以内,英文摘要应与中文摘要内容一致,并符合英语语法规范,表述流畅。

2.关键词

关键词是供检索用的主题词条,应采用能覆盖毕业论文主要内容的词条。关键词一般为3-5个。英文的关键词应与中文关键词一致。

关键词之间需用分号隔开,最后一个关键词后不打标点符号。

3.前言或引言

前言或引言部分应对选题相关的国内外文献进行综述。其主要内容包括:选题的背景及目的、国内外研究状况、尚待进一步研究和解决的问题、设计和研究方法等。

4.毕业论文正文

毕业论文的正文部分要结构合理,层次清楚,重点突出,文字简练、通顺,无科学性错误。

正文部分的内容及要求应包括以下各方面:

(1)数据的处理及分析

(2)模型的建立与评估

(3)对本研究内容及成果应进行较全面、客观的理论阐述,应着重指出本研究内容中的创新、改进与实际应用之处。凡引用、转述、参考他人的成果或资料,均须注明出处。

(4)毕业论文应推理正确,结论清晰,无科学性错误。

5.毕业论文中的各级标题

毕业论文中各级标题要突出重点、简明扼要。标题中尽量不采用英文缩写词,若必须缩写,应使用本学科的通用缩写词。

6.结论或结语

结论或结语是毕业论文的总结,要求精炼、准确地概述全文的主要观点。

7.参考文献

毕业论文的撰写应本着严谨求实的科学态度,凡有直接引用他人成果之处,均应进行标注,并按引文在正文中出现的先后顺序列于参考文献中。一篇论著在论文中多处直接引用时,在参考文献中只应出现一次,应将标注序号归并到一起集中列出。仅参考但未直接引用的与毕业论文选题有关的著作和论文也应在参考文献中列出,排于直接引用的参考文献之后,并连续编序号。

8.后置部分

(1)致谢

致谢中主要感谢导师和对论文工作有直接贡献及帮助的人士和单位。

(2)附录

对于一些不宜放入正文中、但作为毕业论文(设计)又是不可缺少的部分,或有重要参考价值的内容,可编入毕业论文(设计)的附录中。例如,过长的公式推导、重复性的数据、图表、程序全文及其说明等。

三、预期目标:

1.论文应该内容丰富、结构合理、资料翔实,论证具有说服力。

2.通过阅读、查阅相关文献及资料,参考现有大数据系统以及解决问题的思路及方法,在此基础上对本课题进行深入研究。

3.获取汽车相关数据,并将其进行集成、清洗、分析等处理,构建后台开发框架应用于本系统。

4.针对本课题的需求分析结果提出建议、策略或者看法,要有一定创新性。

5.正文字数不少于8000字,成果形式为论文。

四、计划进程:

1、2022年10月31日——2022年11月20日,师生双选,学生确定选题

2、2022年11月21日——2022年11月30日,导师下达任务书

3、2022年12月1日——2022年12月20日,完成开题报告及开题评审

4、2022年12月21日——2023年3月1日,调研,撰写论文初稿

5、2023年3月2日——2023年4月22日,修改论文,完成定稿,准备答辩PPT

6、2023年4月23日——2023年5月7日,论文答辩及最终修改

7、2023年5月8日——2023年5月10日,提交论文最终稿、推荐优秀论文

五、主要参考文献:

[1]基于Python的网上购物数据爬取[J]. 高雅婷,刘雅举.  现代信息科技. 2021(16)

[2]基于Python的微博网络舆情监控系统设计与实现[J]. 李文骞.  电脑编程技巧与维护. 2021(12)

[3]基于Python的网络爬虫和反爬虫技术研究[J]. 周毅,宁亮,王鸥,孙海波,何金.  现代信息科技. 2021(21)

[4]基于Python的新浪微博中爬虫程序维护方法[J]. 何波.  软件. 2022(02)

[5]网络安全下的Python语言教学[J]. 成少梅.  网络安全技术与应用. 2022(06)

[6]Python数据工具在高职院校市场调研中的应用[J]. 宋超,华臻.  电脑编程技巧与维护. 2021(02)

[7]基于51job网站招聘信息的爬取与分析——以Python技术岗位为例[J]. 毛遂,毛红霞.  网络安全技术与应用. 2021(04)

[8]大数据背景下依托于Python的网络爬虫技术研究[J]. 周竞鸿.  信息系统工程. 2021(03)

[9]基于Python的分布式多主题网络爬虫的研究与设计[J]. 张胜敏,王爱菊.  开封大学学报. 2021(01)

[10]基于Python的网页信息爬取技术研究[J]. 单艳,张帆.  电子技术与软件工程. 2021(14)

[11]云计算环境下气象大数据服务应用[J]. 华丽,陈澄.  农业与技术. 2019(20)

[12]主题网络爬虫研究综述[J]. 于娟,刘强.  计算机工程与科学. 2020(02)

[13]高性能网络爬虫:研究综述[J]. 周德懋,李舟军.  计算机科学. 2019(08)

[14]风电场发电功率的建模和预测研究综述[J]. 王丽婕,廖晓钟,高阳,高爽.  电力系统保护与控制. 2019(13)

[15]风电场风速和发电功率预测研究[J]. 杨秀媛,肖洋,陈树勇.  中国电机工程学报. 2020(11)

六、教研室审核意见:

同意

      教学系主任(签字):  

2021年11月28日

*注:本表格在线填写审核。

核心算法代码分享如下:

  1. from flask import Flask, request
  2. import json
  3. from flask_mysqldb import MySQL
  4. # 创建应用对象
  5. app = Flask(__name__)
  6. app.config['MYSQL_HOST'] = 'bigdata'
  7. app.config['MYSQL_USER'] = 'root'
  8. app.config['MYSQL_PASSWORD'] = '123456'
  9. app.config['MYSQL_DB'] = 'hive_car'
  10. mysql = MySQL(app) # this is the instantiation
  11. @app.route('/tables01')
  12. def tables01():
  13. cur = mysql.connection.cursor()
  14. cur.execute('''SELECT * FROM table01''')
  15. #row_headers = [x[0] for x in cur.description] # this will extract row headers
  16. row_headers = ['province','num'] # this will extract row headers
  17. rv = cur.fetchall()
  18. json_data = []
  19. #print(json_data)
  20. for result in rv:
  21. json_data.append(dict(zip(row_headers, result)))
  22. return json.dumps(json_data, ensure_ascii=False)
  23. @app.route('/tables02')
  24. def tables02():
  25. cur = mysql.connection.cursor()
  26. cur.execute('''SELECT * FROM table02 ORDER BY ctime desc limit 7 ''')
  27. #row_headers = [x[0] for x in cur.description] # this will extract row headers
  28. row_headers = ['ctime','num','rk'] # this will extract row headers
  29. rv = cur.fetchall()
  30. json_data = []
  31. #print(json_data)
  32. for result in rv:
  33. json_data.append(dict(zip(row_headers, result)))
  34. return json.dumps(json_data, ensure_ascii=False)
  35. @app.route('/tables03')
  36. def tables03():
  37. cur = mysql.connection.cursor()
  38. cur.execute('''SELECT * FROM table03 order by num desc''')
  39. #row_headers = [x[0] for x in cur.description] # this will extract row headers
  40. row_headers = ['car_name','num'] # this will extract row headers
  41. rv = cur.fetchall()
  42. json_data = []
  43. #print(json_data)
  44. for result in rv:
  45. json_data.append(dict(zip(row_headers, result)))
  46. return json.dumps(json_data, ensure_ascii=False)
  47. @app.route('/tables04')
  48. def tables04():
  49. cur = mysql.connection.cursor()
  50. cur.execute('''SELECT * FROM table04''')
  51. #row_headers = [x[0] for x in cur.description] # this will extract row headers
  52. row_headers = ['car_type','num'] # this will extract row headers
  53. rv = cur.fetchall()
  54. json_data = []
  55. #print(json_data)
  56. for result in rv:
  57. json_data.append(dict(zip(row_headers, result)))
  58. return json.dumps(json_data, ensure_ascii=False)
  59. @app.route("/getmapcountryshowdata")
  60. def getmapcountryshowdata():
  61. filepath = r"D:\\hadoop_spark_hive_mooc2024\\server\\data\\maps\\china.json"
  62. with open(filepath, "r", encoding='utf-8') as f:
  63. data = json.load(f)
  64. return json.dumps(data, ensure_ascii=False)
  65. @app.route('/tables05')
  66. def tables05():
  67. cur = mysql.connection.cursor()
  68. cur.execute('''SELECT * FROM table05''')
  69. #row_headers = [x[0] for x in cur.description] # this will extract row headers
  70. row_headers = ['name','num'] # this will extract row headers
  71. rv = cur.fetchall()
  72. json_data = []
  73. #print(json_data)
  74. for result in rv:
  75. json_data.append(dict(zip(row_headers, result)))
  76. return json.dumps(json_data, ensure_ascii=False)
  77. @app.route('/tables06')
  78. def tables06():
  79. cur = mysql.connection.cursor()
  80. cur.execute('''SELECT * FROM table06''')
  81. #row_headers = [x[0] for x in cur.description] # this will extract row headers
  82. row_headers = ['comment_result','num'] # this will extract row headers
  83. rv = cur.fetchall()
  84. json_data = []
  85. #print(json_data)
  86. for result in rv:
  87. json_data.append(dict(zip(row_headers, result)))
  88. return json.dumps(json_data, ensure_ascii=False)
  89. @app.route('/tables07')
  90. def tables07():
  91. cur = mysql.connection.cursor()
  92. cur.execute('''SELECT * FROM table07''')
  93. #row_headers = [x[0] for x in cur.description] # this will extract row headers
  94. row_headers = ['car_name','car_rank'] # this will extract row headers
  95. rv = cur.fetchall()
  96. json_data = []
  97. #print(json_data)
  98. for result in rv:
  99. json_data.append(dict(zip(row_headers, result)))
  100. return json.dumps(json_data, ensure_ascii=False)
  101. @app.route('/tables08')
  102. def tables08():
  103. cur = mysql.connection.cursor()
  104. cur.execute('''SELECT * FROM table08''')
  105. #row_headers = [x[0] for x in cur.description] # this will extract row headers
  106. row_headers = ['fw','num'] # this will extract row headers
  107. rv = cur.fetchall()
  108. json_data = []
  109. #print(json_data)
  110. for result in rv:
  111. json_data.append(dict(zip(row_headers, result)))
  112. return json.dumps(json_data, ensure_ascii=False)
  113. @app.route('/tables09')
  114. def tables09():
  115. cur = mysql.connection.cursor()
  116. cur.execute('''SELECT * FROM table09''')
  117. #row_headers = [x[0] for x in cur.description] # this will extract row headers
  118. row_headers = ['car_name','score'] # this will extract row headers
  119. rv = cur.fetchall()
  120. json_data = []
  121. #print(json_data)
  122. for result in rv:
  123. json_data.append(dict(zip(row_headers, result)))
  124. return json.dumps(json_data, ensure_ascii=False)
  125. if __name__ == "__main__":
  126. app.run(debug=False)

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/花生_TL007/article/detail/508429
推荐阅读
相关标签
  

闽ICP备14008679号