赞
踩
前端:vue.js element-ui
后端:springboot mybatis
中间件:spark hadoop hive flink
数据库:mysql关系型数据库 neo4j图数据库
算法:协同过滤推荐算法 SVD MLP lstm情感分析
第三方接口:百度AI 阿里云平台
数据采集:Python爬虫
知识图谱
4种推荐算法
数据可视化大屏
预警预测功能
爬虫
深度学习情感分析
短信验证码修改密码
AI识别身份证认证
爬虫代码
def deleteDate(): sql = "DELETE FROM news " try: # 执行SQL语句 cursor.execute(sql) # 提交修改 db.commit() except: # 发生错误时回滚 db.rollback() def saveDate(title,content,time,recourse,url): try: cursor.execute("INSERT INTO news(news_title, news_content, type_id, news_creatTime, news_recourse,news_link) VALUES ('%s', '%s', '%s', '%s', '%s' ,'%s')" % \ (title, content, random.randint(1,8), time, recourse,url)) db.commit() print("执行成功") except: db.rollback() print("执行失败") def getLink(baseurl): html = requests.get(baseurl, headers=hea) html.encoding = 'utf8' soup = BeautifulSoup(html.text, 'html.parser') for item in soup.select('div.content_list > ul > li'): # 对不符合的数据进行清洗 if (item.a == None): continue data = [] type = item.div.text[1:3] # 类型 link = item.div.next_sibling.next_sibling.a['href'] data.append(type) data.append(link) links.append(data) if __name__ == '__main__': main()
scala分析代码
package com.bigdata.spark.reducebykey_sort import org.apache.spark.{SparkConf, SparkContext} /** * @program: spark-api-demo * @description: 类作用描述 * @author: 小毕 * @company: 清华大学深圳研究生院 * @create: 2019-09-02 18:00 */ object ReduceByKeySortRddDemo { def main(args: Array[String]): Unit = { val conf=new SparkConf() .setAppName("MapFilterApp") .setMaster("local") val sc=new SparkContext(conf) val rdd1=sc.parallelize(List(("tom", 1), ("jerry", 3), ("kitty", 2), ("shuke", 1))) val rdd2=sc.parallelize(List(("jerry", 2), ("tom", 3), ("shuke", 2), ("kitty", 5))) val rdd3=rdd1.union(rdd2) //按key进行聚合 val rdd4=rdd3.reduceByKey(_+_) rdd4.collect.foreach(println(_)) //按value的降序排序 val rdd5=rdd4.map(t=>(t._2,t._1)).sortByKey(false).map(t=>(t._2,t._1)) rdd5.collect.foreach(println) } }
可视化代码
package com.bigdata.storm.kafka.util; import redis.clients.jedis.Jedis; import redis.clients.jedis.JedisPool; import redis.clients.jedis.JedisPoolConfig; /** * @program: storm-kafka-api-demo * @description: redis工具类 * @author: 小毕 * @company: 清华大学深圳研究生院 * @create: 2019-08-22 17:23 */ public class JedisUtil { /*redis连接池*/ private static JedisPool pool; /** *@Description: 返回redis连接池 *@Param: *@return: *@Author: 小毕 *@date: 2019/8/22 0022 */ public static JedisPool getPool(){ if(pool==null){ //创建jedis连接池配置 JedisPoolConfig jedisPoolConfig = new JedisPoolConfig(); //最大连接数 jedisPoolConfig.setMaxTotal(20); //最大空闲连接 jedisPoolConfig.setMaxIdle(5); pool=new JedisPool(jedisPoolConfig,"node03.hadoop.com",6379,3000); } return pool; } public static Jedis getConnection(){ return getPool().getResource(); } /* public static void main(String[] args) { //System.out.println(getPool()); //System.out.println(getConnection().set("hello","world")); }*/ }
计算机毕业设计吊打导师Python+Spark知识图谱微博预警系统 微博推荐系统 微博可视化 微博数据分析 微博大数据 微博爬虫 微博预测系统 大数据毕业设计
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。