赞
踩
目标数据:2020.3.20微博用户发布的包含关键词“疫情”的微博文本数据。
针对上述目标数据,涉及到微博的https://weibo.com和https://weibo.cn站点,其中weibo.com的时间粒度是一个小时,weibo.cn的时间粒度是一天,为了抓取到尽可能多的关键词搜索结果,需要使用weibo.com的高级搜索功能来实现按照关键字和时间进行爬取。考虑到该站点查看数据的最小粒度是一个小时,一个小时内可以查看到的数据是50页,每页最多为20条微博数据,因此每个小时得到的最多数据量是1000条,24小时就是24000条数据。
爬取流程:发送请求—获得页面—解析页面—抽取并储存内容。
爬虫设计:设置随机user-agent模拟浏览器(通过请求头知道是通过哪个浏览器来请求的);使用代理ip、携带cookie爬取数据;针对处理好的请求地址进行爬取,给网址发送请求,以二进制返回网页内容,对其进行解析获取需要的数据,并将其保存在csv文件中。
“疫情”:%25E7%2596%25AB%25E6%2583%2585
请求的地址:设置starttime和endtime得到请求网址(按照一小时的时间粒度进行爬取)
https://s.weibo.com/weibo/%25E7%2596%25AB%25E6%2583%2585?q=%E7%96%AB%E6%83%85&typeall=1&suball=1×cope=custom:starttime:endtime&Refer=g&page=
使用到的python库:urllib、requests(requests 负责连接网站,返回网页)、Beautifulsoup(解析网页内容)。
import os import urllib import urllib.request import xlwt import requests import re from bs4 import BeautifulSoup import random # 设置代理IP proxy_addr="122.241.72.191:808" header = [ 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.89 Safari/537.36', 'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US; rv:1.9.1.6) Gecko/20091201 Firefox/3.5.6', 'Mozilla/5.0 (Windows NT 6.2) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.12 Safari/535.11', 'Mozilla/5.0 (compatible; MSIE 10.0; Windows NT 6.2; Trident/6.0)', 'Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:34.0) Gecko/20100101 Firefox/34.0', 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Ubuntu Chromium/44.0.2403.89 Chrome/44.0.2403.89 Safari/537.36', 'Mozilla/5.0 (Macintosh; U; Intel Mac OS X 10_6_8; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50', 'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50', 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0', 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:2.0.1) Gecko/20100101 Firefox/4.0.1', 'Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1', 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11', 'Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11', 'Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11', 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36'] def txt_csv(filename,csvname): try: with open(filename,'r',encoding='utf-8') as f: csv=xlwt.Workbook() #生成excel的方法,声明excel sheet = csv.add_sheet('sheet1',cell_overwrite_ok=True) # 页数、条数、微博地址、发布时间、微博内容、点赞数、评论数、转发数 sheet.write(0, 0, '爬取页数') sheet.write(0, 1, '爬取当前页数的条数') sheet.write(0, 2, '用户名') sheet.write(0, 3, '微博内容') sheet.write(0, 4, '链接') sheet.write(0, 5, '微博发布时间') x = 1 while True: #按行循环,读取文本文件 line = f.readline() if not line: break #如果没有内容,则退出循环 for i in range(0, len(line.split('\t'))): item=line.split('\t')[i] sheet.write(x,i,item) # x单元格行,i 单元格列 x += 1 #excel另起一行 csv.save(csvname) #保存xls文件 except: raise def get_start_end_time(header,start,end,file): for t1 in range(0,24): # 加一句 在保存一个小时的数据的时候输出 print("==============================================================================================================") print("当前爬取"+str(t1)+"小时的数据:") i = 1 # 按小时进行爬取 headers = { "User-Agent":header[random.randint(0,len(header)-1)], "cookie":cookie值 }# 带cookie进行爬取 starttime = start + "-" + str(t1) endtime = end + "-" + str(t1+1) url = "https://s.weibo.com/weibo/%25E7%2596%25AB%25E6%2583%2585?q=%E7%96%AB%E6%83%85&typeall=1&suball=1×cope=custom:"+starttime+":"+endtime+"&Refer=g&page=" resp = requests.get(url,headers=headers) # 给网址发送请求,获取 &Refer=2&page=1 resp.content.decode("utf-8") #打印网页内容 以二进制返回内容 html = resp.text soup = BeautifulSoup(html,'html.parser') page_num = soup.find("div",{"class":"m-page"}) num = len(page_num.find_all("li")) #获取页数--当前这个小时有多少页内容 while i<= num: import time time.sleep(2) # 设置时间间隔,为了防止过多访问被跳出 try: j = 0 url = "https://s.weibo.com/weibo/%25E7%2596%25AB%25E6%2583%2585?q=%E7%96%AB%E6%83%85&typeall=1&suball=1×cope=custom:"+starttime+":"+endtime+"&Refer=g&page=&page="+str(i) headers = { "User-Agent":header[random.randint(0,len(header)-1)], "cookie":cookie值 } resp = requests.get(url,headers=headers) # 给网址发送请求,获取 &Refer=2&page=1 resp.content.decode("utf-8") #打印网页内容 以二进制返回内容 html = resp.text soup = BeautifulSoup(html,'html.parser') # 解析网页内容 选择解析器'html.parser'(内置的解析器 速度比较慢)(LxmL更快一些 需要安装) #针对当前页存在的微博进行查看 for h in soup.find_all("div",{"class":"content"}): j+=1 print("-----正在爬取第"+str(i)+"页,第"+str(j)+"条微博------") # 获取微博用户的id text = h.find("p",{"class":"txt"}) id = text["nick-name"] # print("用户id:",id) # 获取微博内容 text = h.find("p",{"class":"txt","node-type":"feed_list_content"}) if "展开全文" in str(text): text = h.find("p",{"class":"txt","node-type":"feed_list_content_full"}) text = text.text new_text = re.sub(" +", "", text) # 合并空格 new_text1 = re.sub("\n","",new_text) # print("微博内容:",text) # 获取微博的url链接 content_url = h.find("p",{"class":"from"}).find("a") content_url = content_url["href"] # 获取发布微博的时间 for t in h.find_all("p",{"class":"from"}): time1 = t.text new_time = re.sub(" +", "", time1) # 合并空格 new_time1 = re.sub("\n","",new_time) print(new_time1) # 保存文本 with open(file,'a',encoding='utf-8') as fh: fh.write(str(i)+'\t'+str(j)+'\t'+str(id)+'\t'+str(new_text1)+'\t'+str(content_url)+'\t'+str(new_time1)+'\n') print("保存第"+str(i)+"页,第"+str(j)+"条微博------") # 休眠1s以免给服务器造成严重负担 time.sleep(1) i+=1 except Exception as e: print(e) pass if __name__=="__main__": day = 20 print("当前爬取的是3月"+str(day)+"日的数据") print("==============================================================================") start = "2020-03-"+str(day) end = "2020-03-"+str(day) file = "020年3月"+str(day)+"日数据.txt" get_start_end_time(header,start,end,file) filename = "2020年3月"+str(day)+"日数据.txt" csvname = "2020年3月"+str(day)+"日数据.csv" txt_csv(filename,csvname) os.remove("2020年3月"+str(day)+"日数据.txt")
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。