当前位置:   article > 正文

python爬取微博数据存入数据库_Python爬取新浪微博评论数据,写入csv文件中

爬虫 微博评论写入数据库

因为新浪微博网页版爬虫比较困难,故采取用手机网页端爬取的方式

操作步骤如下:

1. 网页版登陆新浪微博

2.打开m.weibo.cn

3.查找自己感兴趣的话题,获取对应的数据接口链接

4.获取cookies和headers

# -*- coding: utf-8 -*-

import requests

import csv

import os

base_url = 'https://m.weibo.cn/api/comments/show?id=4131150395559419&page={page}'

cookies = {'Cookie':'xxx'}

headers = {'User-Agent':'xxx'}

path = os.getcwd()+"/weibo.csv"

csvfile = open(path, 'a+', encoding='utf-8',newline='')

writer = csv.writer(csvfile)

writer.writerow(('username','source','comment'))

for i in range(0,83):

try:

url = base_url.format(page=i)

resp = requests.get(url, headers=headers, cookies=cookies)</

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/blog/article/detail/57121
推荐阅读
相关标签
  

闽ICP备14008679号