当前位置:   article > 正文

外卖必不可少,咋确定好不好吃呢~ python采集数据信息_大学生点外卖数据分析python

大学生点外卖数据分析python

所需知识点

1、动态数据抓包演示
2、json数据解析
3、requests模块的使用
4、保存csv

安装命令:requests >>> pip install requests


模块安装问题:

如果安装python第三方模块:

  1. win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名 (pip install requests) 回车
  2. 在pycharm中点击Terminal(终端) 输入安装命令
    image.png

如何配置pycharm里面的python解释器?

  1. 选择file(文件) >>> setting(设置) >>> Project(项目) >>> python interpreter(python解释器)
  2. 点击齿轮, 选择add
  3. 添加python安装路径

pycharm如何安装插件?

  1. 选择file(文件) >>> setting(设置) >>> Plugins(插件)
  2. 点击 Marketplace 输入想要安装的插件名字 比如:翻译插件 输入 translation / 汉化插件 输入 Chinese
  3. 选择相应的插件点击 install(安装) 即可
  4. 安装成功之后 是会弹出 重启pycharm的选项 点击确定, 重启即可生效

案例实现思路流程: 可见即可爬…

一. 数据来源分析

通过开发者工具进行抓包分析, 分析自己想要数据内容 可以从哪里获取

分析数据 从第二页开始

  1. 打开开发者工具
  2. 点击第二页内容
  3. 点击搜索按钮, 进行搜索内容
  4. 查看服务器返回响应数据内容

二. 代码实现步骤: 发送请求 >>> 获取数据 >>> 解析数据 >>> 保存数据

用代码去模拟浏览器发送请求获取数据

  1. 发送请求, 对于刚刚分析得到url地址发送请求
  2. 获取数据, 获取服务器返回数据
  3. 解析数据, 提取我们想要数据内容 店铺基本信息
  4. 保存数据, 把数据表格里面

image.png

代码

1.导入模块

import requests  # 数据请求模块
import pprint  # 格式化输出模块
import csv  # 内置模块
import time
import re
  • 1
  • 2
  • 3
  • 4
  • 5
def get_shop_info(html_url):
    # url = 'https://www.meituan.com/xiuxianyule/193306807/'
    headers = {
        'Cookie': '_lxsdk_cuid=17e102d3914c8-000093bbbb0ed8-4303066-1fa400-17e102d3914c8; __mta=48537241.1640948906361.1640948906361.1640948906361.1; _hc.v=e83bebb5-d6ee-d90e-dd4b-4f2124f8f982.1640951715; ci=70; rvct=70; mt_c_token=2Tmbj8_Qihel3QR9oEXS4nEpnncAAAAABBEAAB9N2m2JXSE0N6xtRrgG6ikfQZQ3NBdwyQdV9vglW8XGMaIt38Lnu1_89Kzd0vMKEQ; iuuid=3C2110909379198F1809F560B5E33A58B83485173D8286ECD2C7F8AFFCC724B4; isid=2Tmbj8_Qihel3QR9oEXS4nEpnncAAAAABBEAAB9N2m2JXSE0N6xtRrgG6ikfQZQ3NBdwyQdV9vglW8XGMaIt38Lnu1_89Kzd0vMKEQ; logintype=normal; cityname=%E9%95%BF%E6%B2%99; _lxsdk=3C2110909379198F1809F560B5E33A58B83485173D8286ECD2C7F8AFFCC724B4; _lx_utm=utm_source%3DBaidu%26utm_medium%3Dorganic; latlng=28.302546%2C112.868692; ci3=70; uuid=f7c4d3664ab34f13ad7f.1650110501.1.0.0; mtcdn=K; lt=9WbeLmhHHLhTVpnVu264fUCMYeIAAAAAQREAAKnrFL00wW5eC7mPjhHwIZwkUL11aa7lM7wOfgoO53f0uJpjKSRpO6LwCBDd9Fm-wA; u=266252179; n=qSP946594369; token2=9WbeLmhHHLhTVpnVu264fUCMYeIAAAAAQREAAKnrFL00wW5eC7mPjhHwIZwkUL11aa7lM7wOfgoO53f0uJpjKSRpO6LwCBDd9Fm-wA; unc=qSP946594369; firstTime=1650118043342; _lxsdk_s=18032a80c4c-4d4-d30-e8f%7C%7C129',
        'Referer': 'https://chs.meituan.com/',
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/100.0.4896.88 Safari/537.36'
    }
    response = requests.get(url=html_url, headers=headers)
    # print(response.text)
    phone = re.findall('"phone":"(.*?)"', response.text)[0]
    # \n 不是换行符, \n符号而已  \转义字符给转移掉
    openTime = re.findall('"openTime":"(.*?)"', response.text)[0].replace('\\n', '')
    address = re.findall('"address":"(.*?)"', response.text)[0]
    shop_info = [phone, openTime, address]
    return shop_info


# 保存文件 创建文件夹 encoding='utf-8' 指定编码 如果说我用utf-8 还乱码怎么办
# w 会覆盖, a不会覆盖
f = open('究极无敌男人秘密最终版.csv', mode='a', encoding='utf-8', newline='')
csv_writer = csv.DictWriter(f, fieldnames=[
    '店名',
    '人均消费',
    '最低消费',
    '商圈',
    '店铺类型',
    '评分',
    '电话',
    '营业时间',
    '地址',
    '纬度',
    '经度',
    '详情页',
])
csv_writer.writeheader()  # 写入表头

# html_url = 'https://apimobile.meituan.com/group/v4/poi/pcsearch/70?uuid=f7c4d3664ab34f13ad7f.1650110501.1.0.0&userid=266252179&limit=32&offset=64&cateId=-1&q=%E4%BC%9A%E6%89%80&token=9WbeLmhHHLhTVpnVu264fUCMYeIAAAAAQREAAKnrFL00wW5eC7mPjhHwIZwkUL11aa7lM7wOfgoO53f0uJpjKSRpO6LwCBDd9Fm-wA'

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38

1. 发送请求, 对于刚刚分析得到url地址发送请求 翻页去分析请求url地址的变化规律

for page in range(0, 321, 32):  # 从0 32 64 96 128 160 192 .... 320
    time.sleep(1.5)  # 延时等待 1.5S
    url = 'https://apimobile.meituan.com/group/v4/poi/pcsearch/70'
    #  pycharm功能 快速批量替换, ctrl + R 选择需要替换目标, 运用正则表达式进行批量替换
    data = {
        'uuid': 'f7c4d3664ab34f13ad7f.1650110501.1.0.0',
        'userid': '266252179',
        'limit': '32',
        'offset': page,
        'cateId': '-1',
        'q': '会所',
        'token': '9WbeLmhHHLhTVpnVu264fUCMYeIAAAAAQREAAKnrFL00wW5eC7mPjhHwIZwkUL11aa7lM7wOfgoO53f0uJpjKSRpO6LwCBDd9Fm-wA',
    }
    # headers 伪装 python代码的  外套
    # User-Agent 用户代理 浏览器基本的身份信息.... 最简单反反爬的手段 为了防止被识别是爬虫程序
    # Referer 防盗链 告诉服务器我们请求url地址是从哪里跳转过来
    headers = {
        'Referer': 'https://chs.meituan.com/',
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/100.0.4896.88 Safari/537.36'
    }
    response = requests.get(url=url, params=data, headers=headers)
    # print(response)  # <Response [403]> 状态码 表示没有访问权限 防盗链 200 请求成功
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22

image.png

2. 获取数据 response.text 获取文本数据字符串数据类型 response.json() 字典数据类型

    # print(response.json())
    # pprint.pprint(response.json())  # 老师版本是 python 3.8
  • 1
  • 2

3. 解析数据 字典取值, 根据键值对取值 根据冒号左边的内容(键) 提取冒号右边的内容(值)

    searchResult = response.json()['data']['searchResult']
    for index in searchResult:  # 把列表里面数据 一个一个提取出来
        # pprint.pprint(index)
        href = f'https://www.meituan.com/xiuxianyule/{index["id"]}/'
        shop_info = get_shop_info(href)
        title = index['title']  # 店名
        price = index['avgprice']  # 人均消费
        lost_price = index['lowestprice']  # 最低消费
        area = index['areaname']  # 商圈
        shop_type = index['backCateName']  # 店铺类型
        score = index['avgscore']  # 评分
        latitude = index['latitude']  # 纬度
        longitude = index['longitude']  # 经度  ctrl + D 快速复制
        # tab 集体缩进
        # shift + tab 取消缩进
        dit = {
            '店名': title,
            '人均消费': price,
            '最低消费': lost_price,
            '商圈': area,
            '店铺类型': shop_type,
            '评分': score,
            '电话': shop_info[0],
            '营业时间': shop_info[1],
            '地址': shop_info[2],
            '纬度': latitude,
            '经度': longitude,
            '详情页': href,
        }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29

4. 保存数据

        csv_writer.writerow(dit)
        print(dit)
  • 1
  • 2

尾语

好了,我的这篇文章写到这里就结束啦!

有更多建议或问题可以评论区或私信我哦!一起加油努力叭(ง •_•)ง

喜欢就关注一下博主,或点赞收藏评论一下我的文章叭!!!
image.png

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/Cpp五条/article/detail/138094
推荐阅读
相关标签
  

闽ICP备14008679号