赞
踩
闲着没事想写一个爬虫去爬取一下百度图片,但是通过连接访问发现返回的是 百度安全验证,然后发现selenium下的web driver可以直接调起浏览器访问网址,并且可以拿到网站内容,所以根据这个写了一个爬虫,代码可以在window上直接运行。
- import time
- #用于调起浏览器
- from selenium import webdriver
- # 用来解析网页内容
- from bs4 import BeautifulSoup
- import os, requests,re
'运行
可以考虑使用阿里云镜像加快安装速度,只需要把bs4换成对应的第三方库就可以。
pip install -i https://mirrors.aliyun.com/pypi/simple/ bs4
通过F12查看页面源代码可以发现,图片的标签是<img class="main_img img-hover" 标签下,我们需要拿到这个标签里的data-imgurl属性的内容。标题则是在<a class= "imgitem-title "标签下,我们需要title的内容拿来当标题
可以使用 bs4包里的 BeautifulSoup 用来解析网页拿到这两个标签获取我们想要的属性内容
- #HTML解析器
- b = BeautifulSoup(text, "html.parser")
- # 得到页面中所有 img标签并且class是main_img img-hover开头的图片列表
- img = b.find_all("img", class_="main_img img-hover")
- # 得到页面中所有 a标签并且class是imgitem-title开头的图片标题列表
- title = b.find_all("a", class_="imgitem-title")
我这里使用的是edge浏览器,如果想使用谷歌,可以把 webdriver.Edge() 换成 webdriver.Chrome();需要注意的是webdriver和浏览器的版本对应不上可能会调不起来。
- import time
- from selenium import webdriver
- from bs4 import BeautifulSoup
- import os, requests,re
-
- # 图片存储地址
- path = r"D:\pythonTest\photos"
- # 正则表达式 过滤并得到图片标题中所有的中文
- pattern = '[\u4e00-\u9fa5]+'
- def parseHtml(text):
- # 因为title标签有很多错误数据,所以记录一下下标
- titleIndex = 0;
- #HTML解析器
- b = BeautifulSoup(text, "html.parser")
- # 得到页面中所有 img标签并且class是main_img img-hover开头的图片列表
- img = b.find_all("img", class_="main_img img-hover")
- # 得到页面中所有 a标签并且class是imgitem-title开头的图片标题列表
- title = b.find_all("a", class_="imgitem-title")
- # 循环拿到的图片列表,解析标题下载图片
- for index, value in enumerate(img):
- imageUrl = img[index]["data-imgurl"]
- imageName = "default" + str(index)
- # 一个循环用于拿到每个图片的正确标题
- if len(title) > index:
- titleIndex = getImageTitle(title, titleIndex)
- imageName = "".join(re.findall(pattern, title[titleIndex].text))
- if imageName == "":
- imageName = "default" + str(index)
- titleIndex += 1
- imageName += ".jpg"
- print("准备下载第%s个图片,名字叫:%s 地址:%s" % (str(index+1), imageName, imageUrl))
- savePhoto(imageUrl, imageName)
-
-
- # 页面里有很多class=imgitem-title的标签,图片的标题一般有title属性,根据title属性过滤标签
- def getImageTitle(title, index):
- if "title" in title[index].attrs:
- return index
- else:
- getImageTitle(title, index + 1)
- return index + 1
-
- # 保存照片
- def savePhoto(imageUrl, filename):
- p = os.path.join(path, filename)
- c = requests.get(imageUrl)
- createFile(path)
- with open(p, 'wb') as f:
- f.write(c.content)
- time.sleep(0.3)
- print("下载完了 休息0.3秒")
-
- # 创建本地文件
- def createFile(path):
- print("path:",path)
- file = os.path.exists(path)
- if not file:
- os.makedirs(path)
-
- # 滑动浏览器窗口,加载更多图片,滑动一次加载20多张图片
- # numer为想滑动的次数
- def slideBrowseWindow(driver, number):
- for i in range(number):
- time.sleep(0.1)
- driver.execute_script("window.scrollBy(0,{})".format(i * 1000))
- time.sleep(0.3)
-
- if __name__ == "__main__":
- #这里的豪车可以改成自己想搜索的内容
- searchName = "豪车"
- #这里使用的是edge浏览器,如果想使用谷歌浏览器,可以换成webdriver.Chrome()
- driver = webdriver.Edge()
- driver.get("https://image.baidu.com/search/index?tn=baiduimage&ipn=r&ct=201326592&cl=2&lm=-1&st=-1&fm=result&fr=&sf=1&fmq=1709260324755_R&pv=&ic=&nc=1&z=&hd=&latest=©right=&se=1&showtab=0&fb=0&width=&height=&face=0&istype=2&dyTabStr=MCwxLDMsMiw4LDYsNCw1LDcsOQ%3D%3D&ie=utf-8&sid=&word="+ searchName +"&f=3&oq=%E7%BE%8E%E5%A5%B3&rsp=0")
- # 百度图片是下滑加载更多
- slideBrowseWindow(driver, 10)
- # 获取页面的源代码
- page_source = driver.page_source
- # 输出页面源代码
- parseHtml(page_source)
- driver.quit()
- print("done.")
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。