赞
踩
大家好!第一次写文章,紧张滴捏!
这段时间在做课设,课设里需要下载沪市600000到601000号的年报原文做数字化关键词的词频分析,想着用程序帮我批量下载一下,但是找了一下貌似没有类似的代码,就写了一个应用selenium库来做模拟下载的python代码。
写的很烂,爬的很慢,稳定性也不太好,但总算还是爬出来了!下面先上代码,边看代码边讲解!
(注:使用这个方法要先安装selenium库与对应浏览器的驱动器哦!我这里下载的是Edge的驱动器)
首先是需要调用的各种python库~
- #包含控制浏览器的类和方法
- from selenium import webdriver
-
- #用于执行复杂鼠标和键盘操作的类
- from selenium.webdriver.common.action_chains import ActionChains
-
- #用于添加延时或暂停
- import time
-
- #用于等待特定条件发生后再继续执行
- from selenium.webdriver.support.ui import WebDriverWait
-
- #定义用于等待的条件
- from selenium.webdriver.support import expected_conditions as EC
-
- #定义一组用于选择元素的方法
- from selenium.webdriver.common.by import By
检测关键词的函数
下面,我写了一个用于判断可供选择的链接是年报还是年报摘要的函数。因为研究中需要的是年报,就把后文调用函数用到的关键词定为了“摘要”。
- #定义一个check_world函数
- def check_word(sentence, word):
- if word in sentence: #如果关键词word在文本中,返回true,否则返回false
- return True
- else:
- return False
下载年报的函数
接下来就是用于自动化测试的函数啦!在这里,我定义了一个nianbao函数,当调用函数时,输入股票代码code,函数将会执行自动测试操作并下载网页。
- def nianbao(code):
-
- # 启动Edge浏览器并加载选项
- browser = webdriver.Edge()
- url = 'http://www.cninfo.com.cn/new/commonUrl?url=disclosure/list/notice#sse'
- browser.get(url)
- browser.maximize_window()
-
- #输入时间
- #注:这段有没有都无所谓()因为我发现就算写了他也不会给我执行这段操作,但是因为网站的自动检索年报的范围就是我需要的范围,所以没差()
- browser.find_element_by_xpath('//*[@id="main"]/div[2]/div[1]/div[2]/div[1]/div[2]/form/div[1]/div/div/input[1]').send_keys('2022-12-31')
- browser.find_element_by_xpath('//*[@id="main"]/div[2]/div[1]/div[2]/div[1]/div[2]/form/div[1]/div/div/input[2]').send_keys('2022-06-15')
- #browser.find_element_by_xpath("//body").click()
- #browser.find_element_by_xpath("//body").click()
-
-
- #输入年报,将检索范围锁定在年报中
- #第一段用于点击分类按钮
- browser.find_element_by_xpath('//*[@id="main"]/div[2]/div[1]/div[2]/div[1]/div[2]/form/div[2]/div[3]/div/div/span/button').click()
- #第二段用于点击年报选项
- browser.find_element_by_xpath('/html/body/div[6]/div[1]/label[1]/span[1]/span').click()
-
- #输入代码
- #第一段用于点击输入框
- browser.find_element_by_xpath('/html/body/div[2]/div/div[2]/div[1]/div[2]/div[1]/div[2]/form/div[2]/div[1]/div/div/div/div/input').send_keys(code)
-
- #这一段用于暂停页面操作,等待等待元素加载完成后继续执行操作(我设置的是三秒)
- time.sleep(3)
-
- #这一段用于点击搜索按钮,使用了更为稳健的模拟鼠标操作
- button_element = browser.find_element_by_xpath('/html/body/div[2]/div/div[2]/div[1]/div[2]/div[1]/div[2]/div[1]/button')
- actions = ActionChains(browser)
- actions.move_to_element(button_element).click().perform()
-
- # 等待页面元素加载完成
- time.sleep(3)
-
-
- #进入公告
- #写了一个try,因为有时候可能对应的代码没有公司
- try:
- #调用check_word函数,判断要进入具体页面的报告是摘要还是年报
- word = "摘要"
- #获取页面中第二个xpath对应的text内容(如600000号股票就会返回“上海浦东发展银行股份有限公司2022年年度报告(全文)”)
- browser_text = browser.find_element_by_xpath('/html/body/div[2]/div/div[2]/div[1]/div[1]/div[2]/div/div[3]/table/tbody/tr[2]/td[3]/div/span/a').text
-
-
- #如果是摘要,返回true,执行第一个xpath
- #注:有的页面可能有三个按钮,但是前两个按钮中一个有一个是年报或者年报修订版(确信)
- if check_word(browser_text, word):
- browser.find_element_by_xpath('/html/body/div[2]/div/div[2]/div[1]/div[1]/div[2]/div/div[3]/table/tbody/tr[1]/td[3]/div/span/a').click()
-
- #上一步操作后会打开一个新的页面,我们要获取新页面的url用于下载,将browser变更为新页面
- window_handles = browser.window_handles
- latest_window_handle = window_handles[-1]
- browser.switch_to.window(latest_window_handle)
-
- #当不含有摘要,返回false,点击第二个xpath
- else:
- browser.find_element_by_xpath('/html/body/div[2]/div/div[2]/div[1]/div[1]/div[2]/div/div[3]/table/tbody/tr[2]/td[3]/div/span/a').click()
- window_handles = browser.window_handles
- latest_window_handle = window_handles[-1]
- browser.switch_to.window(latest_window_handle)
-
- #获取网页url
- browser_url = browser.current_url
-
- #当所属公司code无法搜索出年报,那么这家公司可能是退市了,输出没有找到年报
- except Exception as e:
- print("没有找到",code,"的对应年报")
- browser.quit()
-
- #跳出方法
- return
-
- #这一段用于检测code有没有对应的公司,如果没有公司,那么点击搜索按钮只会停留在原来的页面上。这时执行上文获取的url就会下载错误的年报。
- #这里我用了暴力的解决方法,直接查看原有页面的前两个xpath具体页面的url内容,然后ban掉他们!这里在使用的时候一定要记得检查当日的前两位url
- if browser_url == "http://www.cninfo.com.cn/new/disclosure/detail?stockCode=688669&announcementId=1217087254&orgId=gfbj0833817&announcementTime=2023-06-17" or browser_url == "http://www.cninfo.com.cn/new/disclosure/detail?stockCode=603825&announcementId=1217085098&orgId=9900024448&announcementTime=2023-06-17":
- print("没有",code,"对应的公司")
- browser.quit()
- else:
- browser2 = webdriver.Edge()
- browser2.get(browser_url)
-
- #进入url的页面,点击下载按钮,下载年报。其中,如果网不好+文件大的情况,就需要将time.sleep(10)的参数调大,不然下不完,网站就关了
- browser2.find_element_by_xpath('/html/body/div[1]/div/div[1]/div[3]/div[1]/button').click()
- time.sleep(10)
- print("已成功下载",code,"公司的年报")
-
- #关闭网站,防止资源浪费
- browser.quit()
- browser2.quit()
测试
写完函数,让我们调用它来测试一下:
- code = "600000"
- nianbao(code)
输出结果:
在浏览器默认的下载路径中,已经出现了我们想要爬取的文件啦~
再来看看大批量调用的结果!毕竟我们写这个函数,最开始就是为了大面积自动下载文件嘛
- for code in range(600301,601001):
- nianbao(code)
输出结果:
军火展示:
C盘内存告急(
当然,这种方法并不是一个批量下载文件的好方法。一方面,它会大量占用时间占用电脑()刚考了个六级又吃了个饭回来下了大概600份不到,如果遇到网不好的情况那更是痛苦,隔三差五就要检查有没有中途崩溃()
同时,xpath也很难搞,在写代码时经常会遇到使用xpath但点击不了元素的情况。如上文中,我本想直接进入年报链接来下载,但是那个页面的下载按钮无论如何都没法点击。我就参考了王宇韬老师的《Python金额大数据挖掘与分析全流程详解》中第十章的内容,选择获取连接重新打开一个页面来下载,用了这个方法才能够正常下载。
在使用代码的时候,最好检查一下xpath和缩进有没有错误哦。
第一次用python做这种大批量的文件下载,还在不断地学习中。写的不太好,大家多多包涵,如果有更好的方法欢迎大家讨论分享!
下一篇大概会写Android Studio的B站视频数据爬虫或者自制的LaTeX数模论文模板(?)
谢谢大家收看(鞠躬)
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。