当前位置:   article > 正文

分享57个Python源码,总有一款适合您_python办公自动化源代码下载

python办公自动化源代码下载

Python源码
分享57个Python源码,总有一款适合您

57个Python源码下载链接:https://pan.baidu.com/s/1YZcrJAYFFy3OrdEN5IxnQQ?pwd=6666
提取码:6666

采集代码下载链接:采集代码.zip - 蓝奏云


下面是文件的名字,我放了一些图片,文章里不是所有的图主要是放不下...,大家下载后可以看到。

 参数代码

  1. base_url = "https://down.chinaz.com" # 采集的网址
  2. save_path = "D:\\Freedom\\Sprider\\ChinaZ\\"
  3. sprider_count = 88 # 采集数量
  4. sprider_start_count=0# 从第几个序号开始 直接改数量即可 会做除法操作正 正在采集第32页的第16个资源 debug
  5. word_content_list = []
  6. folder_name = ""
  7. page_end_number=0
  8. max_pager=15 #每页的数量
  9. haved_sprider_count =0 # 已经采集的数量
  10. page_count = 1 # 每个栏目开始业务content="text/html; charset=gb2312"
  11. 核心代码
  12. def sprider(self,title_name="NET"):
  13. """
  14. 采集
  15. PHP https://down.chinaz.com/class/572_5_1.htm
  16. NET https://down.chinaz.com/class/572_4_1.htm
  17. ASP https://down.chinaz.com/class/572_3_1.htm
  18. Pytyhon https://down.chinaz.com/class/604_572_1.htm
  19. :return:
  20. """
  21. if title_name == "PHP":
  22. self.folder_name = "PHP源码"
  23. self.second_column_name = "572_5"
  24. elif title_name == "Go":
  25. self.folder_name = "Go源码"
  26. self.second_column_name = "606_572"
  27. elif title_name == "NET":
  28. self.folder_name = "NET源码"
  29. self.second_column_name = "572_4"
  30. elif title_name == "ASP":
  31. self.folder_name = "ASP源码"
  32. self.second_column_name = "572_3"
  33. elif title_name == "Python":
  34. self.folder_name = "Python源码"
  35. self.second_column_name = "604_572"
  36. #
  37. first_column_name = title_name # 一级目录
  38. second_folder_name = str(self.sprider_count) + "个" + self.folder_name #二级目录
  39. merchant=int(self.sprider_start_count) //int(self.max_pager)+1 #起始页码用于效率采集
  40. self.file_path = self.save_path + os.sep + "Code" + os.sep + first_column_name + os.sep + second_folder_name
  41. self.save_path = self.save_path+ os.sep + "Code" + os.sep+first_column_name+os.sep + second_folder_name+ os.sep + self.folder_name
  42. BaseFrame().debug("开始采集ChinaZCode"+self.folder_name+"...")
  43. sprider_url = (self.base_url + "/class/{0}_1.htm".format(self.second_column_name))
  44. down_path="D:\\Freedom\\Sprider\\ChinaZ\\Code\\"+first_column_name+"\\"+second_folder_name+"\\Temp\\"
  45. if os.path.exists(down_path) is True:
  46. shutil.rmtree(down_path)
  47. if os.path.exists(down_path) is False:
  48. os.makedirs(down_path)
  49. if os.path.exists(self.save_path ) is True:
  50. shutil.rmtree(self.save_path )
  51. if os.path.exists(self.save_path ) is False:
  52. os.makedirs(self.save_path )
  53. chrome_options = webdriver.ChromeOptions()
  54. diy_prefs ={'profile.default_content_settings.popups': 0,
  55. 'download.default_directory':'{0}'.format(down_path)}
  56. # 添加路径到selenium配置中
  57. chrome_options.add_experimental_option('prefs', diy_prefs)
  58. chrome_options.add_argument('--headless') #隐藏浏览器
  59. # 实例化chrome浏览器时,关联忽略证书错误
  60. driver = webdriver.Chrome(options=chrome_options)
  61. driver.set_window_size(1280, 800) # 分辨率 1280*800
  62. # driver.get方法将定位在给定的URL的网页,get接受url可以是任何网址,此处以百度为例
  63. driver.get(sprider_url)
  64. # content = driver.page_source
  65. # print(content)
  66. div_elem = driver.find_element(By.CLASS_NAME, "main") # 列表页面 核心内容
  67. element_list = div_elem.find_elements(By.CLASS_NAME, 'item')
  68. laster_pager_ul = driver.find_element(By.CLASS_NAME, "el-pager")
  69. laster_pager_li =laster_pager_ul.find_elements(By.CLASS_NAME, 'number')
  70. laster_pager_url = laster_pager_li[len(laster_pager_li) - 1]
  71. page_end_number = int(laster_pager_url.text)
  72. self.page_count=merchant
  73. while self.page_count <= int(page_end_number): # 翻完停止
  74. try:
  75. if self.page_count == 1:
  76. self.sprider_detail(driver,element_list,self.page_count,page_end_number,down_path)
  77. pass
  78. else:
  79. if self.haved_sprider_count == self.sprider_count:
  80. BaseFrame().debug("采集到达数量采集停止...")
  81. BaseFrame().debug("开始写文章...")
  82. self.builder_word(self.folder_name, self.save_path, self.word_content_list)
  83. BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
  84. break
  85. #(self.base_url + "/sort/{0}/{1}/".format(url_index, self.page_count))
  86. #http://soft.onlinedown.net/sort/177/2/
  87. next_url = self.base_url + "/class/{0}_{1}.htm".format(self.second_column_name, self.page_count)
  88. driver.get(next_url)
  89. div_elem = driver.find_element(By.CLASS_NAME, "main") # 列表页面 核心内容
  90. element_list = div_elem.find_elements(By.CLASS_NAME, 'item')
  91. self.sprider_detail( driver, element_list, self.page_count, page_end_number, down_path)
  92. pass
  93. #print(self.page_count)
  94. self.page_count = self.page_count + 1 # 页码增加1
  95. except Exception as e:
  96. print("sprider()执行过程出现错误:" + str(e))
  97. sleep(10)
  98. def sprider_detail(self, driver,element_list,page_count,max_page,down_path):
  99. """
  100. 采集明细页面
  101. :param driver:
  102. :param element_list:
  103. :param page_count:
  104. :param max_page:
  105. :param down_path:
  106. :return:
  107. """
  108. index = 0
  109. element_array=[]
  110. element_length=len(element_list)
  111. for element in element_list:
  112. url_A_obj = element.find_element(By.CLASS_NAME, 'name-text')
  113. next_url = url_A_obj.get_attribute("href")
  114. coder_title = url_A_obj.get_attribute("title")
  115. e=coder_title+"$"+ next_url
  116. element_array.append(e)
  117. pass
  118. self.sprider_start_index = int(self.sprider_start_count) % int(self.max_pager)
  119. index=self.sprider_start_index
  120. while index < element_length:
  121. if os.path.exists(down_path) is False:
  122. os.makedirs(down_path)
  123. if self.haved_sprider_count == self.sprider_count:
  124. BaseFrame().debug("采集到达数量采集停止...")
  125. break
  126. #element = element_list[index]
  127. element=element_array[index]
  128. time.sleep(1)
  129. index = index + 1
  130. sprider_info="正在采集第"+str(page_count)+"页的第"+str(index)+"个资源,共"+str(max_page)+"页资源"
  131. BaseFrame().debug(sprider_info)
  132. next_url=element.split("$")[1]
  133. coder_title=element.split("$")[0]
  134. # next_url = element.find_element(By.TAG_NAME, 'a').get_attribute("href")
  135. # coder_title =element.find_element(By.TAG_NAME, 'img').get_attribute("title")
  136. driver.get(next_url) # 请求明细页面
  137. try:
  138. # codeEntity = SpriderEntity() # 下载过的资源不再下载
  139. # codeEntity.sprider_base_url = self.base_url
  140. # codeEntity.create_datetime = SpriderTools.get_current_datetime()
  141. # codeEntity.sprider_url = next_url
  142. # codeEntity.sprider_pic_title = coder_title
  143. # codeEntity.sprider_pic_index = str(index)
  144. # codeEntity.sprider_pager_index = page_count
  145. # codeEntity.sprider_type = "code"
  146. # if SpriderAccess().query_sprider_entity_by_urlandindex(next_url, str(index)) is None:
  147. # SpriderAccess().save_sprider(codeEntity)
  148. # else:
  149. # BaseFrame().debug(coder_title+next_url + "数据采集过因此跳过")
  150. # continue
  151. if SeleniumTools.judeg_element_isexist(driver, "CLASS_NAME", "download-item") == 3:
  152. driver.back()
  153. BaseFrame().debug(coder_title+"不存在源码是soft因此跳过哦....")
  154. continue
  155. print("准备点击下载按钮...")
  156. driver.find_element(By.CLASS_NAME, "download-item").click() #下载源码
  157. result,message=SpriderTools.judge_file_exist(True,240,1,down_path,"zip|rar|gz|tgz")#判断源码
  158. if result is True:
  159. sprider_content = [coder_title, self.save_path + os.sep +"image"+ os.sep + coder_title + ".jpg"] # 采集成功的记录
  160. self.word_content_list.append(sprider_content) # 增加到最终的数组
  161. self.haved_sprider_count = self.haved_sprider_count + 1
  162. BaseFrame().debug("已经采集完成第" + str(self.haved_sprider_count) + "个")
  163. time.sleep(1)
  164. driver.back()
  165. coder_title = str(coder_title).replace("/", "") #去掉windows不识别的字符
  166. files = os.listdir(down_path)
  167. srcFile = down_path + os.sep + files[0]
  168. file_ext = os.path.splitext(srcFile)[-1]
  169. dstFile = down_path + os.sep + coder_title + file_ext
  170. os.rename(srcFile, dstFile)
  171. srcFile = dstFile
  172. dstFile = self.save_path + os.sep + coder_title + file_ext
  173. shutil.move(srcFile, dstFile) # 移动文件
  174. else:
  175. BaseFrame().error("检测下载文件出错可能原因是等待时间不够已经超时,再等待70秒...")
  176. time.sleep(70)
  177. #shutil.rmtree(down_path) #如果没下载完是无法删除的
  178. #使用数组append记录文件名字 移动的时候过滤
  179. pass
  180. except Exception as e:
  181. #shutil.rmtree(down_path)
  182. BaseFrame().error("sprider_detail()执行过程出现错误:" + str(e))
  183. #driver.get(sprider_url)
  184. #driver.quit()
  185. if(int(page_count)==int(max_page)):
  186. self.builder_word(self.folder_name,self.save_path,self.word_content_list)
  187. BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")

Locust负载测试工具 v2.14.2
ArkID企业级IDaaS/IAM平台系统 v2.6.10
Apache Superset数据探查与可视化平台 v2.0.1
Jumpserver开源堡垒机 v2.28.6
bk-PaaS蓝鲸智云PaaS平台 v2.14.40
PaddleNLP v2.4.8
CODO云管理平台 v1.0
MindArmour v1.9.0
PaddleHub v2.3.1
PaddlePaddle深度学习平台 v2.4.1
Macast投屏软件 v0.7 源码包
MrDoc在线文档系统 v0.8.5
DrissionPage  Web自动化操作集成工具 v2.7.3
Quick Cut 视频处理软件 v1.6.10
MindInsight可视化仪表板 v1.9.0
GreaterWMS仓库管理系统 v2.1.25
W5 SOAR安全编排与自动化响应平台 v0.6.2
wukongrobot智能音箱项目 v2.5.4
Spyder集成开发环境 v5.4.0


Hyperledger Fabric区块链分布式账本 v2.4.7
simpleui v2021.8.1
Spug自动化运维平台 v3.2.5
Archery SQL审核查询平台 v1.9.1
smartchart数据可视化平台 v5.7
PaddleDetection v2.5.0
PaddleOCR工具库 v2.6.0
Lepus数据库企业监控系统 v5.1
ChiaTools (Chia官方钱包P图功能的替代品) v1.5.6
Graphite网站实时信息采集和统计 v1.1.10
Redash开源的数据图表工具 v10.1.0
PaddleX v2.0.0 rc0
Spyder集成开发环境 v4.2.5
Jumpserver v2.7.3
PyMiner数学工具 v2.1.0 beta
Hyperledger Fabric区块链分布式账本 v1.4.11
vtags编辑器插件 v1.0
Taisite-Platform v1.0
PyMiner数学工具 v1.0.2
ECommerceCrawlers Web爬虫 v11
yiwa伊瓦 v1.0
Senta情感分析系统 v1.0
DFace人脸识别系统 v0.5
inna映射技术 v1.0
PySipder爬虫程序 v0.3.10
PPMessage在线客服平台 v1.0
MySQLMTOP数据库监控系统 v2.1
plainCms异步协程内容管理系统 v1.0
ZeroNet去中心化网站系统 v0.7.1
API Star工具箱 v0.7.2


鸿鹄智能云CMS站群系统 v1.2.2
双鱼林Python基于Django图书管理系统 v1.0
在线网络小说阅读网站 v1.2
Django博客系统 v3.2 正式版
ijd8 Octopress主题 v0.1
求打赏 v1.0
GAEPhotos v1.0.3
Mediacore 多媒体建站系统  v0.9.0
 

清理垃圾文件

  1. import os
  2. # 查找指定文件夹下所有相同名称的文件
  3. def search_file(dirPath, fileName):
  4. dirs = os.listdir(dirPath) # 查找该层文件夹下所有的文件及文件夹,返回列表
  5. for currentFile in dirs: # 遍历列表
  6. absPath = dirPath + '/' + currentFile
  7. if os.path.isdir(absPath): # 如果是目录则递归,继续查找该目录下的文件
  8. search_file(absPath, fileName)
  9. elif currentFile == fileName:
  10. print(absPath) # 文件存在,则打印该文件的绝对路径
  11. os.remove(absPath)
  12. if __name__ == "__main__":
  13. dirPath = 'D:\Freedom\Sprider\ChinaZ\Code\Python\\57个Python源码\Python源码'
  14. #dirPath = 'D:\\Freedom\\Sprider\\ChinaZ\\Code\\NET\\99个NET源码\\NET源码' D:\Freedom\Sprider\ChinaZ\Code\PHP\126个PHP源码\PHP源码
  15. fileName4 = '服务器软件.url'
  16. fileName3 = '脚本之家.url'
  17. fileName2 = 'Readme-说明.htm'
  18. fileName5 = 'jb51.net.txt'
  19. fileName1 = '说明.htm'
  20. search_file(dirPath, fileName1)
  21. search_file(dirPath, fileName2)
  22. search_file(dirPath, fileName3)
  23. search_file(dirPath, fileName4)
  24. search_file(dirPath, fileName5)
  25. search_file(dirPath, "源码之家说明.txt")
  26. search_file(dirPath, "服务器常用软件.html")
  27. search_file(dirPath, "访问脚本之家.html")

最后送大家一首诗:

山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。
 

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/代码探险家/article/detail/871568
推荐阅读
相关标签
  

闽ICP备14008679号