赞
踩
今天给大家分享一个Python基本代码爬取超链接文字及超链接,及一一对应存放到本地文件夹TXT文件中,这里因为我是一个Python初学者,所以所写的代码非常简单,对大家而言也是非常容易理解的。
这里我以我的博客为例写了一个,前面还是逐步解释,后面会附上完整的代码:
首先我们依旧是爬取网页的三个步骤,HTML下载器(生成URL,下载内容),第二;URL管理器,第三;HTML解析器(解析输出):
- url = "https://blog.csdn.net/zjy18886018024?t=1"
- con=requests.get(url).text
- content = urllib.request.urlopen(url).read()
- soup=BeautifulSoup(content,"html.parser")
下面是使用正则表达式爬取超链接,这个正则表达式还是有一些难度,这里我就不多加详解,想要了解的朋友可以去网上参考教程。
lianji=re.findall('href="(.*?details\/\d{8})',con)
接来来是对空格和字符“原”的处理:
- nu.append(num[i].replace("原",""))
- strc.append(nu[j].strip())
这里就是对超链接文字和链接的一一对应处理:
tops+=str(strc[m])+"\t"+lianji[m]+"\n"
这里的话可能很多朋友和我犯了一个错误,就是存入TXT文件中的时候,不能以列表的形式写入,不然总会报错。好了,现在就附上完整的代码与结果截图:
- # coding:utf-8
-
- import urllib.request
- from bs4 import BeautifulSoup
- import requests
- import re
-
- num=[]
- lianjie=[]
- url = "https://blog.csdn.net/zjy18886018024?t=1"
- con=requests.get(url).text
- content = urllib.request.urlopen(url).read()
- soup=BeautifulSoup(content,"html.parser")
- top=soup.find_all(attrs={"class":"text-truncate"})
- lianji=re.findall('href="(.*?details\/\d{8})',con)
- i=0
- nu=[]
- while i<len(top):
- num.append(top[i].get_text())
- nu.append(num[i].replace("原",""))
- i=i+1
- j=0
- strc=[]
- while j<len(nu):
- # print(nu[j].strip(),lianji[i])
- strc.append(nu[j].strip())
- j=j+1
- m=0
- tops=""
- while m<len(strc):
- tops+=str(strc[m])+"\t"+lianji[m]+"\n"
- m=m+1
- print(tops)
- k=0
- while k<len(tops):
- with open("C:\\Users\\ASUS\\Desktop\\txt1\\neirong.txt","a+") as f:
- f.write(tops[k])
- k=k+1
- f.close()
-
- print("写入成功")
结果如下:
这些代码很基础简单吧,所以不管我们学什么,首先看重的是基础,万丈高楼平地起,切不可好高骛远。好了,今天就分享到这里了,有什么问题可以给我留言,我给大家解答。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。