Python爬虫之数据解析模块bs4基础
介绍:
创新互联专业为企业提供西安网站建设、西安做网站、西安网站设计、西安网站制作等企业网站建设、网页设计与制作、西安企业网站模板建站服务,10年西安做网站经验,不只是建网站,更提供有价值的思路和整体网络服务。
最近在学Python爬虫,在这里对数据解析模块bs4做个学习笔记。
用途:
bs4用于解析xml文档,而html只是xml的一种
bs4 官方文档地址:
https://www.crummy.com/software/BeautifulSoup/bs4/doc/
学习笔记:
from bs4 import BeautifulSoup
html_doc = """
The Dormouse's story
Once upon a time there were three little sisters; and their names were
Lacie and
and they lived at the bottom of a well.
...
"""
soup = BeautifulSoup(html_doc,'html.parser') #创建一个BeautifulSoup对象,添加html文件解析器,在不同平台可能不同,在Linux上就不需要
print(soup.prettify()) #美化输出
print(soup.get_text()) #将html_doc变量中保存的全部内容输出(Linux系统会以\n隔开)
print('')
print(type(soup.title))
print(dir(soup.title))
print(soup.title) #获取html标题
print(soup.title.text) #获取html标题内容
"The Dormouse's story"
print(soup.a) #获取a标签(第一个)
print(soup.a.attrs) #获取第一个a标签的所有属性,组成一个字典
{'href': 'http://example.com/elsie', 'class': ['sister'], 'id': 'link1'}
print(soup.a.attrs['href']) #获取第一个a标签的href属性
'http://example.com/elsie'
print(soup.a.has_attr('class')) #判断class属性是否存在
True
print(soup.p) #获取p标签(第一个)
The Dormouse's story
print(soup.p.children) #获取第一个p标签下的所有子节点
print(list(soup.p.children))
[The Dormouse's story]
print(list(soup.p.children)[0])
The Dormouse's story
print(list(soup.p.children)[0].text)
"The Dormouse's story"
print(soup.find_all('a')) #获取所有的a标签
for a in soup.find_all('a'): #遍历所有的a标签
print(a.attrs['href'])
print(soup.find(id='link3')) #获取id=link3的标签
print('#'*150)
#支持CSS选择器
#查找类名为story的节点
print(soup.select('.story'))
print('')
print(soup.select('.story a'))
print('')
#查找id=link1的节点
print(soup.select('#link1'))
分享名称:Python爬虫之数据解析模块bs4基础
文章地址:http://scjbc.cn/article/gjggec.html