爬虫之beautifulsoup模块

一、介绍
Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.Beautiful Soup会帮你节省数小时甚至数天的工作时间,官网推荐在现在的项目中使用Beautiful Soup 4, 移植到BS4,安装模块如下:

创新互联-专业网站定制、快速模板网站建设、高性价比乐业网站开发、企业建站全套包干低至880元,成熟完善的模板库,直接使用。一站式乐业网站制作公司更省心,省钱,快速模板网站建设找我们,业务覆盖乐业地区。费用合理售后完善,十多年实体公司更值得信赖。

# pip3 install beautifulsoup4
#pip3 install LXML

二、用法

from bs4 import BeautifulSoup
html_doc = """
The Dormouse's story

asdf
    
        The Dormouse's story总共
        

f

    
Once upon a time there were three little sisters; and their names were     Elsfie,     Lacie and     Tillie; and they lived at the bottom of a well.
ad
sf ...

""" soup=BeautifulSoup(html_doc, features="lxml") tag1 = soup.find(name='a')                                 # 找到第一个a标签 tag2 = soup.find_all(name='a')                           # 找到所有的a标签 tag3 = soup.select('#link2')                                # 找到id=link2的标签

1、标签名称查找

tag = soup.find('a')
name = tag.name                                     # 获取标签名称,结果a
tag.name = 'span'                                    # 设置标签名称

2、标签属性查找

tag = soup.find('a')
attrs = tag.attrs                                    # 获取名称为a的标签的属性 ,结果{'class': ['sister0'], 'id': 'link1'}
tag.attrs = {'ik':123} # 设置
tag.attrs['id'] = 'iiiii' # 设置                   # 可以使用print(soup)查看设置后的所有标签属性

3、子孙标签查找

soup.p.contents                                     #p下所有子节点
soup.p.children                                     #得到一个迭代器,包含p下所有子节点
for i,child in enumerate(soup.p.children):
    print(i,child)
    
soup.p.descendants                                  #获取子孙节点,p下所有的标签都会选择出来

for i,child in enumerate(soup.p.descendants):
    print(i,child)

4、clear,将标签的所有子标签全部清空(保留标签名)

tag = soup.find('body')
tag.clear()                                          # 清空名称为body的标签,保留标签名

5、decompose,递归的删除所有的标签

body = soup.find('body')
body.decompose()                                    # 递归的删除名称为body的标签

6、extract,递归的删除所有的标签,并获取删除的标签

body = soup.find('body')
v = body.extract()                                  # 递归的删除名称为body的标签
print(soup)                                         #查看删除后的结果为 The Dormouse's story  

7、decode,转换为字符串(含当前标签);decode_contents(不含当前标签)

body = soup.find('body')
print(body.decode())                                     #名称为body的标签转换为字符串,包含body标签
print(body.decode_contents())                            #名称为body的标签转换为字符串,不包含body标签

8、 encode,转换为字节(含当前标签);encode_contents(不含当前标签)

body = soup.find('body')
print(body.encode())                                    #名称为body的标签转换为字节,包含body标签
print(body.encode_contents())                            #名称为body的标签转换为字节,不包含body标签

9、find,获取匹配的第一个标签

soup.find_all('title', limit=1)
soup.find('title')
# 上面两个查找结果一样,find查找就相当于find_all查找并设置limit=1
# find_all() 方法的返回结果是值包含一个元素的列表,而 find() 方法直接返回结果.
# find_all() 方法没有找到目标是返回空列表, find() 方法找不到目标时,返回 None

soup.find("head").find("title")                            #可以简单写成 soup.head.title
tag = soup.find(name='a', attrs={'class': 'sister'}, recursive=True, text='Lacie')
tag = soup.find(name='a', class_='sister', recursive=True, text='Lacie')

10、find_all,获取匹配的所有标签

####### 列表 #######
v = soup.find_all(name=['a','div'])
print(v)
v = soup.find_all(class_=['sister0', 'sister'])
print(v)
v = soup.find_all(text=['Tillie'])
print(v, type(v[0]))                                      #结果:['Tillie'] 
v = soup.find_all(id=['link1','link2'])                         #查找id为link1,link2的标签,结果放在列表里面
print(v)
v = soup.find_all(href=['link1','link2'])                       #没找到href为link1,link2的标签,所以结果是一个空列表
print(v)

####### 正则 #######
import re
rep = re.compile('p')                                       #匹配规则为p标签
rep = re.compile('^p')                                      #匹配规则为p开头标签
v = soup.find_all(name=rep)                                   #找p开头的的所有标签
rep = re.compile('sister.*')
v = soup.find_all(class_=rep)
v = soup.find_all(attrs={"class":rep})                         #和上面的一样
rep = re.compile('http://www.oldboy.com/static/.*')
v = soup.find_all(href=rep)                                   #匹配 

####### 方法筛选 #######
def func(tag):
    return tag.has_attr('class') and tag.has_attr('id')
v = soup.find_all(name=func)
print(v)

get,获取标签属性
tag = soup.find('a')
v = tag.get('id')                                            #获取标签名称为a的id属性
print(v)

11、has_attr,检查标签是否具有该属性

tag = soup.find('a')
v = tag.has_attr('id')                                       #检查标签a是否具有id属性
print(v)

12、get_text,获取标签内部文本内容

tag = soup.find('a')
print(tag)                                                     #Elsfie
v = tag.get_text('id')
print(v)                                                        #结果是:Elsidfidie

13、index,检查标签在某标签中的索引位置

tag = soup.find('body')
v = tag.index(tag.find('div'))
print(v)

tag = soup.find('body')
for i,v in enumerate(tag):
print(i,v)

14、is_empty_element,是否是空标签(是否可以是空)或者自闭合标签

# 判断是否是如下标签:'br', 'hr', 'input', 'img', 'meta', 'spacer', 'link', 'frame', 'base'
tag = soup.find('br')
v = tag.is_empty_element
print(v)

15、关联标签

soup.next
soup.next_element                         #不分层次的查找标签的下一个节点
soup.next_elements
soup.next_sibling                          #下一个兄弟
soup.next_siblings                          #下面的兄弟们=>生成器对象

tag.previous
tag.previous_element                      #不分层次的查找标签的上一个节点
tag.previous_elements
tag.previous_sibling                      #上一个兄弟
tag.previous_siblings                      #上面的兄弟们=>生成器对象

tag.parent                                #获取标签的父节点
tag.parents                               #找到标签所有的祖先节点

16、查找某标签的关联标签

tag.find_next(...)
tag.find_all_next(...)
tag.find_next_sibling(...)
tag.find_next_siblings(...)

tag.find_previous(...)
tag.find_all_previous(...)
tag.find_previous_sibling(...)
tag.find_previous_siblings(...)

tag.find_parent(...)
tag.find_parents(...)

# 参数同find_all

17、select,select_one, CSS选择器

soup.select("title")                          #[The Dormouse's story]
soup.select("p:nth-of-type(3)")                  #选择所有p标签中的第三个标签,相当于soup.select(p)[2]
soup.select("body a")                         #body里的a标签,结果放在列表显示
soup.select("html head title")                   #[The Dormouse's story]
soup.select("span,a")                        #选择所有的span和a标签
soup.select("head > title")                     # 选择head标签下的直接title子标签
soup.select("p > a")                           # 选择p标签下的直接a子标签
soup.select("p > a:nth-of-type(2)")
soup.select("p > #link1")                         # 选择p标签下的直接id为link1子标签
soup.select("body > a")                           # 选择body标签下的直接a子标签
soup.select("#link1 ~ .sister")                  # 选择id=link1后的class=sister所有兄弟节点标签
soup.select("#link1 + .sister")                 # 选择id=link1后的class=sister下一个兄弟节点标签,结果[Lacie]
soup.select(".sister")                            # 选择class为sister的标签
soup.select("[class~=sister]")                   # class=sister的所有节点
soup.select("#link1")                             # 选择id为link1的标签
soup.select("a#link2")                           # a节点,且id=link2的节点
soup.select('a[href]')                            # 所有的a节点,有href属性
soup.select('a[href="http://example.com/elsie"]')  # 指定href属性值的所有a节点
soup.select('a[href^="http://example.com/"]')
soup.select('a[href$="tillie"]')               # href属性以指定值结尾的所有a节点
soup.select('a[href*=".com/el"]')


from bs4.element import Tag
def default_candidate_generator(tag):
    for child in tag.descendants:
        if not isinstance(child, Tag):
            continue
        if not child.has_attr('href'):
            continue
        yield child
tags = soup.find('body').select("a", _candidate_generator=default_candidate_generator)
print(type(tags), tags)      #结果: [Lacie, Tillie]


from bs4.element import Tag
def default_candidate_generator(tag):
    for child in tag.descendants:
        if not isinstance(child, Tag):
            continue
        if not child.has_attr('href'):
            continue
        yield child
        
tags = soup.find('body').select("a", _candidate_generator=default_candidate_generator, limit=1)
print(type(tags), tags)        #结果: [Lacie]

18、标签的内容

tag = soup.find('span')
print(tag.string)          # 获取,结果f

tag.string = 'new content'     # 设置span标签内容为new content
tag = soup.find('body')
print(tag.string)          #结果None

tag.string = 'xxx'          #xxx
tag = soup.find('body')
v = tag.stripped_strings        # 递归内部获取所有标签的文本
print(v)                  #

19、append在当前标签内部追加一个标签

tag = soup.find('body')
tag.append(soup.find('a'))      #在body标签里追加Elsfie

from bs4.element import Tag
obj = Tag(name='i',attrs={'id': 'it'})
obj.string = '我是一个新来的'
tag = soup.find('body')
tag.append(obj)                   #在body标签里追加我是一个新来的

20、insert在当前标签内部指定位置插入一个标签

from bs4.element import Tag
obj = Tag(name='i', attrs={'id': 'it'})
obj.string = '我是一个新来的'
tag = soup.find('body')
tag.insert(3, obj)
print(soup)

21、insert_after,insert_before 在当前标签后面或前面插入

from bs4.element import Tag
obj = Tag(name='i', attrs={'id': 'it'})
obj.string = '我是一个新来的'
tag = soup.find('body')
# tag.insert_before(obj)           #在当前标签前面插入
tag.insert_after(obj)              #在当前标签后面插入
print(soup)

22、replace_with 在当前标签替换为指定标签

from bs4.element import Tag
obj = Tag(name='i', attrs={'id': 'it'})
obj.string = '我是一个新来的'
tag = soup.find('div')
tag.replace_with(obj)
print(soup)

23、创建标签之间的关系

tag = soup.find('div')
a = soup.find('a')
tag.setup(previous_sibling=a)
print(tag.previous_sibling)                  #tag的上一个兄弟标签Elsfie

24、wrap,将指定标签把当前标签包裹起来

from bs4.element import Tag
obj1 = Tag(name='div', attrs={'id': 'it'})
obj1.string = '我是一个新来的'              #得到新标签我是一个新来的 
tag = soup.find('a') v = tag.wrap(obj1)                            #我是一个新来的Elsfie print(soup) tag = soup.find('a') v = tag.wrap(soup.find('p'))                 #p标签包住a标签 ...Elsfie

print(soup)

25、unwrap,去掉当前标签,将保留其包裹的标签

tag = soup.find('a')
v = tag.unwrap()                         #结果:Elsfie
print(soup)



网站栏目:爬虫之beautifulsoup模块
分享网址:http://scjbc.cn/article/gcjgjc.html