关于BeautifulSoup的总结

最近一直在用BeautifulSoup,但是语法很容易忘记。在这里做个学习总结吧。

参考:

Beautiful Soup 4.2.0 文档

功能

BeautifulSoup是用来从HTML或XML中提取数据的Python库。


导入

使用方法:
from bs4 import BeautifulSoup
soup = BeautifulSoup(html)


编码

soup使用Unicode编码。


对象种类

有四种类型:Tag,NavigableString,BeautifulSoup,Comment。
BeautifulSoup将文档转化为树形结构,每个节点都是上述四种类型的Python对象。

1.Tag

与XML和HTML中Tag对象相同。
如:
soup = BeautifulSoup(<b class="boldest">Extremely bold</b>)
soup.b就是一个Tag对象。

  1. Name
    tag.name 可获取,可更改

  2. Attribute
    一个Tag对象可以有多个属性,操作方法和字典相同,如上述Tag对象b就有一个class属性:
    soup.b['class']
    或者使用get方法soup.b.get('class')

获取所有属性键值对:
soup.b.attrs

tag的属性可添加、删除(del soup.b['class'])、修改,和字典方法相同。

如果一个属性key对应多个value,则返回一个value的list,如:
css_soup = BeautifulSoup('<p class="body strikeout"></p>')
css_soup.p['class']
输出:["body", "strikeout"]

这种多个值的属性是需要在HTML中有定义的,如果并没有被定义为多值属性,则返回字符串:
id_soup = BeautifulSoup('<p id="my id"></p>')
id_soup.p['id']
输出'my id'
如果转换的是XML文档,则不会存在多值属性,返回字符串。

可以使用list或字符串对属性赋值。

2. NavigableString

Tag中的字符串即为NavigableString对象。
tag.string
在BeautifulSoup之外使用该类型,推荐转换为Unicode:
unicode(Tag.string)

tag中包含的字符串不可编辑,只能替换:
tag.string.replace_with(new string)

tag能够包含其他tag或字符串,而NavigableString则不能包含其他对象。不支持.content,.string,find(),只支持部分遍历文档树和搜索文档树中的属性。

3. BeautifulSoup

表示的是一个文档的全部内容,大部分情况可当做Tag对象,支持遍历文档树和搜索文档树的大部分属性。
而在HTML或XML中并没有叫做BeautifulSoup的Tag,所以并没有name和attribute属性,但是有个特殊属性:
soup.name
输出u'[document]'

4. Comment

Comment类型是NavigableString类型的子类,BeautifulSoup中也有同样道理的一些其他类型。


遍历文档树

BeautifulSoup对象作为一棵树,有多个节点。对于一个节点,相对于它所在的位置,有子节点、父节点、兄弟节点。

1. 子节点

一个Tag可包含多个Tag以及字符串,这些都是这个Tag的子节点。而NavigableString不会有子节点。

如果想要获得某个Tag,上述已提到方法:
soup.tag_name
通过点取属性,只能获得当前名字的第一个tag,若要获取所有,需要使用搜索文档树中的方法:
soup.find_all('tag_name')

tag的.contents属性可将所有子节点以列表的方式输出。
可通过tag的.children生成器,对所有子节点进行遍历。

.contents.children只对获取Tag的直接子节点,.descendants可用于对Tag的所有子孙节点进行遍历。

如果tag只有一个NavigableString类型子节点,则可用.string获取。如果包含多个,使用.strings遍历。若输出的字符串中包含空格或空行,使用.stripped_strings去除。

2. 父节点

当前节点的父节点:.parent
当前节点的所有父辈节点:.parents

3. 兄弟节点

拥有同一父节点的节点之间。
.next_sibling
.previous_sibling
同理,所有兄弟节点:
.next_siblings
.previous_siblings

指向下一个或上一个解析对象:
.next_element
.previous_element
.next_elements
.previous_elements


搜索文档树

经常使用的两种方法:find(str)和find_all(str)。
其中的str,代表了tag的name。可以是纯字符串、正则表达式、列表(任一匹配就满足条件,是或运算)、True(返回所有Tag节点不返回字符串节点)。

另一种入参不是str,而是method。此方法是一个函数,只接受一个元素入参,若此函数返回True表示入参匹配要求。例如:
*def has_class_but_no_id(tag): *
return tag.has_attr('class') and not tag.has_attr('id')

综上,过滤器包括:纯字符串、正则表达式、列表、True、方法这几种。

1. find_all(name,attrs,recursive,text,**kwargs)

该方法搜索当前节点的所有tag子节点。

name参数:
指的是tag的name属性,字符串对象自动忽略。
过滤器可以使用全部种类。

keyword参数:
如果一个入参指定了名字,但是并不是上述提到的入参名字,搜索时会把该入参当做是tag的属性来搜索。例如:
soup.find_all(id='link2')
会返回tag中存在属性id,并且id对应的值是link2的tag。
以上方法可使用除方法之外的所有过滤器。

某些特殊属性不能这样直接使用,则使用如下方法:
soup.find_all(attrs={"key":"value"})

例如要使用class属性进行搜索,由于class是python中的保留字,不能直接写成入参,目前有两种方法:
soup.find_all('tag.name',class_='class_value')
soup.find_all('tag.name',attrs={'class':'class_value'})
class_方法可以使用全部过滤器。
另外,因为class是一个多值属性,所以只需要匹配一个值,就可以得到结果,所谓的不完全匹配。
使用完全匹配时,过滤器中的字符顺序需要和实际相符合才能得到对应结果。

text参数:
搜索的是Tag中的字符串内容,可使用全部过滤器。

limit参数:
限制返回数量。

recursive参数:
find_all()默认是搜索当前节点的所有子孙节点,若只需要搜索直接的子节点,则设置recursive=False

find_all()是实际当中用的最广泛的。
因此有了等价的简化版:
soup.find_all('a')
soup('a')

2. find(name,attrs,recursive,text,**kwargs)

find()方法等价于find_all(limit=1),返回符合条件的第一个对象。
区别在于,前者直接返回结果,后者返回只有一个元素的列表。若没有对象符合条件,前者返回None,后者返回空列表。

它也有简化版:
soup.find('head').find('title')
soup.head.title

除了find()和find_all()之外还有一些搜索的方法:
find_parent()
find_next_sibling()
find_previous_sibling()
上面三种可以在后面加's'表示所有。
find_next()
find_previous()
find_all_next()
find_all_previous()

3. CSS选择器

Tag或BeautifulSoup对象的.select()方法。


修改文档树

暂略


输出

prettify()将文档树格式化之后输出。
若不注重格式,则可使用python的str()unicode()

如果想得到tag中包含的文本内容,使用get_text(),可获取到当前节点的文本,以及子孙节点中的文本。返回的是Unicode。
可以指定参数设置分隔符如get_text("|")是以“|”作为分隔符。
get_text(strip=True)可去除文本前后的空白。
或者用.stripped_strings进行遍历。


文档解析器

BeautifulSoup的第一个入参是文档,第二个入参是文档解析器,默认情况下的优先顺序是:lxml, html5lib,python标准库。其中只有lxml支持xml文档的解析。


编码

soup使用Unicode编码。
BeautifulSoup进行了编码检测并自动转为Unicode。
BeautifulSoup对象的.original_encoding属性来获取自动识别编码的结果。
当然这样比较慢,有时候会出错。可以在创建BeautifulSoup对象时,指定入参from_encoding来告知文档的编码方式。

有时候转码时有些特殊字符替换成了特殊的Unicode,可通过BeautifulSoup对象的.contains_repalcement_characters属性来判断是否有此情况,为True即为有特殊替换。

输出编码统一为UTF8,若想要其他的编码,则和一般的python字符串相同,需要进行手动设置。

使用chartdet库可提高编码检测效率。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,456评论 5 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,370评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,337评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,583评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,596评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,572评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,936评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,595评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,850评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,601评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,685评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,371评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,951评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,934评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,167评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,636评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,411评论 2 342

推荐阅读更多精彩内容