博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Python爬虫之三种网页抓取方法性能比较
阅读量:6082 次
发布时间:2019-06-20

本文共 7434 字,大约阅读时间需要 24 分钟。

  下面我们将介绍三种抓取网页数据的方法,首先是正则表达式,然后是流行的 BeautifulSoup 模块,最后是强大的 lxml 模块。

1. 正则表达式

  如果你对正则表达式还不熟悉,或是需要一些提示时,可以查阅 获得完整介绍。

  当我们使用正则表达式抓取国家面积数据时,首先要尝试匹配元素中的内容,如下所示:

>>> import re>>> import urllib2 >>> url = 'http://example.webscraping.com/view/United-Kingdom-239' >>> html = urllib2.urlopen(url).read() >>> re.findall('(.*?)', html) ['', '244,820 square kilometres', '62,348,447', 'GB', 'United Kingdom', 'London', 'EU', '.uk', 'GBP', 'Pound', '44', '@# #@@|@## #@@|@@# #@@|@@## #@@|@#@ #@@|@@#@ #@@|GIR0AA', '^(([A-Z]\\d{2}[A-Z]{2})|([A-Z]\\d{3}[A-Z]{2})|([A-Z]{2}\\d{2}[A-Z]{2})|([A-Z]{2}\\d{3}[A-Z]{2})|([A-Z]\\d[A-Z]\\d[A-Z]{2})|([A-Z]{2}\\d[A-Z]\\d[A-Z]{2})|(GIR0AA))$', 'en-GB,cy-GB,gd', '
']>>>

   从上述结果看出,多个国家属性都使用了< td class=”w2p_fw” >标签。要想分离出面积属性,我们可以只选择其中的第二个元素,如下所示:

>>> re.findall('(.*?)', html)[1]'244,820 square kilometres'

   虽然现在可以使用这个方案,但是如果网页发生变化,该方案很可能就会失效。比如表格发生了变化,去除了第二行中的国土面积数据。如果我们只在现在抓取数据,就可以忽略这种未来可能发生的变化。但是,如果我们希望未来还能再次抓取该数据,就需要给出更加健壮的解决方案,从而尽可能避免这种布局变化所带来的影响。想要该正则表达式更加健壮,我们可以将其父元素< tr >也加入进来。由于该元素具有ID属性,所以应该是唯一的。

>>> re.findall('(.*?)', html) ['244,820 square kilometres']

  这个迭代版本看起来更好一些,但是网页更新还有很多其他方式,同样可以让该正则表达式无法满足。比如,将双引号变为单引号,< td >标签之间添加多余的空格,或是变更area_label等。下面是尝试支持这些可能性的改进版本。

>>> re.findall('.*?
(.*?)',html)['244,820 square kilometres']

  虽然该正则表达式更容易适应未来变化,但又存在难以构造、可读性差的问题。此外,还有一些微小的布局变化也会使该正则表达式无法满足,比如在< td >标签里添加title属性。

  从本例中可以看出,正则表达式为我们提供了抓取数据的快捷方式,但是,该方法过于脆弱,容易在网页更新后出现问题。幸好还有一些更好的解决方案,后期将会介绍。

2. Beautiful Soup

  Beautiful Soup是一个非常流行的 Python 模块。该模块可以解析网页,并提供定位内容的便捷接口。如果你还没有安装该模块,可以使用下面的命令安装其最新版本(需要先安装 pip,请自行百度):

pip install beautifulsoup4

  使用 Beautiful Soup 的第一步是将已下载的 HTML 内容解析为 soup 文档。由于大多数网页都不具备良好的 HTML 格式,因此 Beautiful Soup 需要对其实际格式进行确定。例如,在下面这个简单网页的列表中,存在属性值两侧引号缺失和标签未闭合的问题。

  • Area
  • Population

  如果 Population 列表项被解析为 Area 列表项的子元素,而不是并列的两个列表项的话,我们在抓取时就会得到错误的结果。下面让我们看一下 Beautiful Soup 是如何处理的。

>>> from bs4 import BeautifulSoup>>> broken_html = '
  • Area
  • Population
' >>> # parse the HTML >>> soup = BeautifulSoup(broken_html, 'html.parser') >>> fixed_html = soup.prettify() >>> print fixed_html
  • Area
  • Population

  从上面的执行结果中可以看出,Beautiful Soup 能够正确解析缺失的引号并闭合标签。现在可以使用 find()find_all() 方法来定位我们需要的元素了。

>>> ul = soup.find('ul', attrs={'class':'country'}) >>> ul.find('li') # return just the first match 
  • Area
  • Population
  • >>> ul.find_all('li') # return all matches [
  • Area
  • Population
  • ,
  • Population
  • ]

    Note: 由于不同版本的Python内置库的容错能力有所区别,可能处理结果和上述有所不同,具体请参考: 。想了解全部方法和参数,可以查阅 Beautiful Soup 的

      下面是使用该方法抽取示例国家面积数据的完整代码。

    >>> from bs4 import BeautifulSoup >>> import urllib2 >>> url = 'http://example.webscraping.com/view/United-Kingdom-239' >>> html = urllib2.urlopen(url).read() >>> # locate the area row >>> tr = soup.find(attrs={
    'id':'places_area__row'}) >>> # locate the area tag >>> td = tr.find(attrs={
    'class':'w2p_fw'}) >>> area = td.text # extract the text from this tag >>> print area 244,820 square kilometres

      这段代码虽然比正则表达式的代码更加复杂,但更容易构造和理解。而且,像多余的空格和标签属性这种布局上的小变化,我们也无需再担心了。

    3. Lxml

      Lxml 是基于 libxml2 这一 XML 解析库的 Python 封装。该模块使用 C语言 编写,解析速度比 Beautiful Soup 更快,不过安装过程也更为复杂。最新的安装说明可以参考 .**

      和 Beautiful Soup 一样,使用 lxml 模块的第一步也是将有可能不合法的 HTML 解析为统一格式。下面是使用该模块解析一个不完整 HTML 的例子:

    >>> import lxml.html >>> broken_html = '
    • Area
    • Population
    '>>> # parse the HTML >>> tree = lxml.html.fromstring(broken_html) >>> fixed_html = lxml.html.tostring(tree, pretty_print=True) >>> print fixed_html
    • Area
    • Population

      同样地,lxml 也可以正确解析属性两侧缺失的引号,并闭合标签,不过该模块没有额外添加 < html > 和 < body > 标签。

      解析完输入内容之后,进入选择元素的步骤,此时 lxml 有几种不同的方法,比如 XPath 选择器和类似 Beautiful Soupfind() 方法。不过,后续我们将使用 CSS 选择器,因为它更加简洁,并且能够在解析动态内容时得以复用。此外,一些拥有 jQuery 选择器相关经验的读者会对其更加熟悉。

      下面是使用 lxmlCSS 选择器抽取面积数据的示例代码:

    >>> import urllib2 >>> import lxml.html >>> url = 'http://example.webscraping.com/view/United-Kingdom-239' >>> html = urllib2.urlopen(url).read() >>> tree = lxml.html.fromstring(html) >>> td = tree.cssselect('tr#places_area__row > td.w2p_fw')[0] # *行代码 >>> area = td.text_content() >>> print area244,820 square kilometres

       *行代码首先会找到 ID 为 places_area__row 的表格行元素,然后选择 classw2p_fw 的表格数据子标签。

       CSS 选择器表示选择元素所使用的模式,下面是一些常用的选择器示例:

    选择所有标签: * 选择  标签: a 选择所有 class="link" 的元素: .link 选择 class="link" 的  标签: a.link 选择 id="home" 的  标签: a#home 选择父元素为  标签的所有  子标签: a > span 选择  标签内部的所有  标签: a span 选择 title 属性为"Home"的所有  标签: a[title=Home]

       W3C 已提出 CSS3 规范,其网址为

      Lxml 已经实现了大部分 CSS3 属性,其不支持的功能可以参见: .

    Note: lxml在内部的实现中,实际上是将 CSS 选择器转换为等价的 XPath 选择器。

    4. 性能对比

       在以下这段代码中,每个爬虫都会执行 1000 次,每次执行都会检查抓取结果是否正确,然后打印总用时。

    # -*- coding: utf-8 -*- import csv import time import urllib2 import re import timeit from bs4 import BeautifulSoup import lxml.html FIELDS = ('area', 'population', 'iso', 'country', 'capital', 'continent', 'tld', 'currency_code', 'currency_name', 'phone', 'postal_code_format', 'postal_code_regex', 'languages', 'neighbours') def regex_scraper(html):     results = {} for field in FIELDS:         results[field] = re.search('.*?(.*?)'.format(field), html).groups()[0] return results def beautiful_soup_scraper(html):     soup = BeautifulSoup(html, 'html.parser')     results = {} for field in FIELDS:         results[field] = soup.find('table').find('tr', id='places_{}__row'.format(field)).find('td', class_='w2p_fw').text return results def lxml_scraper(html):     tree = lxml.html.fromstring(html)     results = {} for field in FIELDS:         results[field] = tree.cssselect('table > tr#places_{}__row > td.w2p_fw'.format(field))[0].text_content() return results def main():    times = {}    html = urllib2.urlopen('http://example.webscraping.com/view/United-Kingdom-239').read()     NUM_ITERATIONS = 1000 # number of times to test each scraper for name, scraper in ('Regular expressions', regex_scraper), ('Beautiful Soup', beautiful_soup_scraper), ('Lxml', lxml_scraper):         times[name] = [] # record start time of scrape         start = time.time() for i in range(NUM_ITERATIONS): if scraper == regex_scraper: # the regular expression module will cache results # so need to purge this cache for meaningful timings                 re.purge()     # *行代码             result = scraper(html) # check scraped result is as expected assert(result['area'] == '244,820 square kilometres')             times[name].append(time.time() - start) # record end time of scrape and output the total         end = time.time() print '{}: {:.2f} seconds'.format(name, end - start)     writer = csv.writer(open('times.csv', 'w'))     header = sorted(times.keys())     writer.writerow(header) for row in zip(*[times[scraper] for scraper in header]):         writer.writerow(row) if __name__ == '__main__':     main()

       注意,我们在 *行代码 中调用了 re.purge() 方法。默认情况下,正则表达式会缓存搜索结果,为了公平起见,我们需要使用该方法清除缓存。

    下面是我的电脑运行该脚本的结果:

    这里写图片描述

       由于硬件条件的区别,不同电脑的执行结果也会存在一定差异。不过,每种方法之间的相对差异应当是相当的。从结果中可以看出,在抓取我们的示例网页时,Beautiful Soup 比其他两种方法慢了超过 7 倍之多。实际上这一结果是符合预期的,因为 lxml 和正则表达式模块都是 C 语言编写的,而 Beautiful Soup 则是纯 Python 编写的。一个有趣的事实是,lxml 表现的和正则表达式差不多好。由于 lxml 在搜索元素之前,必须将输入解析为内部格式,因此会产生额外的开销。而当抓取同一网页的多个特征时,这种初始化解析产生的开销就会降低,lxml 也就更具竞争力,所以说,lxml 是一个强大的模块。

    5. 总结

    三种网页抓取方法优缺点:

           抓取方法     性能       使用难度       安装难度
    正则表达式 困难 简单(内置模块)
    Beautiful Soup 简单 简单(纯Python)
    Lxml 简单 相对困难

       如果你的爬虫瓶颈是下载网页,而不是抽取数据的话,那么使用较慢的方法(如 Beautiful Soup)也不成问题。正则表达式在一次性抽取中非常有用,此外还可以避免解析整个网页带来的开销,如果只需抓取少量数据,并且想要避免额外依赖的话,那么正则表达式可能更加适合。不过,通常情况下,lxml 是抓取数据的最好选择,这是因为它不仅速度快,功能也更加丰富,而正则表达式和 Beautiful Soup只在某些特定场景下有用。

    你可能感兴趣的文章
    VirtualBox中安装CentOS(新手教程)
    查看>>
    HTTP 请求头中的 X-Forwarded-For,X-Real-IP
    查看>>
    SDUT OJ 数据结构上机测试1:顺序表的应用
    查看>>
    d3----line_color_gradient 学习记录
    查看>>
    矩阵运算 【微软面试100题 第四十五题】
    查看>>
    E: Sub-process /usr/bin/dpkg returned an error code (1)
    查看>>
    Openshift 部署第一个应用hello-openshift
    查看>>
    XML学习总结
    查看>>
    如何利用EnteLib Unity Interception Extension 和PIAB实现Transaction
    查看>>
    Django中ORM介绍和字段及其参数
    查看>>
    [汇编学习笔记][第十七章使用BIOS进行键盘输入和磁盘读写
    查看>>
    【并查集合并注意!!!!】【最小生成树】
    查看>>
    【最大流】【HDU3572】Task Schedule
    查看>>
    iOS - Photo Album 图片/相册管理
    查看>>
    0723作业
    查看>>
    2016蓝桥杯 煤球数目 (代码)
    查看>>
    DOM&BOM
    查看>>
    a标签设置锚点定位div
    查看>>
    LightOJ 1079 Just another Robbery
    查看>>
    【NFS】nfs安装调优
    查看>>