Scrapy-Splash爬虫实战——爬取JS渲染的动态页面信息【附货币基金爬取筛选代码】

转载自:https://zhuanlan.zhihu.com/p/130867872

本文概要

  • 展示了一个使用Scrapy爬取网页信息的例子——爬取天天基金网的货币基金
  • 爬取的信息在JS渲染的动态页面中,使用headless浏览器和Splash配合Scrapy解决问题
  • 提供了docker镜像和Dockerfile,详述过程Dockerfile每一行的设置和其中的坑
  • 仔细阅读可以了解Scrapy的基本用法,配合headless浏览器爬取一切疑难页面,在2.0.1版本下很长一段时间不用去和环境死磕了,直接取用docker镜像吧。

代码

qqhard/hj_spider​github.com

任务

由天天基金网的货基列表页进入详情页

image

爬取详情页中一系列信息

image

Scrapy一般流程

Scrapy目前的版本是2.0.1,其官方文档在https://scrapy.org/

需要python3.5及以上的环境,在linux下需要Ubuntu 14.04及以上。

使用pip和conda很容易安装,pip install Scrapy即可。

Scrapy提供了脚手架,scrapy startproject tutorial 创建项目,获得如下的目录:

tutorial/
    scrapy.cfg            # deploy configuration file

    tutorial/             # project's Python module, you'll import your code from here
        __init__.py

        items.py          # project items definition file

        middlewares.py    # project middlewares file

        pipelines.py      # project pipelines file

        settings.py       # project settings file

        spiders/          # a directory where you'll later put your spiders
            __init__.py

核心逻辑在Spiders目录下,可以增加多个python文件,每一个都描述了一段抓取逻辑,Scrapy可以单独其中其中一个爬虫,也可以全部启动。

from scrapy.spiders import Spider
import scrapy
from scrapy_selenium import SeleniumRequest

class HJSpider(Spider):
    name = 'hj_spider'
    start_urls = ['http://fund.eastmoney.com/HBJJ_dwsy.html']

    def parse(self, response):

        if response.url == 'http://fund.eastmoney.com/HBJJ_dwsy.html':
            urls = response.xpath('//*/td[5][@class="jc"]/nobr/a[1]/@href').extract()[0:4]
            for url in urls:
                yield scrapy.Request(url, callback=self.parse)
        else:
            self.parse_detail(response)

    def parse_detail(self, response):
        name = response.xpath('//*[@id="body"]/div[4]/div[9]/div/div/div[1]/div[1]/div/text()').extract()
        nh_shouyi = response.xpath('//*[@id="body"]/div[4]/div[9]/div/div/div[2]/div[1]/div[1]/dl[4]/dd/span/text()').extract()
        start_date = response.xpath('//*[@id="body"]/div[4]/div[9]/div/div/div[2]/div[1]/div[3]/table/tbody/tr[2]/td[1]/text()').extract()
        scale = response.xpath('//*[@id="body"]/div[4]/div[9]/div/div/div[2]/div[1]/div[3]/table/tbody/tr[1]/td[2]/text()').extract()
        ttt = response.xpath('//*[@id="highcharts-24"]/svg/g[5]/g[3]/rect[4]/@height').extract()
        # print (response.url, name, nh_shouyi, start_date, scale, ttt)
        print ('{};;{};;{};;{};;{};;{}'.format(name[0], response.url, nh_shouyi[0], start_date[0], scale[0], ttt[0]))

spider文件的要素:

  • name属性必须有,且项目内唯一,scrapy crawl spider_name可以单独执行该爬虫
  • start_urls定义起始页面的url的列表,爬虫会由此递归运行
  • parse函数用来解析页面返回,通过yieldRequest对象,可以递归地运行下去

该例子中,我们从基金列表页的URL进入,解析得到每只基金的详情页面,进入后爬取需要的信息。

从DOM树上获取信息,Scrapy提供了xpath和css两种选择器,这里我使用了xpath,配合chrome浏览器,非常的轻松。

右击需要获取的信息,点击菜单中的选项。

image

然后就能看到页面源码对应的位置,右击复制xpath,即可得到代码中的路径,自己稍作调整即可达到要求。

image

使用命令Scrapy shell url 可以在交互的环境中调试。

编写完成后启动爬虫 scrapy crawl hj_spider

爬取JS渲染信息

在爬取如下图标信息的时候,虽然在浏览器中可以在DOM树上看到数据,但实际在Scrapy shell中调试,发现数据信息是由JS渲染上的,去分析其AJAX请求和构造不是轻而易举的事情,我决定引入JS渲染引擎,一劳永逸地解决。

image

大体有两种方案,在官方文档的最下边Pre-rendering JavaScriptUsing a headless browser ,前者配合Splash进行JS渲染,后者使用了所谓的无头(不显示)浏览器,两种方法我都做了尝试。

Using a headless browser

首先评价一下这个方案,考虑爬虫效率的不推荐使用无头浏览器,相比Splash它破坏了Scrapy的异步并行性,优势是它是个完全的浏览器,浏览器能做到的他都能做到,模拟登陆较Splash简单。更多对比:https://www.cnblogs.com/chaojiyingxiong/p/10246244.html

在百分之九十九的情况下,我都推荐使用Splash附魔JS渲染能力,无论是从效率角度还是安装环境的简易程度上。我之所以会尝试了这个方案,是因为在我上一次写爬虫(2015年前),还没有Splash的方案,我使用了selenium+phantomJS赋能Scrapy,这次也自然地想这么做。当我完成之后,看到屏幕上Selenium报出一个warning,说不再支持phantomJS,请使用headless browser,我自然去搜索headless browser的方案,忽略了Splash。但作为一个可选方案,还是简要记录一下。

在我的mac上,已经安装了chrome,还需要一个与之版本相应的chromedriver,其下载地址在https://sites.google.com/a/chromium.org/chromedriver/downloads ,解压到PATH下即可

image

在shell中输入命令chromedriver 得到如下所示,即为安装成功

Starting ChromeDriver 80.0.3987.106 (f68069574609230cf9b635cd784cfb1bf81bb53a-refs/branch-heads/3987@{#882}) on port 9515

另外需要安装selenium 和 scrapy_selenium ,前者用来控制webdriver,后者是scrapy为了配合selenium实现的一系列组件。

pip install selenium scrapy_selenium

在settings.py总增加如下代码,其中chromedriver启动参数--no-sandbox在docker环境下是必要的,如果没有该选项,由于在docker环境下是root用户,会提示不能再root用户下启动。

from shutil import which

SELENIUM_DRIVER_NAME = 'chrome'
SELENIUM_DRIVER_EXECUTABLE_PATH = which('chromedriver')
SELENIUM_DRIVER_ARGUMENTS=['--headless','--no-sandbox','--disable-dev-shm-usage','blink-settings=imagesEnabled=false']

DOWNLOADER_MIDDLEWARES = {
    'scrapy_selenium.SeleniumMiddleware': 800
}

在构造请求时使用scrapy_selenium库中的SeleniumRequest

from scrapy_selenium import SeleniumRequest
# yield scrapy.Request(url, callback=self.parse)
yield SeleniumRequest(url=url, callback=self.parse, script='window.scrollTo(0, document.body.scrollHeight);')

Pre-rendering JavaScript

需要先安装Splash,并启动Splash服务,这个可以使用docker,只要网速够快,没有任何坑。

docker run -p 8050:8050 scrapinghub/splash

看到Server listening on http://0.0.0.0:8050即为启动成功

使用pip安装scrapy_splash,里面有和Scrapy配合的组件

pip install scrapy_splash

在settings.py中做如下配置,其中SPLASH_URL指定了刚刚启动的Splash服务地址,DOWNLOADER_MIDDLEWARES和SPIDER_MIDDLEWARES替换一系列能与Splash配合的下载器。

SPLASH_URL = 'http://localhost:8050'

DOWNLOADER_MIDDLEWARES = {
    'scrapy_splash.SplashCookiesMiddleware': 723,
    'scrapy_splash.SplashMiddleware': 725,
    'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware': 810,
}

SPIDER_MIDDLEWARES = {
    'scrapy_splash.SplashDeduplicateArgsMiddleware': 100,
}

DUPEFILTER_CLASS = 'scrapy_splash.SplashAwareDupeFilter'

在构造请求时,将scrapy.Request替换为 SplashRequest

from scrapy_splash import SplashRequest

yield SplashRequest(url=url, callback=self.parse)
# yield scrapy.Request(url, callback=self.parse)

install in docker

Using a headless browser的方案相对复杂,在docker中安装不易,给出Dockerfile

FROM python:3.6-slim-stretch

# Install essential packages
RUN apt-get update -y \
    && apt-get -y install \
        dumb-init gnupg wget ca-certificates apt-transport-https \
        ttf-wqy-zenhei unzip \
    && rm -rf /var/lib/apt/lists/* /var/cache/apt/*

# Install Chrome Headless Browser
RUN wget -q -O - https://dl.google.com/linux/linux_signing_key.pub | apt-key add - \
    && echo "deb https://dl.google.com/linux/chrome/deb/ stable main" >> /etc/apt/sources.list.d/google-chrome.list \
    && apt-get update -y \
    && apt-get -y install google-chrome-stable \
    && apt-get -y install build-essential libssl-dev libffi-dev libxml2-dev libxslt-dev \
    && rm /etc/apt/sources.list.d/google-chrome.list \
    && rm -rf /var/lib/apt/lists/* /var/cache/apt/*

# Install chromedriver
ARG CHROME_DRIVER_VERSION=2.35
RUN wget -O tmp/chromedriver_linux64.zip https://chromedriver.storage.googleapis.com/81.0.4044.69/chromedriver_linux64.zip \
    && unzip tmp/chromedriver_linux64.zip -d tmp \
    && rm tmp/chromedriver_linux64.zip \
    && chmod 755 tmp/chromedriver \
    && mv tmp/chromedriver /usr/bin/chromedriver

# Install scrapy & selenium & scrapy-selenium
RUN pip install scrapy selenium scrapy-selenium

CMD [ "/bin/bash" ]

引用

https://blog.csdn.net/zhangpeterx/article/details/83502641

https://sites.google.com/a/chro

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,980评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,178评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,868评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,498评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,492评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,521评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,910评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,569评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,793评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,559评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,639评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,342评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,931评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,904评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,144评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,833评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,350评论 2 342