爬虫框架Scrapy(例子)

前言

最近看到一篇非常不错的关于新词发现的论文--互联网时代的社会语言学:基于SNS的文本数据挖掘,迫不及待的想小试牛刀。得先有语料啊……

本文将爬取爱思助手官网苹果咨询专栏。通过这里现学了点Scrapy。


安装

具体安装细节就不说了,度娘和Google都知道。

1、Python2.7

      Scrapy需要用python编程。

2、anaconda

        anaconda里面集成了很多关于python科学计算的第三方库,主要是安装方便,而python是一个编译器,如果不使用anaconda,那么安装起来会比较痛苦,各个库之间的依赖性就很难连接的很好。

3、MySQL

      将爬取到的数据直接落地MySQL。需要新建一个表为后面存数据做准备。

CREATE TABLE `i4` (

          `id` INT(11) NOT NULL AUTO_INCREMENT,

         `title` VARCHAR(150) NOT NULL,

         `time` VARCHAR(15) NOT NULL,

         `content` LONGTEXT NOT NULL,

         PRIMARY KEY (`id`)

) ENGINE=INNODB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8

4、Scrapy

      pip install scrapy

实战

通过观察该页面发现图二才是我们真正需要爬取的网页,但是该网页没有需要跟进的链接,所有链接都在图一的网页里,所以我们需要做两件事,第一,在图一里拿URL,再通过URL到图二的网页里面爬取所需的内容(标题、发表时间、正文)。

图一
图二

通过scrapy命令创建了一个名为i4的Scrapy项目。

scrapy startproject i4

该命令将会创建包含下列内容的i4目录:

这些文件分别是:

           scrapy.cfg: 项目的配置文件

           i4/: 该项目的python模块。之后您将在此加入代码。

           i4/items.py: 项目中的item文件.

           i4/pipelines.py: 项目中的pipelines文件.

           i4/settings.py: 项目的设置文件.

          i4/spiders/: 放置spider代码的目录.

定义提取的Item,Item是保存爬取到的数据的容器;

class I4Item(scrapy.Item):

        title = scrapy.Field()    #标题

        time  = scrapy.Field()    #发布时间

        content=scrapy.Field()    #内容

        pass

编写爬取网站的spider并提取Item,Spider是用户编写用于从单个网站(或者一些网站)爬取数据的类。

class MySpider(scrapy.Spider):

         name = "i4"  #设置name

         allowed_domains = ["www.i4.cn"]    #设定域名

         start_urls = ["http://www.i4.cn/news_1_0_0_2.html"]  #填写爬取地址

          #编写爬取方法

         def parse(self, response):

                    for box in response.xpath('//div[@class="kbox"]//div[@class="news_list"]'):   #爬取图二的网页内容

                             link=box.xpath('./a[@class="img"]/@href').extract()[0]

                             prefix='http://www.i4.cn/'

                             link = prefix+link

                             print(link)

                             yield scrapy.Request(url = link, callback=self.parse_item)

                for box in response.xpath('//div[@class="paging"]'):   #爬取图一的URL

                            link=box.xpath('./a[last()-1]/@href').extract()[0]

                            prefix='http://www.i4.cn/'

                            link = prefix+link

                            print(link)

                            yield scrapy.Request(url = link, callback=self.parse)

         def parse_item(self, response):

                item = I4Item()  #实例一个容器保存爬取的信息

                #这部分是爬取部分,使用xpath的方式选择信息,具体方法根据网页结构而定

               for box in response.xpath('//div[@class="block_l"]'):

                         item['title'] = box.xpath('.//h1[@class="title"]/text()').extract()    #获取title

                        item['time'] = box.xpath('.//div[@class="info"]/div[@class="time "]').xpath('string(.)').extract()  #获取time

                        item['content'] = box.xpath('./div[@class="content"]').xpath('string(.)').extract()  #获取content

                        yield item  #返回信息

编写Item Pipeline来存储提取到的Item(即数据)

class MySQLPipeline(object):

          def __init__(self):

          self.conn = MySQLdb.connect(host="192.168.0.103",user="root",passwd="123456",db="ufo",charset="utf8")

          self.cursor = self.conn.cursor()

         def process_item(self, item, spider):

                 sql = "insert ignore into i4(title, time, content) values(%s, %s, %s)"

                 param = (item['title'], item['time'], item['content'])

                 self.cursor.execute(sql,param)

                  self.conn.commit()

可以设置多个Pipeline,需要在settings.py里设置,数字大小意为先后顺序。

ITEM_PIPELINES = {

           'i4.MyPipelines.MyPipeline': 1,

           'i4.MySQLPipelines.MySQLPipeline': 2,

}

运行爬虫

scrapy crawl  i4

结果会保存到MySQL数据库

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,324评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,303评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,192评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,555评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,569评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,566评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,927评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,583评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,827评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,590评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,669评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,365评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,941评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,928评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,159评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,880评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,399评论 2 342

推荐阅读更多精彩内容

  • 本文希望达到以下目标: 简要介绍Scarpy 阅读官网入门文档并实现文档中的范例 使用Scarpy优豆瓣爬虫的抓取...
    Andrew_liu阅读 81,954评论 30 177
  • 1.Scrapy的命令行命令 创建一个Scrapy工程终端输入: PyCharm 下直接运行 ScrapyScra...
    EnjoyWT阅读 3,130评论 0 1
  • 创建Scrapy项目 首先打开命令行,进入你想存放scrapy项目的目录下,输入以下命令 将会创建firstscr...
    敢梦敢当阅读 306评论 0 0
  • 昨晚上看的彩铅教程没有跟着画,今天在没有WiFi的情况下,跟着回忆画的↓ 工具准备: 1. 铅笔 36色彩铅(装备...
    想吃怕肥的嗷呜阅读 239评论 0 3
  • 空调嗡嗡的响个不停,关掉没一会屋子里就腾的升起一股热气,只好听着它响慢慢的与周围融为一体。房间被夜色包裹,睡前已经...
    某某某张m阅读 192评论 0 0