2017-5-2Scrapy爬顶点

学着用一下框架,参考了小白进阶之Scrapy第一篇(这篇文章写的很详细),采集顶点小说

  • 首先在item里定义字段
    name = scrapy.Field()  # 小说的名字
    author = scrapy.Field()  # 小说的作者
    novelurl = scrapy.Field()  # 小说地址
    status = scrapy.Field()  # 状态
    number = scrapy.Field()  # 连载字数
    category = scrapy.Field()  # 文章类别
    name_id = scrapy.Field()  # 小说编号
  • 创建dingdian.py导入需要的模块
import scrapy
import re
from dingdian.items import DingdianItem
from scrapy.http import Request
from bs4 import BeautifulSoup
  • 根据不同分类的小说作为入口url,观察特征,编写start_urls列表
class DingdianSpider(scrapy.Spider):

    name = 'dingdian'  # 项目名称,必须是唯一的
    allowed_domains = ['23us.com']  # 域名
    start_urls = []  # 构建各个类型首页url的列表
    for i in range(1, 11):
        url = 'http://www.23us.com/class/%d_1.html' % i
        start_urls.append(url)
  • 编写parse函数解析response构建出所有页面的url
    def parse(self, response):
        '''
        解析每一个类型的首页url并返回这个类型的所有页面url
        :param response: 
        :return: 
        '''
        pattern = '>1/(\d+)<'
        html = response.text
        max_num = re.findall(pattern, html)[0]  # 构建re获取各个类型的最大页面数
        prefix_url = str(response.url)[0:28]
        for num in range(1, int(max_num)+1):
            url = prefix_url + str(num) + '.html'  # 构建每一页的完整url
            yield Request(url, callback=self.get_url)
            # 将页面的response交给get_url()函数处理

首先是根据正则表达式获取最大页码值,然后拼接处完整的url,并将response传递给下一个函数.

  • 写一个get_url()函数获取每一页小说简介的url,跟原博思路不太一样的是我先找到小说的简介的url再去简介里面获取需要的信息,因为我发现简介里面有需要的所有信息,很详细.


    简介.png
    def get_url(self, response):
        '''
        根据每个页面的url找到这个页面中所有书籍的简介url
        :param response: 
        :return: 
        '''
        # pattern1 = 'title="(.*?)简介"'  # name的正则表达式(偷懒用re)
        pattern2 = 'a href="(.*?)" title='  # 构造简介的url的正则表达式
        html = response.text
        # names = re.findall(pattern1, html)
        urls = re.findall(pattern2, html)
        for u in urls:
            yield Request(u, callback=self.get_all)  # 将简介的url交给get_all处理

本来打算在这个函数提取出小说名,根据title=这个规律,但发现不好传递给下一个函数,就只提取一个简介的url好了,下一个函数再把所有需要的提取出来.

2017-05-02 获取name正则.png
  • 最后就是get_all(),提取我们需要的所有吧.
    def get_all(self, response):
        '''
        处理页面,匹配各项内容并返回item字典
        :param response: 
        :return: 
        '''
        item = DingdianItem()
        html = response.text
        name = BeautifulSoup(html, 'lxml').find('h1').get_text().split()[0]
        novelurl = BeautifulSoup(html, 'lxml').find('a', class_='read')['href']
        bs_table = BeautifulSoup(html, 'lxml').find('table')
        author = bs_table.find_all('td')[1].get_text().split()[0]
        status = bs_table.find_all('td')[2].get_text().split()[0]
        number = bs_table.find_all('td')[4].get_text().split()[0][:-1]
        category = bs_table.find_all('td')[0].get_text().split()[0]
        name_id = re.findall('down/(\d+)', html)[0]
        item['name'] = name
        item['author'] = author
        item['novelurl'] = novelurl
        item['status'] = status
        item['number'] = number
        item['category'] = category
        item['name_id'] = name_id
        return item

都是一些简单的提取代码,没什么好解释的.Spider就写完了.

  • 定义pipeline存入MySQL,刚看了下MySQL语法,这段基本上是copy了原博的代码,修改settings
  • 昨晚run了一下,40秒存入3500多条数据,大概是120个页面,就心满意足的上床睡觉了.



  • 今天早上起来想着把数据全爬下来(8点多看小说的人应该睡着了吧,这个时候服务器访问量没那么大,减轻服务器压力).



    洗脸刷页回来发现好多重定向,数据总共只有5000多条,还不如40秒勒.在settings里禁止了重定向数据也没有多起来.

  • 顶点就先这样吧,总结一下,页面比较简单,都是静态没有Ajax,好像也没有限制ip访问频率,这个重定向对我来说拎不清.还有一些想法没精力和能力实现的:能不能把url放进set去重代替MySQL判断,怎么提高速率(多进程?).源码
  • 以前觉得把过程记录下来好占时间,但自己看了别人的优秀博客学到了很多,也应该多记录,留下点什么作为传承(虽然自己水了点,莫欺少年穷),也方便自己回顾,再理一遍.
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,902评论 5 468
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,037评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,978评论 0 332
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,867评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,763评论 5 360
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,104评论 1 277
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,565评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,236评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,379评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,313评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,363评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,034评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,637评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,719评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,952评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,371评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,948评论 2 341

推荐阅读更多精彩内容