爬虫入门修行——爬取美女图片,分目录多级存储

如果本文帮助到你,本人不胜荣幸,如果浪费了你的时间,本人深感抱歉。
希望用最简单的大白话来帮助那些像我一样的人。如果有什么错误,请一定指出,以免误导大家、也误导我。
本文来自:http://www.jianshu.com/u/320f9e8f7fc9
感谢您的关注。

最近有个需求:下载某个网站的图片。
所以简单研究了一下爬虫。
在此整理一下结果,一为自己记录,二给后人一些方向。
整体研究周期 2-3 天,看完之后,在加上看的时候或多或少也会自己搜到一些其他知识。
顺着看下来,应该会对爬虫技术有一个初步的认识。

利用 Python 的 Scrapy 框架。


1. 首先,安装爬虫需要的环境

Python爬虫系列之----Scrapy下载安装
http://blog.csdn.net/u011781521/article/details/70177291

这里面非常详细的介绍了每一步的下载,按照步骤下载安装,完全没有问题。

2. 一个非常简单的下载图片的例子

结合 Scarpy 框架的中文官网
来看这个例子:下载图片
http://www.jianshu.com/p/b5ae15cb131d

这个项目跑通之后,也就大概能了解 Scarpy 框架。

但是这个项目还不够完善,因为所爬取的图片全部都在一个文件夹下,并且图片的名字也被修改了。

3. 多页爬取,并且分目录保存到本地

首先看这篇文章,讲解了如何多级爬取。
https://my.oschina.net/lpe234/blog/342741

不太明白的话,可以多看几遍。如果,还是实在不明白,也没关系,直接看接下来的例子,可能更直观。

例子一:

scrapy中使用ImagePipeline自定义图片文件名
http://mazih.com/post/cibuwb7bu0000rfa2m169vzv9/

这个例子介绍了在往本地下载的时候,如何多级存储。

例子二:

爬取妹子图
http://codingpy.com/article/scrapy-01-meizitu/
跟上面差不多,但也能加深理解,加强印象。

4. 反爬虫

Scrapy爬取美女图片第四集 突破反爬虫(上)
http://www.jianshu.com/p/9159111bcd87
Python爬虫系列之----Scrapy(七)使用IP代理池
http://blog.csdn.net/u011781521/article/details/70194744?locationNum=4&fps=1
scrapy下载图片遇到反盗链的设置,解决方法两种
https://zhuanlan.zhihu.com/p/26251969

最后再分享一个系列,非常棒。解决了不少问题。
http://blog.csdn.net/u011781521/article/category/6560282


以上就是学习的时候,看到的一些资料。
然后贴出一篇我自己写的,爬取的时候分了三级目录,并且,最后一级还有 下一页。

import scrapy
from znns.items import ZnnsItem


class NvshenSpider(scrapy.Spider):
    name = 'znns'
    allowed_domains = ['']
    start_urls = ['https://www.nvshens.com/rank/sum/']
    headers = {
        'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
        'Accept-Language': 'zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3',
    }

    # 排行榜循环
    def parse(self, response):
        exp = u'//div[@class="pagesYY"]//a[text()="下一页"]/@href'  # 下一页的地址
        _next = response.xpath(exp).extract_first()
        yield scrapy.Request(response.urljoin(_next), callback=self.parse, dont_filter=True)

        for p in response.xpath('//li[@class="rankli"]//div[@class="rankli_imgdiv"]//a/@href').extract():  # 某一个妹子简介详情页
            item_page = "https://www.nvshens.com/" + p + "album/"  # 拼接 全部相册页面
            yield scrapy.Request(item_page, callback=self.parse_item, dont_filter=True)

    # 单个介绍详情页
    def parse_item(self, response):
        item = ZnnsItem()
        # 某个人的名字,也就是一级文件夹
        item['name'] = response.xpath('//div[@id="post"]//div[@id="map"]//div[@class="browse"]/a[2]/@title').extract()[
            0].strip()

        exp = '//li[@class="igalleryli"]//div[@class="igalleryli_div"]//a/@href'
        for p in response.xpath(exp).extract():  # 遍历妹子全部相册
            item_page = "https://www.nvshens.com/" + p  # 拼接图片的详情页
            yield scrapy.Request(item_page, meta={'item': item}, callback=self.parse_item_details, dont_filter=True)

    # 图片主页,开始抓取
    def parse_item_details(self, response):
        item = response.meta['item']
        item['image_urls'] = response.xpath('//ul[@id="hgallery"]//img/@src').extract()  # 图片链接
        item['albumname'] = response.xpath('//h1[@id="htilte"]/text()').extract()[0].strip()  # 二级文件夹
        yield item

        new_url = response.xpath('//div[@id="pages"]//a[text()="下一页"]/@href').extract_first()  # 翻页
        new_url = "https://www.nvshens.com/" + new_url
        if new_url:
            yield scrapy.Request(new_url, meta={'item': item}, callback=self.parse_item_details, dont_filter=True)

爬取结果如图:


最后放上我写的项目地址:
https://github.com/Wing-Li/znns

欢迎 Star,欢迎关注。

<br />
收集:
收集各种爬虫 (默认爬虫语言为 python)
用 PHP 爬虫做旅游数据分析

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342

推荐阅读更多精彩内容