filespipeline

之前的工作都是针对网页内容,进行xpath解析之后整理入库,
或者写入csv、doc之类,
然后突然收到要去某个网站搜索含“附件”关键词的文章,
并将其中的附件下载,没有下载标签的则保存内容存为doc。
首先想到的是使用Scrapyd框架的下载器-官方文档
使用方法也很简单,如果不需要对文件进行特殊处理只需要

settings.py
# 在配置文件的ITEM_PIPELINES模块加上这一句,启用FilesPipeline
ITEM_PIPELINES = {
    'scrapy.pipelines.files.FilesPipeline': 1,
    'myproject.pipelines.MyFilePipelines': 1, # 自定义pipelines规则
}
# 配置文件存放目录
FILES_STORE = '/pth/to/file/dir'
-------------------------------------------------------------------------------------------
item.py
# 类似于入库操作,设置ITEM,但必须包含file_urls和files
class MyFilesItem(scrapy.Item):
    files = scrapy.Filed()
    file_urls = scrapy.Field()
    file_name = scrapy.Field()   #如果需要自定义文件名
    pass
-------------------------------------------------------------------------------------------
pipelines.py
# 需要自定义pipeline规则时使用,使用默认配置不需要更改,自己的项目文档....懒的改
class MyFilePipeline(FilesPipeline):
    
    def file_path(self, request, response=None, info=None):
        # 对文件重命名时需要重写的方法, Return file path 
        item = request.meta['item']
        dic_file_type = {'tzgg': u'通知公告', 'xmsyj': u'畜牧兽医局', 'nyjstgzz': u'农业技术推广总站',
                         'ncjjtzyjyglc': u'农村经济体制与经营管理处', 'szzglzz': u'种子管理总站', 'ncjjzzglc': '农产品加工办公室',
                         'ncpzlaqjgc': u'农产品质量安全监管局', 'kjjyc': u'科技教育处', 'zzyglc': u'种植业管理处',
                         'nyyw': u'农业要闻'}
        file_type = dic_file_type[(request.url.split('/')[4])]
        file_name = item['file_name']
        file_path_name = u'full/{0}/{1}'.format(file_type, file_name)
        # file_dir = u'full/{0}'.format(file_type)
        # is_file_path = ''.join(['D:/work/studyscrapy/', file_path_name])
        # if not os.path.exists(is_file_path):
        #     os.makedirs(file_dir)
        return file_path_name

    def get_media_requests(self, item, info):
        # FilesPepeline 根据file_urls指定的url进行爬取,该方法为每个url生成一个Request后 Return 
        for file_url in item['file_urls']:
            yield Request(file_url, meta={'item': item})

    def item_completed(self, results, item, info):
        # 所有图片处理完毕后会调用该方法,也可以在该方法下进行文件重命名
        file_paths = [x['path'] for ok, x in results if ok]
        if not file_paths:
            # 如果文件未下载
            raise DropItem("Item contains no file")
        item['file_paths'] = file_paths
        return item
-----------------------------------------------------------------------------------------
spider.py
# 局部代码示例,仅作说明item使用方法
class mySpider(scrapy.Spider):
    # 初始化全局变量
    file_urls = []
    def parse(response):
        sel = Selector(response)
        item = myFileItem()
        a = sel.xpath('//a[@class="ul_list li"]')
        if len(a) != 0:
            for f in a:
                self.file_type.append(meta['type'])
                self.file.append(f.xpath('.//text()').extract_first(default='N/A'))
                f_url = f.xpath('.//@href').extract()[0]
                f_name = f.xpath('.//text()').extract()[0]
                if f_url[0] == '.':
                    f_site = response.url.split('/')
                    f_site[-1] = f_url[2::]
                    f_url = '/'.join(f_site)
                    item['files'] = f_name
                    item['file_urls'] = [f_url]
                    item['file_name'] = f_name
                yield item

如果不写自己的filepipeline,文件名是使用file_url的SHA1 hash,不利于文章的分类整理。
还没有试过imagepipeline,不过具体用法类似,用上了再看

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 200,667评论 5 472
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,361评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 147,700评论 0 333
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,027评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,988评论 5 361
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,230评论 1 277
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,705评论 3 393
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,366评论 0 255
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,496评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,405评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,453评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,126评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,725评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,803评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,015评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,514评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,111评论 2 341

推荐阅读更多精彩内容