第一个爬虫

[TOC]

目标

用scrapy写一个可以下载页面,解析静态页面的爬虫,加head,加链接生成器
解析,可能用xpath+bs

安装

conda install scrapy

如果已经安装过,要升级,执行

conda update scrapy

生成原始爬虫

新建一个文件夹scrapy,然后执行scrapy startproject tutorial,生成demo

在tutorial/spider目录下,新建dmoz_spider.py,输入下面代码

#!/usr/bin/python
# -*- coding: utf-8 -*-
# __author__ = "leisurem"

import sys
import scrapy
from bs4 import BeautifulSoup
reload(sys)
sys.setdefaultencoding('utf-8')


class DmozSpider(scrapy.spiders.Spider):
    name = "dmoz"
    allowed_domains = ["dmoz.org"]
    start_urls = [
        'http://jobs.51job.com/nanjing/76840759.html?s=0',
    ]

    def parse(self, response):
        # print response.url.split("/")
        filename = response.url.split("/")[-1]
        with open(filename, 'wb') as f:
            soup = BeautifulSoup(response.body, "html5lib")
            company_name = soup.find('p', class_="cname").get_text().strip()
            job_title = soup.find('h1').get('title')
            job_describe = soup.find(
                'div', class_="bmsg job_msg inbox").get_text().split()[1]
            company_address = soup.find(
                'div', class_="bmsg inbox").get_text().split()[0]
            company_info = soup.find(
                'div', class_="tmsg inbox").get_text().split()[0]
            f.write('company_name is ' + company_name + '\n' + '\n')
            f.write('job_title is ' + job_title + '\n' + '\n')
            f.write('job_describe is ' + job_describe + '\n' + '\n')
            f.write('company_address is ' + company_address + '\n' + '\n')
            f.write('company_info is ' + company_info + '\n' + '\n')

bs4

这边的解析用了BeautifulSoup
简要介绍一下bs4的用法
bs4是和xpat不太一样的一种路径定位方式(当然,你实在需要,bs也支持re定位)

安装

conda install beautifulsoup4
conda install html5lib
conda install lxml

bs解析

bs里面的东西多,介绍几种方法

  • 标签定位
    如果已经知道要定位的内容在a标签内,但是a标签往往不止一个,可以数一下再第几个a标签内,比如再第6个a标签里soup.find_all('a')[5].get_text()
    如果,知道就是第一个a标签,则可以用soup.find('a').get_text()

  • 正则

找出所有b开头的标签,比如body,b,b2这些都会被找出来
import re
for tag in soup.find_all(re.compile("^b")):
    print(tag.name)

下面代码找出所有名字中包含”t”的标签
for tag in soup.find_all(re.compile("t")):
    print(tag.name)
  • 类解析
    如果是类似这样的代码,可以按照类名和值搜索tag
<p class="cname">
                <a href="http://jobs.51job.com/all/co268532.html" target="_blank" title="万得信息技术股份有限公司(Wind资讯)">万得信息技术股份有限公司(Wind资讯)<em class="icon_b i_link"></em></a>
            </p>

soup.find('p', class_="cname").get_text().strip()

加配置头

配置头

打开firefox,按f12,点reload按钮,然后点旁边的edit and resent,拷贝head
打开项目目录下的settings.py,输入下面代码

DEFAULT_REQUEST_HEADERS = {
  'Host': 'jobs.51job.com',
  'User-Agent': 'Mozilla/5.0 (X11; Ubuntu; Linux x86_64; rv:47.0) Gecko/20100101 Firefox/47.0',
  'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
  'Accept-Language': 'zh-CN,en-US;q=0.7,en;q=0.3',
  'Accept-Encoding': 'gzip, deflate',
  'Cookie': 'guid=14676224113529970042; ps=us%3DWmZSMFUpBzYAZg99VzBXZw09U3wANAdmBTBVe1tgAjYPMVo5VDEDNlM3CGALZ1NpBD4BNAE1VXxWFQA4AHAEcVpg%26%7C%26nv_3%3D; 51job=cuid%3D67028249%26%7C%26to%3DDTMCblc1VGAAaQxiB2ZRawN8BWgHZFVpUidWcQtzUjcBZAUiBWZTYFc2WjYKbV1pAzFXYwQxB2M%253D%26%7C%26cusername%3Dleisurem%26%7C%26cpassword%3D%26%7C%26ccry%3D.02PaxjLxs3vQ%26%7C%26cresumeid%3D88438738%26%7C%26cresumeids%3D.0RBx5M27b7UU%257C%26%7C%26cname%3D%25C2%25ED%25CE%25C4%25BD%25DC%26%7C%26cemail%3Dleisurem%2540126.com%26%7C%26cemailstatus%3D3%26%7C%26cnickname%3D%26%7C%26cenglish%3D0%26%7C%26cautologin%3D1%26%7C%26sex%3D0%26%7C%26cconfirmkey%3DleDLv4rER1zlU%26%7C%26cnamekey%3DleVc9stx.CGiQ; slife=lastvisit%3D070200; search=jobarea%7E%60070200%7C%21ord_field%7E%600%7C%21recentSearch0%7E%601%A1%FB%A1%FA070200%2C00%A1%FB%A1%FA000000%A1%FB%A1%FA0000%A1%FB%A1%FA00%A1%FB%A1%FA9%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA%C4%A3%D0%CD+++%BB%D8%B2%E2%A1%FB%A1%FA2%A1%FB%A1%FA%A1%FB%A1%FA-1%A1%FB%A1%FA1469523105%A1%FB%A1%FA0%A1%FB%A1%FA%A1%FB%A1%FA%7C%21recentSearch1%7E%601%A1%FB%A1%FA070200%2C00%A1%FB%A1%FA000000%A1%FB%A1%FA0000%A1%FB%A1%FA00%A1%FB%A1%FA9%A1%FB%A1%FA99%A1%FB%A1%FA07%2C08%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA07%2C06%2C05%2C04%2C03%A1%FB%A1%FApython++++%B9%C9%C6%B1%A1%FB%A1%FA2%A1%FB%A1%FA%A1%FB%A1%FA-1%A1%FB%A1%FA1469518712%A1%FB%A1%FA0%A1%FB%A1%FA%A1%FB%A1%FA%7C%21recentSearch2%7E%601%A1%FB%A1%FA070200%2C00%A1%FB%A1%FA000000%A1%FB%A1%FA0000%A1%FB%A1%FA00%A1%FB%A1%FA9%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA07%2C06%2C05%2C04%2C03%A1%FB%A1%FApython++++%B9%C9%C6%B1%A1%FB%A1%FA2%A1%FB%A1%FA%A1%FB%A1%FA-1%A1%FB%A1%FA1469518699%A1%FB%A1%FA0%A1%FB%A1%FA%A1%FB%A1%FA%7C%21recentSearch3%7E%601%A1%FB%A1%FA070200%2C00%A1%FB%A1%FA000000%A1%FB%A1%FA0000%A1%FB%A1%FA00%A1%FB%A1%FA9%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FApython++++%B9%C9%C6%B1%A1%FB%A1%FA2%A1%FB%A1%FA%A1%FB%A1%FA-1%A1%FB%A1%FA1469518681%A1%FB%A1%FA0%A1%FB%A1%FA%A1%FB%A1%FA%7C%21recentSearch4%7E%601%A1%FB%A1%FA070200%2C00%A1%FB%A1%FA000000%A1%FB%A1%FA0000%A1%FB%A1%FA00%A1%FB%A1%FA9%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FA99%A1%FB%A1%FApython++%C1%BF%BB%AF%A1%FB%A1%FA2%A1%FB%A1%FA%A1%FB%A1%FA-1%A1%FB%A1%FA1469518666%A1%FB%A1%FA0%A1%FB%A1%FA%A1%FB%A1%FA%7C%21collapse_expansion%7E%601%7C%21; nsearch=jobarea%3D%26%7C%26ord_field%3D%26%7C%26recentSearch0%3D%26%7C%26recentSearch1%3D%26%7C%26recentSearch2%3D%26%7C%26recentSearch3%3D%26%7C%26recentSearch4%3D%26%7C%26collapse_expansion%3D',
  'Connection': 'keep-alive',
  'Cache-Control': 'max-age=0',
}

定义item

打开items.py,加入以下代码来定义抓取域,暂定五个,包括工资,职位,职位描述,公司类型,公司规模,公司行业

    job_pay = Field()
    job_title = Field()
    job_describe = Field()
    company_type = Field()
    company_scale = Field()
    company_industry = Field()

url抽取器

考虑到url抽取略慢,重写了url抽取器
在tutorial下新建buildlink.py,完成url抽取器的编码
主要思路是先解析出所在地区的url样式,以及当天本地区更新的职位数量,然后直接生成,而非按页解析出每个职位列表页的链接

http://search.51job.com/list/070200,070211,0000,00,9,99,%2B,2,1.html是某地的一个职位列表页,通过分析程序可以在这边页面上解析出当前总共的职位列表有多少页,然后替换最后的数字1来生成本地区的所有职位列表的url

运行爬虫

把url抽取器加入到spider之后,即可运行爬虫,输出格式为json,下面是修改后的代码

class DmozSpider(scrapy.spiders.Spider):
    name = "51job"
    def  __init__(self):
        self.allowed_domains = ["51job.com"]
        self.start_urls = ['http://jobs.51job.com/nanjing-xwq/77959226.html?s=0', ]

    def parse(self, response):
        item = TutorialItem()
        soup = BeautifulSoup(response.body, "html5lib")
        item['job_title'] = soup.find('h1').get('title')
        item['job_pay'] = soup.find('div', class_="cn").strong.get_text().strip()
        item['job_describe'] = soup.find('div', class_="bmsg job_msg inbox").get_text().split()[1]
        item['company_type'], item['company_scale'], item['company_industry'] = [x.strip() for x in soup.find('p', class_="msg ltype").get_text().split('|')]
        yield item

运行命令如下
scrapy crawl 51job -o items.json

后续工作

根据爬虫设计概要,下面会运行一段时间,这期间不可避免的会遇到一些问题:

  • 登陆,获取cookie
  • 登陆又会遇到验证码的问题\
  • 对于打算抓取的页面,需要进行url去重,这可能会涉及bloomfilter
  • 对于打算解析的页面,可能会涉及页面重复的判断
  • 数据存储会进一步优化
  • 图片存储会加进来
  • 同时考虑js解析的问题
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,905评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,140评论 2 379
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,791评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,483评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,476评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,516评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,905评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,560评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,778评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,557评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,635评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,338评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,925评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,898评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,142评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,818评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,347评论 2 342

推荐阅读更多精彩内容

  • 1.定义Item Item 是保存爬取到的数据的容器;其使用方法和 python 字典类似。 您可以通过创建一个 ...
    SingleDiego阅读 992评论 0 1
  • 在慕课网上学习了简单的爬虫该怎么写,看了一遍,敲了一遍,还是有些迷糊,于是,又把每一步的要点总结了一下。 ...
    芈子契阅读 312评论 0 0
  • Scrapy使用你定义的爬虫的类来从网站中爬取信息。你定义的爬虫的类必须是scrapy.Spider的子类,并且需...
    没有车胎的战车阅读 637评论 0 0
  • 文集名字已经改成《蜘蛛结网》了,那么这个专题下不限于课程学习的练习题,也有自己的练手和札记。最近去爬了一个留学服务...
    mugichya阅读 335评论 0 1
  • #第一个爬虫 --- 今天写了第一个爬虫,几点困难: 1. 开发环境设置: py3.5 vs py2.7,anac...
    林六如阅读 398评论 0 0