Java(9):浅谈WebCollector的数据抓取


前言

作为Java世界中小白的我(瑟瑟发抖的状态),在网络数据抓取这一块简直是一无所知.天无绝人之路,这时候我们老大向我推荐一个很好用的爬虫框架WebCollector,WebCollector是一个无须配置、便于二次开发的JAVA爬虫框架,它提供精简的的API,只需少量代码即可实现一个功能强大的爬虫。WebCollector-Hadoop是WebCollector的Hadoop版本,支持分布式爬取。WebCollector用起来个人赶脚还是非常的简单轻便的,这里就以一个初学者的身份简单分享一下WebCollector.


WebCollector的特点

如果我们使用一个框架,那么我们最需要明白它的优势和缺点,这样我们才能更好的发挥它的作用.由于我对网络数据爬取这一块现在只了解到WebCollector框架,所以我就从网上找了一些关于WebCollector的资料,然后整理一下.

WebCollector与传统网络爬虫的区别

传统的网络爬虫倾向于整站下载,目的是将网站内容原样下载到本地,数据的最小单元是单个网页或文件。而WebCollector可以通过设置爬取策略进行定向采集,并可以抽取网页中的结构化信息。

WebCollector与HttpClient、Jsoup的区别

WebCollector是爬虫框架,HttpClient是Http请求组件,Jsoup是网页解析器(内置了Http请求功能)。

一些程序员在单线程中通过迭代或递归的方法调用HttpClient和Jsoup进行数据采集,这样虽然也可以完成任务,但存在两个较大的问题:

  1. 单线程速度慢,多线程爬虫的速度远超单线程爬虫。

  2. 需要自己编写任务维护机制。这套机制里面包括了URL去重、断点爬取(即异常中断处理)等功能。

WebCollector框架自带了多线程和URL维护,用户在编写爬虫时无需考虑线程池、URL去重和断点爬取的问题。

WebCollector能够处理的量级

WebCollector目前有单机版和Hadoop版(WebCollector-Hadoop),单机版能够处理千万级别的URL,对于大部分的精数据采集任务,这已经足够了。WebCollector-Hadoop能够处理的量级高于单机版,具体数量取决于集群的规模。

WebCollector的遍历

WebCollector采用一种粗略的广度遍历,但这里的遍历与网站的拓扑树结构没有任何关系,用户不需要在意遍历的方式。PS:这一点作为小白的我是深有体会...😂 😂 😂

网络爬虫会在访问页面时,从页面中探索新的URL,继续爬取。WebCollector为探索新URL提供了两种机制,自动解析和手动解析。两种机制的具体内容请读后面实例中的代码注释。


WebCollector的简单使用

上面说了一堆WebCollector框架的特点,下面我们就简单的看一下WebCollector在实际过程中是如何使用的呢?

1.首先我们可以直接把WebCollector的jar包导入工程,或者在pom文件中配置Maven依赖关系.如下所示

方式1:点击下载WebCollector的jar包

方式2:配置Maven依赖关系,如下所示

<dependency>
    <groupId>cn.edu.hfut.dmic.webcollector</groupId>
    <artifactId>WebCollector</artifactId>
    <version>2.70</version>
</dependency>


2. 创建一个实体类继承于BreadthCrawler类,重写BreadthCrawler构造器方法.在构造器方法中设置基本爬虫类属性.比如设置种子集合、设置URL正则约束、设置是否断点爬取、设置线程数等等.(代码在最下面.)
3.搞好构造器方法之后,我们最需要的就是实现接口Visitor中的方法public void visit(Page page, CrawlDatums next).在visit这个方法中我们抓取我们所需要的数据信息.


下面我们就拿一个具体的示例来说明WebCollector的抓取过程是如何实现的.我们就要抓取出下面页面中我的名字"神经骚栋".

我们先创建好类以及构造器和visit方法.如下所示.

package com.infosports.yuqingmanagement.crawler.impl;

import cn.edu.hfut.dmic.webcollector.model.CrawlDatum;
import cn.edu.hfut.dmic.webcollector.model.CrawlDatums;
import cn.edu.hfut.dmic.webcollector.model.Page;
import cn.edu.hfut.dmic.webcollector.plugin.berkeley.BreadthCrawler;
import cn.edu.hfut.dmic.webcollector.util.RegexRule;

public class SaoDongCrawler extends BreadthCrawler {

    private final static String crawlPath = "/Users/luying/data/db/jianshu";

    private final static String seed = "http://www.jianshu.com/u/e39da354ce50";
    
    RegexRule regexRule = new RegexRule();

    public SaoDongCrawler() {
        super(crawlPath, false);
        
        //添加爬取种子,也就是需要爬取的网站地址,以及爬取深度
        CrawlDatum datum = new CrawlDatum(seed)  
                    .meta("depth", "1");  
        addSeed(datum);
        
        //设置线程数,根据自己的需求来搞
        setThreads(2);
        
        //添加正则表达式规则
        regexRule.addRule("http://.*");
    }
    
    @Override
    public void visit(Page page, CrawlDatums next) {
        
    } 
    
    public static void main(String[] args) throws Exception {
        
        //测试
        SaoDongCrawler crawler = new SaoDongCrawler();
        crawler.start(2);
    }
}

然后我们打开网页的开发者工具去查找我们所需爬取数据的元素以及class.如下所示

我们通过开发者工具找到了我们所需要的元素,所以我们可以在visit方法里面如下获取"神经骚栋"四个字.

    @Override
    public void visit(Page page, CrawlDatums next) {
        
        String name = page.select("a.name").text();
        System.out.println(name);
    } 

或者我们不想获取标签的值,只想获取标签该如何呢?然后再通过标签来获取标签的值.

    @Override
    public void visit(Page page, CrawlDatums next) {
        Element nameElement = page.select("a.name").first();
        String name = nameElement.text();
        System.out.println(name);
    } 

又或者由于某个class的标签过多,我们需要通过上一级标签来获取标签该如何办呢?我们需要使用 > 来进行操作.具体示例就拿这个"name"标签为示例.

    @Override
    public void visit(Page page, CrawlDatums next) {
        Element nameElement = page.select("div.title>a.name").first();
        String name = nameElement.text();
        System.out.println(name);
    }

爬取结果如下所示.


总结

这篇博客写到这就到了尾声了,WebCollector基本上可以满足骚栋我自己的数据爬取需求.当然了,毕竟初学Java不久所以文章很多概念都可能模糊不清,所以如果有错误,欢迎指导批评,非常感谢.

本文参考文章:Java开源爬虫框架WebCollector 2.x入门教程——基本概念



最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 199,519评论 5 468
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 83,842评论 2 376
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 146,544评论 0 330
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,742评论 1 271
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,646评论 5 359
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,027评论 1 275
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,513评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,169评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,324评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,268评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,299评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,996评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,591评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,667评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,911评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,288评论 2 345
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,871评论 2 341

推荐阅读更多精彩内容