Python 爬虫爬坑路(二)——B站图片,咸鱼的正确 GET 姿势

前言

昨天在写完 入门级爬虫之后 ,马上就迫不及待的着手开始写 B站的图片爬虫了,真的很喜欢这个破站呢 (〜 ̄△ ̄)〜

这里不涉及到 Python 爬虫的高级技巧,没有使用框架,没有考虑反爬机制,没有使用异步IO技术,因为这些,我都不会!

分析目标

我们选定 B站的 动画区 进行测试,打开后我们发现有好多好多图....

BiliBiliSpider1.png

但当我们使用 F12 查看这些图片的时候,发现并没有图片的地址...

这就是目前大多网站使用的 Ajax 技术动态加载数据的锅,可遇到这种情况这么办呢?别急别急,我们知道这些图片的地址一定是需要加载的,而目前常见WEB传输数据的基本就是方式 XML 和 Json (其实是我就知道这两种...),那好我们去看看请求的 XML 和 Json 文件。

BiliBiliSpider3.png

以下省略查找过程....

我们发现 B站的图片地址是保存在 Json 里面的,ok,我们保存好这个 json 地址:
https://api.bilibili.com/x/web-interface/dynamic/region?callback=jQuery172071087417824369_1505783866149&jsonp=jsonp&ps=15&rid=24&_=1505783866453

这个是 MAD·AMV 最新动态的 Json 文件,利用上面相同的方法,我们找到 3D区、短片·配音区、综合区 以及 右边排行部分 的相应 json 地址。

找到 Json 数据后,我们需要开始分析如何才能从中拿到 图片地址了

好在 Chrome 浏览器提供了一个 Preview 功能,自动帮我们整理好 数据,如下

BiliBiliSpider4.png

这样就很清晰啦,我们只需要一层层解析拿到 pic 即可。于是我们这样写:

    json_url = 'https://api.bilibili.com/x/web-interface/dynamic/region?callback=jQuery172071087417824369_1505783866149&jsonp=jsonp&ps=15&rid=24&_=1505783866453'
    json = requests.get(json_url).json()
    print (json)

我们利用 requests 内置的 json 解码器,很不幸,报错:

json.decoder.JSONDecodeError: Expecting value: line 1 column 1 (char 0)

它提示说:解码 Json 数据的时候出了问题,可能是在 第一行 第一列,咦?好奇怪,刚才不是用浏览器看过结构了吗,没毛病啊,怎么还在报错:Σ(  ̄□ ̄||)

别急别急,我们先看看原始的 Json 数据长啥样?用 浏览器打开上面的 json 链接就可以了。

BiliBiliSpider5.png

(/TДT)/ 前面的那些字母是干嘛的呀,为什么还有括号啊!

所以我们知道了 Json 解析错误 的原因啦:后面在处理的时候把前面的这部分删掉就好啦,另外我们也发现了 archives 这个关键字,我们在上一张图看见过的哦,有印象吗?啊,你说没有呀,没关系,这里你只需要记着它是一个 List 的数据类型就好了呀!

开码开码

先看看 解析部分怎么写:

  1. 获取 Json 数据
  2. 解析 Json 数据,并保存其中的 所有的图片链接
  3. 注意去重
        #coding:utf-8

        __author__ = 'Lanc4r'

        import json
        import requests
        import re

        class BiliBiliSpider(object):

            def __init__(self):
                self._images = []
                self._oldImages = []            # 保存已经获取过的 图片地址

            def _getImages(self, url):

                content = requests.get(url).text
                dic = json.loads(re.match(r'^([a-zA-Z0-9_(]+)(.*)(\))$', content).group(2))
                data = dic['data']

                # 判断是 动态区 和 还是 评论区的数据
                if 'archives' in data:
                    final = data['archives']
                else:
                    final = data

                for i in range(len(final)):
                    image = final[i]['pic']
                    if image not in self._oldImages:        # 去重
                        self._images.append(image)
                        self._oldImages.append(image)

            def getResult(self, url):

                self._getImages(url)
                temp = self._images
                self._images = []
                return temp

OK,接下来写下载器:

  1. 获取需要下载的 图片地址
  2. 进行下载
  3. 我这里是用数字作为图片的名字保存起来的,数字用一个 count.txt 文件保存,为了好看一点吧...
        #coding:utf-8

        __author__ = 'Lanc4r'

        import requests

        class BiliBiliDownloader(object):

            def __init__(self):
                self._images = []

            def addNewImages(self, images):
                for image in images:
                    self._images.append(image)

            # 获取后缀名
            def getFinName(self, url):
                if url[-4:].find('.') > -1:
                    fin = url[-4:]
                else:
                    fin = url[-5:]
                return fin

            def imageDownload(self):

                with open('count.txt', 'rb') as f:
                    temp = int(f.read().decode('utf-8'))
                for url in self._images:
                    name = 'images/' + str(temp) + self.getFinName(url) 
                    print ('Downloading {}...'.format(name))
                    r = requests.get(url)
                    with open(name, 'wb') as f:
                        f.write(r.content)
                    temp += 1
                self._images = []
                with open('count.txt', 'wb') as f:
                    f.write(str(temp).encode('utf-8'))

最后是调度器:

为了防止被当作是 恶意访问 从而被封 IP,这里我们选择牺牲时间,取巧使用 sleep(x) ,让其等待一段时间之后再发出请求。

    #coding:utf-8

    __author__ 'Lanc4r'

    from BiliBiliSpider import BiliBiliSpider
    from BiliBiliDownloader import BiliBiliDownloader
    import time

    class BiliBiliMain(object):

        def __init__(self):
            self._spider = BiliBiliSpider()
            self.downloader = BiliBiliDownloader()

        def Crawl(self, url):
            images = self._spider.getResult(url)
            self.downloader.addNewImages(images)
            self.downloader.imageDownload()

    if __name__ == '__main__':

        # 添加相应位置的 json 文件
        json_url_MAD = 'https://xxx...'
        json_url_MAD_rank = 'https://xxx...'
        ...

        json_url_list = []
        json_url_list.append(json_url_MAD)
        json_url_list.append(...)
        ...

        bilibili = BiliBiliMain()

        # 设置一个标志位,循环爬取多少次之后自动退出。
        flag = 1
        while True:
            for url in json_url_list:
                bilibili.Crawl(url)
                time.sleep(30)              # 防止被当作是恶意请求。。。
            time.sleep(100)                 # 防止被当作是恶意请求。。。
            flag += 1
            if flag > 15:
                break

运行效果:

BiliBiliSpider6.png
BiliBiliSpider7.png

总结:

你可能会问我,呀,你这个,根本没有代理、没有混淆IP防止反爬、也没有模拟 Ajax 请求动态抓取云云~

那我可以很负责的告诉你,你!走错地方了!你要找的技术贴出门右拐!( ̄へ ̄)

关于取巧

我们恰巧使用的是 B站的 Ajax 技术,只要哪个视频有了最新评论(或者是一下其它的条件),就会使用 Ajax 将最新的数据取出来。就像下面这样:

BiliBiliSpider8.png

所以可能在访问人数多的时候,更新越快,越有可能获得更多不同的图片啦!

之后你就可以在吃饭的时候,把它挂起,然后吃饭回来就会发现有好多好多的图片!(=・ω・=)

关于以后

之后会陆续的更新自己爬虫的爬坑过程,希望能够找到小伙伴一起学习呀!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,271评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,275评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,151评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,550评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,553评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,559评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,924评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,580评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,826评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,578评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,661评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,363评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,940评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,926评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,156评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,872评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,391评论 2 342

推荐阅读更多精彩内容