用python写网络爬虫三:抓取小demo

用所学的前两节内容卸了一个简单的爬虫功能,爬取猫眼电影中的电影名字,导演,封面,类型信息

思路分析:

先看一下http://maoyan.com/robots
http://maoyan.com/films 我们要抓取的信息在这个页面,我们可以通过该页面的下方的页码元素,使用firebug查看将所有页码中包含的电影链接取出,通过链接进入电影详情页面抓取我们需要的信息,我抓取了电影名字,导演,类型,封面路径信息并保存到csv中
需要使用的模块及文档说明:

下载页面:代码中已有注释

#!/usr/bin/env python
# -*-coding:utf-8 -*-
import requests
import lxml.html
import re
import sys
reload(sys)
sys.setdefaultencoding("utf-8")
class Downloader:
    def __init__(self, url, scrape_callback=None):
        self.url = url
        self.scrape_callback = scrape_callback
    def get_download_url(self):
        # '''获取每个电影详情页的url'''
        url_list =[]
        # for i in range(1,22803):
        for i in range(1):
            url = self.url+'?offset='+str(30*i)
            response = requests.get(url)
            if response.status_code == 200:
                html = response.text
                tree = lxml.html.fromstring(html)
                # 使用xpath方式获取div下的所有a标签
                ll = tree.xpath(u"//div/a")
                # 遍历ll
                for i in ll:
                    # 获取a标签的href信息
                    url_str = i.get('href')
                    # 判断url_str
                    if url_str is not None:
                        # 判断url_str是否有'films'中,有的话则是我们要找的内容
                        if re.search('films', url_str) is not None:
                            # 判断,不保存重复的url
                            if i.get('href') not in url_list:
                                url_list.append(i.get('href'))
        return url_list
    def download(self):
        # ''''抓取url信息中的电影名称,等信息'''
        # 获取所有详情页的url
        url_list = self.get_download_url()
        for url_num in url_list:
            # 查看元素可知返回的是‘films/2333’只需把后缀的/和数字填入到默认url中就是具体详情页
            urlpage = self.url+'/'+str(url_num).split('/')[-1]
            # url请求
            response = requests.get(urlpage)
            # 判断,如果能正常相应则继续
            if response.status_code == 200:
                html = response.text
                # 规范html
                tree = lxml.html.fromstring(html)
                # 判断scrape_callback,True则保存信息
                if self.scrape_callback:
                    # 通过CSS选择器获取想要的内容
                    l_img = tree.cssselect('div.avater-shadow > img.avater')[0].get('src')
                    l_filmname = tree.cssselect('div.movie-brief-container > h3.name')[0].text_content()
                    l_type = tree.cssselect('div.movie-brief-container > ul> li.ellipsis')[0].text_content()
                    l_director = tree.cssselect('div.info > a.name')[0].text_content()
                    row = [l_filmname, l_director, l_type, l_img]
                    self.scrape_callback(row)

保存页面:讲抓取的信息保存到csv中

#!/usr/bin/env python
# -*-coding:utf-8 -*-
import csv
import downloader
import sys
reload(sys)
sys.setdefaultencoding("utf-8")
class ScrapeCallback:
    '''下载的信息保存到csv中'''

    def __init__(self):
        fileobj=open("maoyan.csv", 'w')
        self.writer = csv.writer(fileobj)
        self.films = ('film_name', 'director', 'film_type', 'film_cover')
        self.writer.writerow(self.films)

    def __call__(self, row):
        self.writer.writerow(row)
if __name__ == '__main__':
    url = 'http://maoyan.com/films'
    d = downloader.Downloader(url, scrape_callback=ScrapeCallback())
    d.download()

运行ScrapeCallback会得到maoyan.csv文件,用excel打开会出现乱码,须将utf-8转成ansi 相关链接

源代码下载地址

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,607评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,047评论 2 379
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,496评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,405评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,400评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,479评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,883评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,535评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,743评论 1 295
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,544评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,612评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,309评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,881评论 3 306
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,891评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,136评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,783评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,316评论 2 342

推荐阅读更多精彩内容

  • 在上一篇中 , 我们构建了一个爬虫, 可以通过跟踪链接的方式下载我们所需的网页。 但是爬虫在下载网页之后又将 结果...
    枫灬叶阅读 1,950评论 0 5
  • 根据联合国全球网站可访 问性审计报告 , 73%的主流网站都在其重要功能中 依赖 JavaScript ( 参考 ...
    枫灬叶阅读 2,437评论 0 2
  • 发现 关注 消息 iOS 第三方库、插件、知名博客总结 作者大灰狼的小绵羊哥哥关注 2017.06.26 09:4...
    肇东周阅读 12,010评论 4 62
  • Android 自定义View的各种姿势1 Activity的显示之ViewRootImpl详解 Activity...
    passiontim阅读 171,364评论 25 707
  • 从J城到S城,路程大约七个半小时。 《小王子》一书中有这样一句话:如果你说你在下午四点来,从三点钟开始,...
    风长青阅读 265评论 0 1