实战(一)之使用自带urllib和re正则表达式获取电影详情页链接

一、关于urllib库

网上urllib库的教程文章非常多而且详细具体,我就不过多叙述和重复了,个人更加倾向于将精力放在实战上,而不是反反复复拷贝教程(其实是因为我懒),来几篇干货参考。

python2:

  1. Python爬虫入门三之Urllib库的基本使用

http://cuiqingcai.com/947.html

  1. Python爬虫入门四之Urllib库的高级用法

http://cuiqingcai.com/954.html

python3:
3.python爬虫从入门到放弃(三)之 Urllib库的基本使用

http://www.cnblogs.com/zhaof/p/6910871.html

正则表达式re:
1.菜鸟教程--python正则表达式

http://www.runoob.com/python3/python3-reg-expressions.html

2.python爬虫从入门到放弃(五)之 正则的基本使用

http://www.cnblogs.com/zhaof/p/6925674.html

二、思路:

以爬取www.ygdy8.com这个电影下载网站为例子。

1.打开浏览器,搜狗或者chrome都可以,访问该网站,以爬取最新电影这个栏目的电影为例,我们可以找到这个板块首页的url为:
http://www.ygdy8.com/html/gndy/dyzz/index.html
再点击下一页,会发现页码的url为
http://www.ygdy8.com/html/gndy/dyzz/list_23_2.html
由此可知,每一页的url为:
http://www.ygdy8.com/html/gndy/dyzz/list_23_+页数.html

image.png

2.在将鼠标移动到电影名字上右键,审查元素,这里易会发现电影详情页的链接为<a href="/html/gndy/dyzz/20171112/55519.html">

image.png

将鼠标移动到末页字眼右键,审查元素,这里会发现总共有167页。
image.png

3.根据上面的分析查找,基本可以按照这样的思路进行爬取了。

1.先请求index最新电影板块首页,获取到最大的页数。
2.循环构造页码链接,请求获取所有的带有电影列表的页面。
3.在获取到页面基础上,获得电影列表的所有电影详情页链接,为下一步提取电影的标题,迅雷链接做准备。

三、开始动手

1、构造一个urllib请求页面的opener,尽量模仿浏览器,减少被禁的风险。

# -*- coding:utf-8 -*-
#!/usr/bin  python
import urllib.request
import re
import time
import random
from decorator import fun_timer

#构建一个模仿浏览器的opener
base_url = 'http://www.ygdy8.com'
#浏览器请求头,这里用的是搜狗浏览器
user_agents=[('User-Agent','Mozilla/5.0(Macintosh;U;IntelMacOSX10_6_8;
  en-us)AppleWebKit/534.50(KHTML,likeGecko)Version/5.1Safari/534.50'), ]
    Headers = [ random.choice(user_agents),
            ("Connection","keep-alive") ]
    #构建opener
opener = urllib.request.build_opener()
    #添加请求头
opener.addheaders=Headers

2、构造请求首页,获取最大页码数的方法。

# 1、获取最大的页码数
# 2、你可以到页面查看最大页码数,但是页码数是会不断增加的,
      #如果你要自动化反复去爬取,就需要进行页码数的自动获取。

def get_pageNum():
    url = "http://www.ygdy8.com/html/gndy/dyzz/index.html"
    data = opener.open(url).read()
   #上面的分析已经知道页码的链接是以 list_23_页数.html结尾的,可以匹配正则表达式来查找。
    res = re.findall(r'list\_23\_[0-9]*', str(data))
    if res:
        page_num = res[-1].split("_")[-1]
        print('获取到页码数%s'%page_num)
        return int(page_num)

3、知道页数后,就可以循环构造链接进行爬取了。

#根据页数爬取每页的电影列表
def find_by_page(page = 1):
    if page%10==0:
       #每隔10页进行延时,防止ip被禁
        time.sleep(random.randint(1,3))
    url = "http://www.ygdy8.com/html/gndy/dyzz/list_23_%s.html" % (str(page))
    data = opener.open(url).read()

# 正则表达式获取链接
#因为页面的左侧会有其他类别电影板块的外链,所以要先定位到class为co_content8的目标板块,
       #再获取板块里的所有链接。

    res = re.findall(r'class\=\"co\_content8\"[\s\S]*\<\/ul\>', str(data))[0]
    res = re.findall(r'\/html\/gndy[/a-z]+[0-9/]{1,}\.html', str(res))
    urls = [base_url + url for url in res]
    print('爬取第%s页: '%page+str(urls))
    return urls


#汇总所有的列表,上面的函数是每页返回一个电影详情页链接列表

def get_urls(pages=1):
    all_url = []
    for page in range(1,pages+1):
         for r in find_by_page(page):
                 all_url.append(r)
    #去重
    all_url= set(all_url)
    print('获取到%s条链接'%len(all_url))
    return all_url

4、最后开始爬取并输出到TXT文件上。

if __name__ == "__main__":
    out = ''
    for url in get_urls(get_pageNum()):
        url = str(url)+'\n'
        out= out+url
    with open('all_urls.txt','w') as f:
        f.write(out)


image.png

四、总结

其实总结起来,简单小规模的爬虫无非就是分析页面---请求页面--获取目标元素--保存等若干步骤,但是真正动起手来,就会遇到各种问题,解决问题也是一个进步的过程。
解决ip被禁有很多种途径,例如使用代理ip,模拟登陆,随机延时请求,本次我是简单粗暴地每隔10页进行随机的延时。
这样我们获取到所有目标电影的详情页链接,下一步就是进行详情页的分析爬取了,这涉及到动态加载页面的爬取,将放到后面几篇分享哈,下一篇,将介绍使用第三方库requests库和xpath匹配爬取详情页链接哟。

201711042223224161.jpg
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,723评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,080评论 2 379
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,604评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,440评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,431评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,499评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,893评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,541评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,751评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,547评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,619评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,320评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,890评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,896评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,137评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,796评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,335评论 2 342