python-urllib2(转载)

urllib2是Python的一个获取URLs的组件。他以urlopen函数的形式提供了一个非常简单的接口,具有利用不同协议获取URLs的能力,同样提供了一个比较复杂的接口来处理一般情况。

urllib2支持获取不同格式的URLs例如:ftp、Gopher等,并利用它们相关网络协议进行获取。

urllib2可用来完成以下功能:

1.获取Web页面

2.在远程http服务器上验证

3.额外数据请求,如表单提交(GET和POST)

4.异常处理

5.非http协议通信(如FTP)

1.获取Web页面

例1:打印html页面,下面是最简单的形式

#!/usr/bin/env python

importurllib2

response=urllib2.urlopen('http://www.google.com')

html=response.read()

printhtml

例2:打开指定页面并打印html页面和一些额外的信息,采用了urllib2最一般的形式:i、urllib2.Request()的功能是构造一个请求信息,返回的req就是一个构造好的请求。ii、urllib2.urlopen()的功能是发送刚刚构造好的请求req,并返回一个文件类的对象response,包括了所有的返回信息。iii、通过response.read()可以读取到response里面的html,通过response.info()可以读到一些额外的信息。

#!/usr/bin/env python

importsys,urllib2

req=urllib2.Request(sys.argv[1])

response=urllib2.urlopen(req)

print"Retrieved",response.geturl()

info=response.info()

forkey,valueininfo.items():

print"%s = %s"%(key,value)

html=response.read()

printhtml

2.在远程http服务器上验证

有些站点需要http认证后才能访问。最普通的认证类型是基本认证,由客户端向服务器器发送一个用户名和密码。http认证一般显示一个弹出窗口来询问用户名和密码,这与基于cookie和form的认证不同。

下面是一个例子,首先定义了一个扩展urllib2.HTTPPasswordMgr的类,允许在需要的时候询问用户名和密码,然后调用build_opener()指定一些额外处理,其实在urllib2.urlopen()内部调用了build_opener(),并且不带任何参数。所以在访问常规网站的时候urllib2.urlopen()等于opener.open()返回都一样。

#!/usr/bin/env python

importsys,urllib2,getpass

classBasePassword(urllib2.HTTPPasswordMgr):

deffind_user_password(self,realm,authurl):

ret=urllib2.HTTPPasswordMgr.find_user_password(self,realm,authuri)

ifret[0]==Noneandret[1]==None:

sys.stdout.write("Login reauired for %s at %sn"%(realm,authurl))

sys.stdout.write("Username: ")

username=sys.stdin.readline().rstrip()

password=getpass.getpass().rstrip()

return(username,password)

else:

returnret

req=urllib2.Request(sys.argv[1])

opener=urllib2.build_opener(urllib2.HTTPBasicAuthHandler(BasePassword()))

response=opener.open(req)

printresponse.read()

3.表单提交(GET和POST)

有两种方法提交表单数据:GET和POST,取决于HTML文档中标签里面的参数

GET实例:

#!/usr/bin/env python

importsys,urllib2,urllib

keyword=sys.argv[1]

url=url+'?'+urllib.urlencode('http://www.xxx.com',[('query',keyword)])

req=urllib2.Request(url)

response=urllib2.urlopen(req)

printresponse.read()

POST实例:

#!/usr/bin/env python

importsys,urllib2,urllib

keyword=sys.argv[1]

url='http://www.xxx.com'

data=urllib.urlencode([('query',keyword)])

req=urllib2.Request(url)

response=urllib2.urlopen(req,data)

更一般的提交数据,通过urllib2.Request()构造一个有额外数据的请求信息。包括“http

header”和想要发送的数据,这些数据需要被以标准的方式encode,然后作为一个数据参数传送给Request对象。Encoding是在urllib中完成的,而不是在urllib2中完成的。

如下例:

#!/usr/bin/env python

import urllib,urllib2

url='http://www.baidu.com'

user_agent='Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'

values={'name':'Michael Foord','location':'Northampton','language':'Python'}

headers={'User-Agent':user_agent}

data=urllib.urlencode(values)

req=urllib2.Request(url,data,headers)

response=urllib2.urlopen(req)

the_page=response.read()

4.异常处理

捕获连接错误,在和远程Web服务器建立连接时,很多地方可能出现问题:提供的URL不对、URL使用了一个不支持的协议、主机名不存在、访问不到服务器或者服务器针对请求返回一个错误(例如:404)。

任何在连接过程中产生的异常要么是urllib2.URLError的实例,要么是它的一个子类。

#!/usr/bin/env python

import sys,urllib2

req=urllib2.Request(sys.argv[1])

try:

response=urllib2.urlopen(req)

excepturllib2.URLError,e:

print"Error retrieving data:",e

sys.exit(1)

printresponse.read()

5.非http协议通信(如FTP)

urllib2模块也支持非http协议。默认情况下支持http、ftp、gopher和机器本地硬盘上的文件,只是response.info()返回的报头会有所差异。



使用细节

1 Proxy 的设置

urllib2 默认会使用环境变量 http_proxy 来设置 HTTP Proxy。如果想在程序中明确控制 Proxy,而不受环境变量的影响,可以使用下面的方式:

import urllib2

enable_proxy=True

proxy_handler=urllib2.ProxyHandler({"http":'http://some-proxy.com:8080'})

null_proxy_handler=urllib2.ProxyHandler({})

ifenable_proxy:

opener=urllib2.build_opener(proxy_handler)

else:

opener=urllib2.build_opener(null_proxy_handler)

urllib2.install_opener(opener)

这里要注意的一个细节,使用 urllib2.install_opener() 会设置

urllib2 的全局 opener。这样后面的使用会很方便,但不能做更细粒度的控制,比如想在程序中使用两个不同的 Proxy

设置等。比较好的做法是不使用 install_opener 去更改全局的设置,而只是直接调用 opener 的 open 方法代替全局的

urlopen 方法。

2 Timeout 设置

在老版本中,urllib2 的 API 并没有暴露 Timeout 的设置,要设置 Timeout 值,只能更改 Socket 的全局 Timeout 值。

importurllib2

importsocket

socket.setdefaulttimeout(10)# 10 秒钟后超时

urllib2.socket.setdefaulttimeout(10)# 另一种方式

在新的 Python 2.6 版本中,超时可以通过 urllib2.urlopen() 的 timeout 参数直接设置。

importurllib2

response=urllib2.urlopen('http://www.google.com',timeout=10)

3 在 HTTP Request 中加入特定的 Header

要加入 Header,需要使用 Request 对象:

importurllib2

request=urllib2.Request(uri)

request.add_header('User-Agent','fake-client')

response=urllib2.urlopen(request)

对有些 header 要特别留意,Server 端会针对这些 header 做检查

User-Agent 有些 Server 或 Proxy 会检查该值,用来判断是否是浏览器发起的 Request

Content-Type 在使用 REST 接口时,Server 会检查该值,用来确定 HTTP Body 中的内容该怎样解析。

常见的取值有:

application/xml :在 XML RPC,如 RESTful/SOAP 调用时使用

application/json :在 JSON RPC 调用时使用

application/x-www-form-urlencoded :浏览器提交 Web 表单时使用

……

在使用 RPC 调用 Server 提供的 RESTful 或 SOAP 服务时, Content-Type 设置错误会导致 Server 拒绝服务。

4 Redirect

urllib2 默认情况下会针对 3xx HTTP 返回码自动进行 Redirect 动作,无需人工配置。要检测是否发生了 Redirect 动作,只要检查一下 Response 的 URL 和 Request 的 URL 是否一致就可以了。

importurllib2

response=urllib2.urlopen('http://www.google.cn')

redirected=response.geturl()=='http://www.google.cn'

如果不想自动 Redirect,除了使用更低层次的 httplib 库之外,还可以使用自定义的 HTTPRedirectHandler 类。

importurllib2

classRedirectHandler(urllib2.HTTPRedirectHandler):

defhttp_error_301(self,req,fp,code,msg,headers):

pass

defhttp_error_302(self,req,fp,code,msg,headers):

pass

opener=urllib2.build_opener(RedirectHandler)

opener.open('http://www.google.cn')

5 Cookie

urllib2 对 Cookie 的处理也是自动的。如果需要得到某个 Cookie 项的值,可以这么做:

importurllib2

importcookielib

cookie=cookielib.CookieJar()

opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))

response=opener.open('http://www.google.com')

foritemincookie:

ifitem.name=='some_cookie_item_name':

printitem.value

6 使用 HTTP 的 PUT 和 DELETE 方法

urllib2 只支持 HTTP 的 GET 和 POST 方法,如果要使用 HTTP PUT 和 DELETE,只能使用比较低层的 httplib 库。虽然如此,我们还是能通过下面的方式,使 urllib2 能够发出 HTTP PUT 或 DELETE

的包:

importurllib2

request=urllib2.Request(uri,data=data)

request.get_method=lambda:'PUT'#or'DELETE'

response=urllib2.urlopen(request)

这种做法虽然属于 Hack 的方式,但实际使用起来也没什么问题。

7 得到 HTTP 的返回码

对于 200 OK 来说,只要使用 urlopen 返回的 response 对象的 getcode() 方法就可以得到 HTTP 的返回码。但对其它返回码来说,urlopen 会抛出异常。这时候,就要检查异常对象的 code 属性了:

importurllib2

try:

response=urllib2.urlopen('http://restrict.web.com')

excepturllib2.HTTPError,e:

printe.code

8 Debug Log

使用 urllib2 时,可以通过下面的方法把 Debug Log 打开,这样收发包的内容就会在屏幕上打印出来,方便我们调试,在一定程度上可以省去抓包的工作。

importurllib2

httpHandler=urllib2.HTTPHandler(debuglevel=1)

httpsHandler=urllib2.HTTPSHandler(debuglevel=1)

opener=urllib2.build_opener(httpHandler,httpsHandler)

urllib2.install_opener(opener)

response=urllib2.urlopen('http://www.google.com')

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,457评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,837评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,696评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,183评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,057评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,105评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,520评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,211评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,482评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,574评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,353评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,213评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,576评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,897评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,174评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,489评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,683评论 2 335

推荐阅读更多精彩内容

  • 一、概述 urllib2是Python的一个针对URLs的库。他以urlopen函数的形式提供了一个非常简单的...
    MiracleJQ阅读 1,467评论 0 5
  • 1 前言 作为一名合格的数据分析师,其完整的技术知识体系必须贯穿数据获取、数据存储、数据提取、数据分析、数据挖掘、...
    whenif阅读 18,039评论 45 523
  • Python入门网络爬虫之精华版 网址: https://github.com/lining0806/Python...
    ZHANG_GO阅读 610评论 0 2
  • Python学习网络爬虫主要分3个大的版块:抓取,分析,存储 另外,比较常用的爬虫框架Scrapy,这里最后也详细...
    楚江数据阅读 1,459评论 0 6
  • 本以为离开象牙塔,便少了一份束缚,多了一份逍遥,哪知其实踏入了另一座围城,一座围城…… 毕业原本计划离开帝都,找个...
    璐璐要去外太空阅读 339评论 0 1