1、Request对象
class Request(object_ref):
def __init__(self, url, callback=None, method='GET', headers=None, body=None,
cookies=None, meta=None, encoding='utf-8', priority=0,
dont_filter=False, errback=None, flags=None, cb_kwargs=None):
self._encoding = encoding # this one has to be set first
self.method = str(method).upper()
self._set_url(url)
self._set_body(body)
if not isinstance(priority, int):
raise TypeError("Request priority not an integer: %r" % priority)
self.priority = priority
if callback is not None and not callable(callback):
raise TypeError('callback must be a callable, got %s' % type(callback).__name__)
if errback is not None and not callable(errback):
raise TypeError('errback must be a callable, got %s' % type(errback).__name__)
self.callback = callback
self.errback = errback
self.cookies = cookies or {}
self.headers = Headers(headers or {}, encoding=encoding)
self.dont_filter = dont_filter
self._meta = dict(meta) if meta else None
self._cb_kwargs = dict(cb_kwargs) if cb_kwargs else None
self.flags = [] if flags is None else list(flags)
Request对象在写爬虫,爬取一页的数据需要重新发送一个请求的时候调用,这个类需要传递一些参数,其中比较常用的参数有:
1)url:这个Request对象发送请求的url;
2)callback:在下载器下载完相应的数据后执行的回调函数;
3)method:请求的方法,默认为GET方法,可以设置为其他方法;
4)headers:请求头,对于一些固定的设置,放在settings.py中指定就可以了,对于那些非固定的,可以在发送请求的时候指定;
5)meta:比较常用,用于在不同的请求之间传递数据用的;
6)encoding:编码,默认的为utf-8,使用默认的就可以了;
7)dot_filter:表示不由调度器过滤,在执行多次重复的请求的时候用得比较多;
8)errback:在发生错误的时候执行的函数。
2、Response对象
Response对象一般是由Scrapy给你自动构建的,因此开发者不需要关心如何创建Response对象,而是如何使用,Response对象有很多属性,可以用来提取数据的,主要有如下属性:
1)meta:从其他请求传过来的meta属性,可以用来保持多个请求之间的数据连接;
2)encoding:返回当前字符串编码和解码的格式;
3)text:将返回来的数据作为unicode字符串返回;
4)body:将返回来的数据作为bytes字符串返回;
5)xpath:xpath选择器;
6)css:css选择器。