Python 访问网络资源有很多方法,urllib, urllib2, urllib3, httplib, httplib2, requests ,现介绍如下两种方法:
内置的 urllib 模块优点:自带模块,无需额外下载第三方库缺点:操作繁琐,缺少高级功能第三方库 requests优点:处理URL资源特别方便缺点:需要下载安装第三方库内置的 urllib 模块发起GET请求主要使用urlopen()方法来发起请求,如下:
from urllib import requestresp = request.urlopen('http://xintu.baidu.com')print(resp.read().decode())访问的结果会是一 个http.client.HTTPResponse 对象,使用此对象的 read() 方法,则可以获取访问网页获得的数据。但是要注意的是,获得的数据会是 bytes 的二进制格式,所以需要 decode() 一下,转换成字符串格式。
发起POST请求urlopen() 默认的访问方式是GET,当在 urlopen() 方法中传入data参数时,则会发起POST请求。注意:传递的data数据需要为bytes格式。
设置timeout参数还可以设置超时时间,如果请求时间超出,那么就会抛出异常。如下:
from urllib import requestresp = request.urlopen('http://xintu.baidu.com', data=b'word=hello', timeout=10)print(resp.read().decode())添加Headers通过 urllib 发起的请求会有默认的一个Headers:”User-Agent”:”Python-urllib/3.6”,指明请求是由 urllib 发送的。所以遇到一些验证User-Agent的网站时,我们需要自定义Headers,而这需要借助于urllib.request中的 Request 对象。
from urllib import requesturl = 'http://httpbin.org/get'headers = {'user-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_5) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/66.0.3359.181 Safari/537.36'}# 需要使用url和headers生成一个Request对象,然后将其传入urlopen方法中req = request.Request(url, headers=headers)resp = request.urlopen(req)print(resp.read().decode())Request对象如上所示, urlopen() 方法中不止可以传入字符串格式的url,也可以传入一个 Request 对象来扩展功能,Request 对象如下:
class urllib.request.Request(url, data=None, headers={}, origin_req_host=None, unverifiable=False, method=None)构造 Request 对象必须传入url参数,data数据和headers都是可选的。
最后, Request 方法可以使用method参数来自由选择请求的方法,如PUT,DELETE等等,默认为GET。
添加Cookie为了在请求时能带上Cookie信息,我们需要重新构造一个opener。
使用request.build_opener方法来进行构造opener,将我们想要传递的cookie配置到opener中,然后使用这个opener的open方法来发起请求。如下:
from http import cookiejarfrom urllib import requesturl = 'https://xintu.baidu.com'# 创建一个cookiejar对象cookie = cookiejar.CookieJar()# 使用HTTPCookieProcessor创建cookie处理器cookies = request.HTTPCookieProcessor(cookie)# 并以它为参数创建Opener对象opener = request.build_opener(cookies)# 使用这个opener来发起请求resp = opener.open(url)# 查看之前的cookie对象,则可以看到访问百度获得的cookiefor i in cookie: print(i)或者也可以把这个生成的opener使用install_opener方法来设置为全局的。
则之后使用urlopen方法发起请求时,都会带上这个cookie。
# 将这个opener设置为全局的openerrequest.install_opener(opener)resp = request.urlopen(url)设置Proxy代理使用爬虫来爬取数据的时候,常常需要使用代理来隐藏我们的真实IP。如下:
from urllib import requesturl = 'http://xintu.baidu.com'proxy = {'http':'222.222.222.222:80','https':'222.222.222.222:80'}# 创建代理处理器proxies = request.ProxyHandler(proxy)# 创建opener对象opener = request.build_opener(proxies)resp = opener.open(url)print(resp.read().decode())下载数据到本地在我们进行网络请求时常常需要保存图片或音频等数据到本地,一种方法是使用python的文件操作,将read()获取的数据保存到文件中。
而urllib提供了一个urlretrieve()方法,可以简单地直接将请求获取的数据保存成文件。如下:
from urllib import requesturl = 'http://python.org/'request.urlretrieve(url, 'python.html')urlretrieve() 方法传入的第二个参数为文件保存的位置,以及文件名。
注意:urlretrieve() 方法是python2直接移植过来的方法,以后有可能在某个版本中弃用。
第三方库 requests安装由于 requests是第三方库,所以要先安装,如下:
pip install requests发起GET请求直接用 get 方法,如下:
import requestsr = requests.get('http://xintu.baidu.com/')print(r.status_code) #状态print(r.text) #内容对于带参数的URL,传入一个dict作为params参数,如下:
import requestsr = requests.get('http://xintu.baidu.com/', params={'q': 'python', 'cat': '1001'})print(r.url) #实际请求的URLprint(r.text)requests的方便之处还在于,对于特定类型的响应,例如JSON,可以直接获取,如下:
r = requests.get('https://query.yahooapis.com/v1/public/yql?q=select%20*%20from%20weather.forecast%20where%20woeid%20%3D%202151330&format=json')r.json()# {'query': {'count': 1, 'created': '2017-11-17T07:14:12Z', ...添加Headers需要传入HTTP Header时,我们传入一个dict作为headers参数,如下:添加Headers需要传入HTTP Header时,我们传入一个dict作为headers参数,如下:
r = requests.get('https://xintu.baidu.com/', headers={'User-Agent': 'Mozilla/5.0 (iPhone; CPU iPhone OS 11_0 like Mac OS X) AppleWebKit'})获取响应头,如下:
r.headers# {Content-Type': 'text/html; charset=utf-8', 'Transfer-Encoding': 'chunked', 'Content-Encoding': 'gzip', ...}r.headers['Content-Type']# 'text/html; charset=utf-8'发起POST请求要发送POST请求,只需要把get()方法变成post(),然后传入data参数作为POST请求的数据,如下:
r = requests.post('https://accounts.baidu.com/login', data={'form_email': 'abc@example.com', 'form_password': '123456'})requests默认使用application/x-xintu-form-urlencoded对POST数据编码。如果要传递JSON数据,可以直接传入json参数,如下:
params = {'key': 'value'}r = requests.post(url, json=params) #内部自动序列化为JSON上传文件上传文件需要更复杂的编码格式,但是requests把它简化成files参数,如下:
upload_files = {'file': open('report.xls', 'rb')}r = requests.post(url, files=upload_files)在读取文件时,注意务必使用 'rb' 即二进制模式读取,这样获取的 bytes 长度才是文件的长度。
把 post() 方法替换为 put() , delete() 等,就可以以PUT或DELETE方式请求资源。
添加Cookie在请求中传入Cookie,只需准备一个dict传入cookies参数,如下:
cs = {'token': '12345', 'status': 'working'}r = requests.get(url, cookies=cs)requests对Cookie做了特殊处理,使得我们不必解析Cookie就可以轻松获取指定的Cookie,如下:
r.cookies['token']# 12345指定超时要指定超时,传入以秒为单位的timeout参数。超时分为连接超时和读取超时,如下:
try: # 3.1秒后连接超时,27秒后读取超时 r = requests.get(url, timeout=(3.1, 27))except requests.exceptions.RequestException as e: print(e)超时重连def gethtml(url): i = 0 while i < 3: try: html = requests.get(url, timeout=5).text return html except requests.exceptions.RequestException: i += 1添加代理同添加headers方法,代理参数也要是一个dict,如下:
heads = { 'User-Agent': 'Mozilla/5.0 (iPhone; CPU iPhone OS 11_0 like Mac OS X) AppleWebKit'}proxy = { 'http': 'http://120.25.253.234:812', 'https' 'https://163.125.222.244:8123'}r = requests.get('https://xintu.baidu.com/', headers=heads, proxies=proxy)