相信很多人使用Python做接口请求(Http客户端请求)的时候,很多人肯定用过这几个:urllib,urllib3,requests.
没错,反正我常用,而且在我这里出现最多最靓眼的那个崽是requests, 毕竟普通接口请求,爬虫常用,
而且封装起来后使用更为简单。
所以在这篇文章里面,它是我浅析研究三国鼎立的其中之一。
这篇文章主要浅析这三国:
- requests
- aiohttp
- httpx
浅析requests
在不借助其他第三方库的情况下,requests 只能发送同步请求。
requests 是一个Python第三方库,处理URL资源特别方便,而且相对于urllib3来说封装了更多功能,并且使用步骤简单。
我们深入一下到requests api源码来看一下:
从图片来看,其实可以大概看出requests支持哪些功能 然后圈红的其实是最常用的一些功能,也就是可以设置请求方式,请求头,cookie,过期时间,请求接口验证,文件上传等等功能。
整理了日常大概常用的方,应该是下面这几种格式
# get 请求
requests.get(url, params)
# post 请求
requests.post(url, data)
# 文件上传
upload_files = {'file': open('report.xls', 'rb')}
requests.post(url, file=upload_files)
# 设置header
headers = {'User-Agent': 'Mozilla/5.0 (iPhone; CPU iPhone OS 11_0 like Mac OS X) AppleWebKit'}
requests.post(url, headers=headers)
# 设置cookie
cookies = {'token': '12345', 'status': '摸鱼'}
requests.post(url, cookies=cookies)
如果单纯请求一个接口,获取接口数据的话,上面的完全够用了,不需要额外的操作。
但是requests有时候挺多用在爬虫场景下,爬虫有的需要保持登录信息去爬取其他接口,那么单纯的去使用requests.get 或者 requests.post,这都是一次性的请求,是不太满足需求的。对于登录成功,再去请求其他的接口,可能需要之前生成的cookie或者token,这时候,这些信息就需要进行保存。
对于这种情况,可以使用requests.session,它可以自动处理cookies,做状态保持.
大概的使用步骤应该是这样子:
# 先实例化一个对象
session = requests.session()
# 给 requests.session() 对象设置cookie信息,这个看情况使用,具体情况具体分析啊
cookies_dict = {}
session.cookies = requests.utils.cookiejar_from_dict(cookies_dict)
# 后面用法和直接使用requests一样了
# get请求
response = session.get(url)
# post请求
response = session.post(url, json=json_data)
result = response.json()
#获取登陆的所有cookies信息
print(result.cookies.values())
通过上面这些大概步骤,对于信息状态保持是已经足够了,这时候再用这些保持的信息去爬取接口是没有多大问题的(按道理啊,经典案例的话可以去模拟爬取一下淘宝PC端,本文具体的就不介绍了。)
浅析aiohttp
在不借助其他第三方库的情况下,aiohttp只能发送异步请求。
其实,人都是贪心的,在同步请求足够完成需求后,那么人就会去从其他方面去提升,比如同样的接口,希望能更快的处理返回,减少消耗时间,不希望阻塞。
那么随着这种需要,那么异步请求也就出现了。目前支持异步请求的方式有 async/await+asyncio+requests 组合构成,也可以使用aiohttp.
aiohttp是一个为Python提供异步HTTP客户端、服务端编程,基于asyncio的异步库。
aiohttp 同样是可以设置请求方式,请求头,cookie,代理,上传文件等功能的
大概用代码来表示,应该是常见这些
# post 请求
payload = {
"data": "hello world"
}
async with aiohttp.ClientSession() as session:
async with session.post(url, json=payload) as resp:
print(resp.status)
# get请求
# 创建使用session
async with aiohttp.ClientSession() as session:
async with session.get(url) as resp:
print(resp.status)
res = await resp.text()
return res
# 上传文件
files = {'file': open('report.xls', 'rb')}
async with aiohttp.ClientSession() as sess:
async with sess.post(url, data=files) as resp:
print(resp.status)
print(await resp.text())
# 设置header, cookie
headers = {'User-Agent': 'your agent'}
cookies= {'cookies_are': '摸鱼'}
async with aiohttp.ClientSession(headers=headers, cookies=cookies) as session:
async with session.get(url) as resp:
print(resp.status)
res = await resp.text()
return res
当然异步的请求,多可以是对接口返回数据在其他地方没有太强的依赖,异步的作用更多是用于提高效率,节省同步等待时间。
浅析httpx
在不借助其他第三方库的情况下,httpx既能发送同步请求,又能发送异步请求
httpx是Python新一代的网络请求库,它包含以下特点
1.基于Python3的功能齐全的http请求模块
2.既能发送同步请求,也能发送异步请求
3.支持HTTP/1.1和HTTP/2
4.能够直接向WSGI应用程序或者ASGI应用程序发送请求
安装 httpx需要Python3.6+(使用异步请求需要Python3.8+)
httpx是Python新一代的网络请求库, 功能和requests基本都一致,但是requests在没有第三方库的支持下只能发同步请求,但是httpx不仅可以发同步请求,还可以异步,这个是比requests要好的。
因为和requests差不多,那么requests能支持设置的,那么httpx也同样可以支持
基本的使用方法:
data = {
'name': 'autofelix',
'age': 25
}
# get请求
httpx.get(url,params=data)
# post请求
httpx.post(url, data=data)
# 设置header,cookie,timeout
headers = {'User-Agent': 'your agent'}
cookies= {'cookies_are': '摸鱼'}
httpx.get(url, headers=headers, cookies=cookies, timeout=10.0)
# 使用client发送(同步)请求
with httpx.Client() as client:
response = client.get(url)
异步操作, 使用async/await语句来进行异步操作
使用异步client比使用多线程发送请求更加高效,更能体现明显的性能优势
import asyncio
import httpx
async def main():
# 异步请求AsyncClient
async with httpx.AsyncClient() as client:
response = await client.get(url)
print(response)
if __name__ == '__main__':
# python3.7+ 支持写法
# asyncio.run(main())
# python3.6及以下版本写法
loop = asyncio.get_event_loop()
result = loop.run_until_complete(asyncio.gather(main()))
loop.close()
大体看下,同步请求使用httpx.client(), 异步请求使用httpx.AsyncClient(), 然后其他的一些基本用法都大体相似。
可以说,如果你对requests熟练,那么对于aiohttp以及httpx也是很快就能上手理解的。
结语
截止到这里,该讲的已经讲完了,也希望这些东西能给人一点点作用,当然,文章不是完美的,有缺漏有错的也可以提出来,我也能进一步学习。
最后,如果可以,点赞支持一波也行。