def read_many(links: list):
loop = asyncio.get_event_loop()
for id_, url in links:
task = asyncio.ensure_future(read_one(id_, url))
loop.run_until_complete(task)
loop.close()
这个写法 是错的, 回阻塞, 变成线性执行了, 不是并发了
协程一例:用aiohttp代替requests写异步爬虫这篇文章不规范也不完整,重新整理的更详细规范的介绍见这里,非常不建议阅读下文。 网上aiohttp做爬虫的资料太少,官网文档是英文的看起来麻烦,所以自己部分半带翻译式的总结下...