怎样使用aiohttp请求多个url
这是aiohttp官方请求单个url的方式,如果请求多个url并获取内容应该怎么做?
import aiohttp
import asyncio
async def fetch(session, url):
async with session.get(url) as response:
return await response.text()
async def main():
async with aiohttp.ClientSession() as session:
html = await fetch(session, 'http://python.org')
print(html)
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(2)
import asyncio
import aiohttp
import time
from my_spider import urls
async def async_craw(url):
超级循环
loop = asyncio.get_event_loop()
tasks = [
]
start_time = time.time()
等待任务完成
loop.run_until_complete(asyncio.wait(tasks))
end_time = time.time()
print(f'耗费时间:{end_time - start_time}')