美文网首页
用python写爬虫--6.异步aiohttp

用python写爬虫--6.异步aiohttp

作者: ddm2014 | 来源:发表于2018-04-22 16:47 被阅读0次

    我自己用requests模块写爬虫已经能满足我爬信息的需求了,一直不太明白scrapy的用处,直到我看到教程中的例子,十有八九都是爬取一系列的网址,比如‘什么值得买’的前10页啊,更普遍的是根据一个目录页,爬取里面的各个信息。
    但是scrapy还是有些个麻烦啊,然后我知道了异步aiohttp。
    aiohttp是在异步模块asyncio升级专门做网页连接的模块,分服务器端和客户端,我看的是客户端,替代requests模块。
    异步我的理解是,在连接网页的时候会等待,在需要等待的时间就标记一下,然后去干下一件事情。标记一下是await。
    根据官方文档(http://aiohttp.readthedocs.io/en/stable/index.html#aiohttp-installation)的说明,基本用法是

    import aiohttp
    import asyncio
    import async_timeout
    
    async def fetch(session, url):  #定义对每个网页要干的事情
        async with async_timeout.timeout(10):
            async with session.get(url) as response:
                return await response.text()  #因为要等网页连接,所以await
    
    async def main():#定义要对哪些网页要做
        async with aiohttp.ClientSession() as session:
            #urls =[url1,url2,url3....] 定义要做的多个网页列表
            #for循环以下事。
            html = await fetch(session, 'http://python.org')
            print(html)
    
    loop = asyncio.get_event_loop()
    loop.run_until_complete(main())
    

    基本结构是:
    1.定义单个网页要做的事fetch
    2.在main中,定义多个网页,然后用循环对每一个网址调用fetch
    3.调用main()
    其中,遇到需等待网页反应,或者包含这个动作如await fetch,就在前面加await

    async def是标记这是一个异步的模块,
    async with session.get(url) as response:这是关闭session的好习惯。
    loop = asyncio.get_event_loop()
    loop.run_until_complete(main())
    这是调用异步程序的步骤,什么意思,额,这是属于asyncio模块,我的理解是不是遇到要打开网页的时候就放那,干下一件事么,那就必然要再回来处理打开完网页之后的事情,这就是一个循环--asyncio.get_event_loop(),第二句根据字面意思就更好理解了,把所有的程序运行完。

    有了理解之后,套用我们要做的事情就变成这样。

    import aiohttp
    import asyncio
    import async_timeout
    from pyquery import PyQuery as pq
    
    
    async def fetch(session, url):
        head = {
            'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36'}
        with async_timeout.timeout(10):
            async with session.get(url, headers=head) as response:
                html = await response.text()
                file = pq(html)
                return file('.feed-ver-title').eq(0).text()
    
    
    async def main():
        urls = ['https://faxian.smzdm.com/p{}'.format(i) for i in range(2, 11)]
        async with aiohttp.ClientSession() as session:
            for url in urls:
                html = await fetch(session, url)
                print(html)
    
    loop = asyncio.get_event_loop()
    loop.run_until_complete(main())
    

    结果是:


    image.png

    看到得到了每一页第一项,一共9项,跟2-10一样多。

    相关文章

      网友评论

          本文标题:用python写爬虫--6.异步aiohttp

          本文链接:https://www.haomeiwen.com/subject/mtjclftx.html