美文网首页Python3自学 爬虫实战
Python爬虫使用代理-小案例

Python爬虫使用代理-小案例

作者: 杰伊_约翰 | 来源:发表于2020-09-01 14:19 被阅读0次

    此前写了一个天眼查的爬虫,,,然后就有人问我:没有遇到反爬吗?反爬肯定是有的,看你爬取的快慢了,爬取效率高带来的是封IP和验证码;那么防止封IP可以降低爬取效率,也可以使用IP代理池,都非常的简单,前者导入一个time模块就行,每隔几秒爬取一次,这个按自己的情况来;IP代理池就要到相关网站去获取代理,有收费的和免费的,免费的肯定可用性低于收费的。

    废话不多说,下面就是一个简单的小案例,我是先将爬取到的免费代理存储到redis数据库中,用的时候再拿出来,再通过校验它的可用性,这时候才能用在我们正式的爬虫程序中。还有一点就是不可用的IP代理我们要从redis数据库中随时删除掉。

    # coding=utf-8
    
    """
    代理模板
    
    使用代理进行请求,防止封IP
    """
    
    import time
    import redis
    import requests
    from lxml import etree
    
    # redis数据库的配置信息,,默认是没有密码的
    # redis数据库基于内存存储数据,效率高,读取速度快
    r1 = redis.Redis()
    r2 = redis.StrictRedis()
    con = redis.StrictRedis(
        host='localhost',
        port=6379,
        db=2,
        password=None,
    )
    
    def daili_requests():
        for i in range(1, 1000):
            url = "https://www.kuaidaili.com/free/inha/" + str(i) + "/"
    
            headers = {
                "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.149 Safari/537.36",
                "Cookie": "channelid=bdtg_a3_a3a2; sid=1588040045318406; _ga=GA1.2.1750935230.1588040048; _gid=GA1.2.9785359.1588040048; Hm_lvt_7ed65b1cc4b810e9fd37959c9bb51b31=1588040048; Hm_lpvt_7ed65b1cc4b810e9fd37959c9bb51b31=1588040059",
            }
    
            time.sleep(1)
            response = requests.get(url=url, headers=headers)
            if response.status_code == 200:
                html = response.content
                save_data(html)
    
    
    def save_data(html):
        global zongdaili
        global daili, daili_port
        datalist = etree.HTML(html)
        datas = datalist.xpath('//*[@id="list"]')
    
        # items_list = []
    
        for data in datas:
            dailis = data.xpath('./table/tbody/tr/td[1]/text()')
            # print(dailis)
    
            daili_ports = data.xpath('./table/tbody/tr/td[2]/text()')
    
            for daili in dailis:
                continue
            for daili_port in daili_ports:
                continue
            zongdaili = daili + ":" + daili_port
            return zongdaili
    
    def dailisss():
        try:
            requests.get('https://www.baidu.com ', proxies={"http": zongdaili})
    
        except:
    
            print('connect failed')
        else:
            print('success')
            con.rpush(zongdaili, 'ip_port')
    
    
    if __name__ == '__main__':
        daili_requests()
    
    

    相关文章

      网友评论

        本文标题:Python爬虫使用代理-小案例

        本文链接:https://www.haomeiwen.com/subject/gqrvsktx.html