美文网首页
python爬虫——爬取免费可用的代理(多线程爬取)

python爬虫——爬取免费可用的代理(多线程爬取)

作者: 小伙在杭州 | 来源:发表于2019-11-30 09:45 被阅读0次

    写了一个爬取免费代理网站的爬虫,时间仓促,本着工具类能用就行的原则,所以很多细节没有做。
    由于免费代理有很多没法用,所以写了检测可用的功能,只保存可用的ip,并且以字典形式保存,方便requests中的proxies直接调用。
    想要一次性爬取10页的内容,如果不开多线程速度有点慢。
    先上爬虫代码:

    import requests
    import re, os, datetime, time,  random
    from pyquery import PyQuery as pq
    from bs4 import BeautifulSoup as bs
    
    user_agents =  ['Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1','Mozilla/5.0 (Windows; U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50','Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11']
    headers = {'User-Agent':random.choice(user_agents)}
    ip = []
    port = []
    typ = []
    http_url = 'https://www.xicidaili.com/nt/'  # 爬取目标,免费代理网站
    test_url = 'http://icanhazip.com'  # 检测ip的网站
    ip_list = []
    
    r = requests.get(http_url, headers=headers, timeout=30)
    r.raise_for_status()
    r.encoding = r.apparent_encoding
    html = r.text
    doc = pq(html)
    page_url =  []
    
    # 页码列表,页码改变时,底下750这个数值也要改变,每一页50个ip,可以自己算一下
    page = ['1', '2', '3', '4', '5','6','7','8','9','10']    
    for i in page:
        page_url.append('https://www.xicidaili.com/nt/' + i)
    for i in page_url:
        
        odd = doc('.odd')
        for i in odd.items():
            for i in i('td:nth-child(2)').items():
                ip.append(i.text())
    
        for i in odd.items():
            for i in i('td:nth-child(3)').items():
                port.append(i.text())
    
        for i in odd.items():
            for i in i('td:nth-child(6)').items():
                typ.append(i.text())
    
    def get_ip(i, path):
        url = {}
        url[ip_list[750+i]] = ip_list[750+i] + ":" + ip_list[i] + ":" + ip_list[500+i] 
    
        try:
            response = requests.get(test_url, headers=headers, proxies=url, timeout=30)  # 此段代码检测代理是否可用,可用的话就保存到txt文件
            print(response.status_code)
            if response.status_code == 200:
                with open(path, 'a+', encoding='utf-8') as f:
                    f.write(str(url) + '\n')
                
        except requests.ConnectionError as e:
            print(e.args)
        
    ip_list = ip + port + typ
    
    def ip_check(ip_list):
        path = 'C:\\Users\\hj506\\Desktop\\ip.txt'  # 保存路径
        for i in range(250):
            get_ip(ip, path)  
    
    ip_check(ip_list)
    

    多线程需要引入threading库,只需要把ip_check函数改一下即可,其他不用动:

    import threading
    def ip_check(ip_list):
        path = 'C:\\Users\\hj506\\Desktop\\ip.txt'  # 保存路径
        for i in range(250):
             t = threading.Thread(target=get_ip, args=(i, path))
             t.start()
    

    这样调用多线程就完成了,target是多线程运行的函数,args是表示函数需要传进来的参数,元组格式。然后t.start()启动多线程。

    相关文章

      网友评论

          本文标题:python爬虫——爬取免费可用的代理(多线程爬取)

          本文链接:https://www.haomeiwen.com/subject/lionwctx.html