美文网首页python热爱者我爱编程
爬虫老是被封IP?看我大Python搭建高匿代理池!封IP你觉得

爬虫老是被封IP?看我大Python搭建高匿代理池!封IP你觉得

作者: 919b0c54458f | 来源:发表于2018-06-21 15:07 被阅读41次

    0x01 写在前面

    常听到很多人抱怨自己的IP因爬虫次数太多而被网站屏蔽,不得不频繁使用各种代理IP,却又因为网上的公开代理大部分都是不能使用,而又要花钱花精力去申请VIP代理,几番波折又遭屏蔽。特此写一篇如何利用Python搭建代理池的文章,以降低时间及精力成本,实现自动化获取活跃代理IP的功能。

    说明①:可建立一个爬虫程序守护程序(Daemon),有此方面需要的小伙伴可自行谷歌,在此不多做介绍。

    说明②:可建立一个对外代理信息接口,无论你用NodeJS或者Flask/Django或者PHP来写都没关系,我会在未来的更新中加上这个功能,在这篇文章中也不多做介绍。

    BASE_URL ="https://proxy-list.org/english/index.php?p="#IP地址及端口的正则Re_Pattern_IP = re.compile("(.*):")Re_Pattern_PORT = re.compile(":(.*)")#网站有11页,所以循环11次获取所有代理IP及端口forstartingURL_Paraminrange(1,11): HTML_ProxyPage = requests.get(BASE_URL+str(startingURL_Param)).content soup = bs(HTML_ProxyPage,"html.parser")forRaw_ProxyInfoinsoup.find_all("ul",{"class":None}): #此网站有用Base64简单对代理进行了加密,所以这里对其解码 ip_port = base64.b64decode(Raw_ProxyInfo.find("li",{"class":"proxy"}).text.replace("Proxy('","").replace("')","")) #接下来利用正则从网页数据中提取我们需要的信息 IP = re.findall(Re_Pattern_IP, ip_port)[0] PORT = re.findall(Re_Pattern_PORT, ip_port)[0] TYPE = Raw_ProxyInfo.find("li",{"class":"https"}).text

    接下来是一段简易代理池框架类的代码,提供代理数据库的添加、删除、可连接性检测、匿名性检测:

    class ProxyPool:  #初始化爬虫池数据库 def __init__(self,ProxyPoolDB): self.ProxyPoolDB = ProxyPoolDB self.conn = sqlite3.connect(self.ProxyPoolDB,isolation_level=None) self.cursor = self.conn.cursor() self.TB_ProxyPool ="TB_ProxyPool"self.cursor.execute("CREATE TABLE IF NOT EXISTS "+self.TB_ProxyPool+"(ip TEXT UNIQUE, port INTEGER, protocol TEXT)") #添加代理IP进代理池的接口 def addProxy(self, IP, PORT, PROTOCOL):  self.cursor.execute("INSERT OR IGNORE INTO "+ self.TB_ProxyPool+"(ip, port, protocol) VALUES (?,?,?)", [IP,PORT,PROTOCOL]) #检查代理的匿名性及可连接性 def testConnection(self, IP, PORT, PROTOCOL): proxies = { PROTOCOL: IP+":"+PORT } try: OrigionalIP = requests.get("http://icanhazip.com",timeout=REQ_TIMEOUT).content MaskedIP = requests.get("http://icanhazip.com",timeout=REQ_TIMEOUT,proxies=proxies).contentifOrigionalIP != MaskedIP: returnTrueelse: returnFalseexcept:  returnFalse#删除代理IP对应的数据库记录 def delRecord(self, IP): self.cursor.execute("DELETE FROM "+self.TB_ProxyPool+" WHERE ip=?",(IP,))  #下面是对代理池进行去“失效IP”的代码:  #循环代理池,逐行测试IP地址端口协议是否可用 def cleanNonWorking(self):forinfoinself.cursor.execute("SELECT * FROM "+self.TB_ProxyPool).fetchall(): IP =info[0] PORT = str(info[1]) PROTOCOL =info[2].lower() isAnonymous = self.testConnection(IP,PORT,PROTOCOL)ifisAnonymous ==False: #这条代理的可用性失效了,从数据库里删除 self.delRecord(IP) #通过检测icanhazip.com回显来检测可用性及匿名性 def testConnection(self, IP, PORT, PROTOCOL): proxies = { PROTOCOL: IP+":"+PORT } try: OrigionalIP = requests.get("http://icanhazip.com",timeout=REQ_TIMEOUT).content MaskedIP = requests.get("http://icanhazip.com",timeout=REQ_TIMEOUT,proxies=proxies).contentifOrigionalIP != MaskedIP: returnTrueelse: returnFalseexcept:  returnFalse

    0x05 完整代码

    放在此文章中的是代理池的核心代码,旨在提供各位读者能够自己实现的思路及参考。完整代码可在我的Github主页中找到(ProxyPool),Win7 64位、Ubuntu 16.04及Kali下用Python 2.7测试可运行。

    进群:125240963   即可获取数十遍PDF书籍!

    相关文章

      网友评论

      本文标题:爬虫老是被封IP?看我大Python搭建高匿代理池!封IP你觉得

      本文链接:https://www.haomeiwen.com/subject/rfaqyftx.html