美文网首页
urllib.response 使用代理访问网页

urllib.response 使用代理访问网页

作者: lvanzn | 来源:发表于2018-09-29 19:42 被阅读0次

    缘由:使用网络爬虫的时候,网站会拒绝某些IP的访问,这是可以使用代理。
    urllib.response可以使用多种访问方式。
    1.本文使用直接的访问方式
    2.在网络上可以找到很多免费代理

    #!/user/bin/evn python
    # coding=utf-8
    __author__ = 'phc'
    
    import urllib.request  # 在python 3 .x中,urllib2被更改为urllib.request
    import sys
    import re
    
    
    class testproxy(object):
        '''这个类的作用是测试proxy是否有效'''
        def __init__(self, proxy):
            self.proxy = proxy
            self.checkproxyformat(self.proxy)
            self.url = 'http://www.baidu.com'
            self.timeout = 5
            self.flagWord = '百度'  # key word
            self.useProxy(self.proxy)
    
        def checkproxyformat(self, proxy):
            try:
                proxyMatch = re.compile('http[s]?://[\d]{1,3}\.[\d]{1,3}\.[\d]{1,3}\.[\d]{1,3}:[\d]{1,5}$')
                re.search(proxyMatch, proxy).group()
            except AttributeError:
                tipuse()
                exit()
            flag = 1
            proxy = proxy.replace('//', '')
            try:
                protocol = proxy.split(':')[0]
                ip = proxy.split(':')[1]
                port = proxy.split(':')[2]
            except IndexError:
                print(u'下标越界')
                tipuse()
                exit()
            flag = flag and len(proxy.split(':')) == 3 and len(ip.split('.')) == 4
    
            flag = ip.split('.')[0] in map(str, range(1, 256)) and flag
            flag = ip.split('.')[1] in map(str, range(256)) and flag
            flag = ip.split('.')[2] in map(str, range(256)) and flag
            flag = ip.split('.')[3] in map(str, range(1, 256)) and flag
            flag = protocol in [u'http', u'https'] and flag
            flag = port in map(str, range(1, 65535)) and flag
            '''这里是检查proxy的格式'''
            if flag:
                print(u'输入的http代理服务器符合标准')
            else:
                tipuse()
                exit()
    
        def useProxy(self, proxy):
            '''利用代理访问百度,并查找关键词'''
            protocol = proxy.split('//')[0].replace(':', '')
            ip = proxy.split('//')[1]
            opener = urllib.request.build_opener(urllib.request.ProxyHandler({protocol: ip}))
            urllib.request.install_opener(opener)
            try:
                response = urllib.request.urlopen(self.url, timeout=self.timeout)
            except:
                print(u'连接错误,退出程序')
                exit()
            str = response.read()
            str = str.decode('utf-8')  # python3《《《--------3.x以前的版本不使用,3.x版本需要使用,否则会报错(作用:把字符串转换为bytes类型)
            if re.search(self.flagWord, str):
                print(u'已取得特征词,该代理可用')
            else:
                print(u'该代理不可用')
    
    
    def tipuse():
        '''显示提示信息'''
        print(u'该程序只能输入一个参数,这个参数必须是一个可用的proxy')
        print(u'usage: python baisc.py http://1.2.3.4.5')
        print(u'usage: python baisc.py https://1.2.3.4.5')
    
    
    def testargument():
        '''测试输入参数,只需要一个参数'''
        lens = len(sys.argv)
        if lens != 2:
            print(u'只需要一个参数就够了')
            tipuse()
            exit()
        else:
            TP = testproxy(sys.argv[1])
    
    
    def testargv():
        lens = len(sys.argv)
        print("len = ", lens)
        print("aruv[0] = ", sys.argv[0])
        print("argv[1] = ", sys.argv[1])
    
    
    if __name__ == '__main__':
        testargument()
        pass
    # python basic.py http:192.168.1.2:80
    
    

    1.对python来说,任何一个程序可以是其他程序的一个单独模块,所以,本程序可以用来检测用户的proxy是否可用
    2.什么是sys和sys.argv是什么?
    连接:sys.argv是什么? - 7sDream的回答 - 知乎
    https://www.zhihu.com/question/23711222/answer/26173004

    相关文章

      网友评论

          本文标题:urllib.response 使用代理访问网页

          本文链接:https://www.haomeiwen.com/subject/rebboftx.html