美文网首页
静态网站爬图片

静态网站爬图片

作者: Perry_Wu | 来源:发表于2018-02-09 17:15 被阅读0次

    依赖于 Python2.7,urllib,urllib2,re
    1.简单的静态网页解析:

    import urllib2
    
    # 解析网页html源码
    response = urllib2.urlopen("http://www.baidu.com")   
    # 打印网页
    print response.read()
    

    2.简单的动态网页解析:
    POST方法:

    import urllib
    import urllib2
     
    # 对发送的请求内容进行编码
    values = {"username":"1016903103@qq.com","password":"XXXX"}
    data = urllib.urlencode(values) 
    # 请求的网址
    url = "https://passport.csdn.net/account/login?from=http://my.csdn.net/my/mycsdn"
    # Request请求
    request = urllib2.Request(url,data)
    # 解析接受的网页并打印
    response = urllib2.urlopen(request)
    print response.read()
    

    有些网站不会同意程序直接用上面的方式进行访问,如果识别有问题,那么站点根本不会响应,所以为了完全模拟浏览器的工作,我们需要设置一些Headers 的属性。

    首先,打开我们的浏览器,调试浏览器F12,我用的是Chrome,打开网络监听,示意如下,比如知乎,点登录之后,我们会发现登陆之后界面都变化了,出现一个新的界面,实质上这个页面包含了许许多多的内容,这些内容也不是一次性就加载完成的,实质上是执行了好多次请求,一般是首先请求HTML文件,然后加载JS,CSS 等等,经过多次请求之后,网页的骨架和肌肉全了,整个网页的效果也就出来了。
    通过检查network中请求的headers,设置我们爬虫的headers。

    3.设置带有headers的POST请求

    import urllib  
    import urllib2  
     
    url = 'http://www.server.com/login'
    # 设置headers
    user_agent = 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'  
    values = {'username' : 'cqc',  'password' : 'XXXX' }  
    headers = { 'User-Agent' : 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'  ,
                            'Referer':'http://www.zhihu.com/articles' }  
    data = urllib.urlencode(values)  
    request = urllib2.Request(url, data, headers)  
    response = urllib2.urlopen(request)  
    page = response.read() 
    

    urllib2 默认会使用环境变量 http_proxy 来设置 HTTP Proxy。假如一个网站它会检测某一段时间某个IP 的访问次数,如果访问次数过多,它会禁止你的访问。所以你可以设置一些代理服务器来帮助你做工作,每隔一段时间换一个代理。

    4.设置代理访问

    import urllib2
    enable_proxy = True
    proxy_handler = urllib2.ProxyHandler({"http" : 'http://some-proxy.com:8080'})
    null_proxy_handler = urllib2.ProxyHandler({})
    if enable_proxy:
        opener = urllib2.build_opener(proxy_handler)
    else:
        opener = urllib2.build_opener(null_proxy_handler)
    urllib2.install_opener(opener)
    

    5.异常处理:

    import urllib2
     
    req = urllib2.Request('http://blog.csdn.net/cqcre')
    try:
        urllib2.urlopen(req)
    except urllib2.HTTPError, e:
        print e.code
        print e.reason
    

    在此,HTTPError是URLError的子类。

    100:继续  客户端应当继续发送请求。客户端应当继续发送请求的剩余部分,或者如果请求已经完成,忽略这个响应。
    
    101: 转换协议  在发送完这个响应最后的空行后,服务器将会切换到在Upgrade 消息头中定义的那些协议。只有在切换新的协议更有好处的时候才应该采取类似措施。
    
    102:继续处理   由WebDAV(RFC 2518)扩展的状态码,代表处理将被继续执行。
    
    200:请求成功      处理方式:获得响应的内容,进行处理
    
    201:请求完成,结果是创建了新资源。新创建资源的URI可在响应的实体中得到    处理方式:爬虫中不会遇到
    
    202:请求被接受,但处理尚未完成    处理方式:阻塞等待
    
    204:服务器端已经实现了请求,但是没有返回新的信 息。如果客户是用户代理,则无须为此更新自身的文档视图。    处理方式:丢弃
    
    300:该状态码不被HTTP/1.0的应用程序直接使用, 只是作为3XX类型回应的默认解释。存在多个可用的被请求资源。    处理方式:若程序中能够处理,则进行进一步处理,如果程序中不能处理,则丢弃
    301:请求到的资源都会分配一个永久的URL,这样就可以在将来通过该URL来访问此资源    处理方式:重定向到分配的URL
    
    302:请求到的资源在一个不同的URL处临时保存     处理方式:重定向到临时的URL
    
    304:请求的资源未更新     处理方式:丢弃
    
    400:非法请求     处理方式:丢弃
    
    401:未授权     处理方式:丢弃
    
    403:禁止     处理方式:丢弃
    
    404:没有找到     处理方式:丢弃
    
    500:服务器内部错误  服务器遇到了一个未曾预料的状况,导致了它无法完成对请求的处理。一般来说,这个问题都会在服务器端的源代码出现错误时出现。
    
    501:服务器无法识别  服务器不支持当前请求所需要的某个功能。当服务器无法识别请求的方法,并且无法支持其对任何资源的请求。
    
    502:错误网关  作为网关或者代理工作的服务器尝试执行请求时,从上游服务器接收到无效的响应。
    
    503:服务出错   由于临时的服务器维护或者过载,服务器当前无法处理请求。这个状况是临时的,并且将在一段时间以后恢复。
    

    6.爬虫实例:
    https://data.csail.mit.edu/graphics/fivek/下载Expert E的所有图片

    # -*- coding:utf-8 -*-
    import re
    import os
    import urllib
    import urllib2
    
    
    class Spider(object):
        def __init__(self, url, outdir='.', headers=None):
            self.url = url
            self.headers = headers
            self.outdir = outdir
    
        def download_img(self):
            try:
                html = urllib2.urlopen(self.url)
                page = html.read().decode('utf8')
                pattern = re.compile('img\/tiff16_e.*tif')
                list = re.findall(pattern, page)
                print 'Ready to save {} images.'.format(len(list))
                for idx, item in enumerate(list):
                    self.saveImg(item)
                    print 'Save Completion:No.{} image {}.'.format(idx, os.path.basename(item))
    
            except urllib2.HTTPError, e:
                print 'Error', e.code, ':', e.reason
    
        def saveImg(self, imageURL, item):
            imageURL=self.url + imageURL
            fileName = os.path.basename(item)
            fileName = self.outdir + '/' + fileName
            urllib.urlretrieve(imageURL, fileName)
    
            # 使用write写入图片
            # u = urllib2.urlopen(imageURL)
            # data = u.read()
            # f = open(self.outdir + '/' + fileName, 'wb')
            # f.write(data)
            # # time.sleep(7)
            # f.close()
    
        def run(self):
            self.download_img()
    
    if __name__ == '__main__':
        sp = Spider('https://data.csail.mit.edu/graphics/fivek/')
        sp.run()
    

    相关文章

      网友评论

          本文标题:静态网站爬图片

          本文链接:https://www.haomeiwen.com/subject/fnsftftx.html