美文网首页python学习
Python学习八十二天:URL 字段的解析

Python学习八十二天:URL 字段的解析

作者: 暖A暖 | 来源:发表于2019-05-10 09:42 被阅读4次

    1.修改爬取的目标地址

    我们知道如果想要爬取网站的数据需要在spiders文件中创建一个蜘蛛,创建后这个蜘蛛中会自动生成一个类,类名也是由蜘蛛名加Spider组成,如上一节中爬去csdn网站生成的:CsdnSpider类,这个类中的name也就是蜘蛛的名称,allowed_domains是允许爬取网站的域名,start_urls是需要爬取的目标网站的网址,如果需要更改爬取的目标页面,只需要修改start_urls就可以了;

    import scrapy
    class CsdnSpider(scrapy.Spider):
        name = 'csdn'
        allowed_domains = ['www.csdn.net']
        start_urls = ['http://www.csdn.net/']
        def parse(self, response):
            pass
    

    2.解析标题的超链接a标签的跳转地址和标题内容

    • 那我们继续用csdn的今天推荐作为爬取信息,首先需要在CsdnSpider类中的parse(self,response)方法中使用response对象来对css选择器获取到的a元素的href值进行解析,如response.css('h2 a::attr(href)').extract(),这样就可以得到一个url地址的列表;
    import scrapy
    class CsdnSpider(scrapy.Spider):
        name = 'csdn'
        allowed_domains = ['www.csdn.net']
        start_urls = ['http://www.csdn.net/']
    
        def parse(self, response):
           urls = response.css('.company_list .company_name a::attr(href)').extract()
           print(urls)
    
    • 接着我们循环得到的列表,拿到每一个a标签的url地址,然后使用Request请求,需要传递两个参数,一个是url用于告诉我们接下来解析哪个页面,可以通过parse.urljoin()方法拼接页面链接,另一个是callback回调函数。
      这个回调函数是我们自己定义的,也会传递一个response对象,通过这个response对象对css选择器获取的元素进行解析,这样我们就可以拿到每个解析页面的标题内容了;
    import scrapy
    from scrapy.http import Request
    from urllib import parse
    
    class CsdnSpider(scrapy.Spider):
        name = 'csdn'
        allowed_domains = ['www.csdn.net']
        start_urls = ['http://www.csdn.net/']
    
        def parse(self, response):
           # 获取url
           urls = response.css('.company_list .company_name a::attr(href)').extract()
           # print(urls)
          
           # 解析页面
           for url in urls:
               yield Request(url = parse.urljoin(response.url, url), callback=self.parse_analyse, dont_filter=True)
    
        # 回调函数
        def parse_analyse(self, response):
            title = response.css('.company_list .company_name a::text').extract_first()
            print(title)
    

    3.Request对象的介绍

    • class scrapy.http.Request(url[, callback, method='GET', headers, body, cookies, meta, encoding='utf-8',priority=0, dont_filter=False, errback]),一个request对象代表一个HTTP请求,通常由Spider产生,经Downloader执行从而产生一个Response;

    • url:用于请求的URL;

    • callback:指定一个回调函数,该回调函数以这个request是的response作为第一个参数,如果未指定callback则默认使用spider的parse()方法;

    • method: HTTP请求的方法,默认为GET;

    • headers:请求的头部;

    • body:请求的正文,可以是bytes或者str;

    • cookies:请求携带的cookie;

    • meta:指定Request.meta属性的初始值,如果给了该参数,dict将会浅拷贝;

    • encoding:请求的编码, 默认为utf-8;

    • priority:优先级,优先级越高,越先下载;

    • dont_filter:指定该请求是否被 Scheduler过滤,该参数可以使request重复使用;

    • errback:处理异常的回调函数;

    参考:https://www.9xkd.com/user/plan-view.html?id=8660944990

    相关文章

      网友评论

        本文标题:Python学习八十二天:URL 字段的解析

        本文链接:https://www.haomeiwen.com/subject/yimwoqtx.html