美文网首页
2019-01-17 xpath 笔记

2019-01-17 xpath 笔记

作者: 小草_f57c | 来源:发表于2019-01-17 17:18 被阅读0次

我们已经成功得到了title,但是再仔细看看,还能发现更简便的方法。

Gumtree为标签添加了属性,就是itemprop=name。所以XPath可以简化为//*[@itemprop="name"][1]/text()。在XPath中,切记数组是从1开始的,所以这里[]里面是1。

选择itemprop="name"这个属性,是因为Gumtree用这个属性命名了许多其他的内容,比如“You may also like”,用数组序号提取会很方便。

接下来看价格。价格在HTML中的位置如下:

<strong class="ad-price txt-xlarge txt-emphasis" itemprop="price">£334.39pw</strong>

我们又看到了itemprop="name"这个属性,XPath表达式为//*[@itemprop="price"][1]/text()。验证一下:

>>> response.xpath('//*[@itemprop="price"][1]/text()').extract()[u'\xa3334.39pw']

注意Unicode字符(£符号)和价格350.00pw。这说明要对数据进行清理。在这个例子中,我们用正则表达式提取数字和小数点。使用正则方法如下:

>>> response.xpath('//*[@itemprop="price"][1]/text()').re('[.0-9]+')[u'334.39']

假如这就是我们要提取的所有信息,整理如下:

目标XPath表达式

title//*[@itemprop="name"][1]/text()

Example value: [u'set unique family well']

Price//*[@itemprop="price"][1]/text()

Example value (using re()):[u'334.39']

description//*[@itemprop="description"][1]/text()

Example value: [u'website court warehouse\r\npool...']

Address//*[@itemtype="http://schema.org/Place"][1]/text()

Example value: [u'Angel, London']

Image_URL//*[@itemprop="image"][1]/@src

Example value: [u'../images/i01.jpg']

这是我们的第一段代码,要注意Python中是使用空格缩进的。每个字段名之前都有四个空格或是一个tab。如果一行有四个空格,另一行有三个空格,就会报语法错误。如果一行是四个空格,另一行是一个tab,也会报错。空格符指定了这些项目是在PropertiesItem下面的。其他语言有的用花括号{},有的用begin – end,Python则使用空格。

import scrapy 

class BasicSpider(scrapy.Spider):

    name ="basic"

    allowed_domains = ["web"]

     start_URL = (

'http://www.web/', 

 )

def parse(self, response):

     pass

import命令可以让我们使用Scrapy框架。然后定义了一个类BasicSpider,继承自scrapy.Spider。继承的意思是,虽然我们没写任何代码,这个类已经继承了Scrapy框架中的类Spider的许多特性。这允许我们只需写几行代码,就可以有一个功能完整的爬虫。然后我们看到了一些爬虫的参数,比如名字和抓取域字段名。最后,我们定义了一个空函数parse(),它有两个参数self和response。通过self,可以使用爬虫一些有趣的功能。response看起来很熟悉,它就是我们在Scrapy shell中见到的响应。

这是从这个页面抓取的PropertiesItem。这很好,因为Scrapy就是围绕Items的概念构建的,这意味着我们可以用pipelines填充丰富项目,或是用“Feed export”导出保存到不同的格式和位置。

保存到文件

试运行下面:

不用我们写任何代码,我们就可以用这些格式进行存储。Scrapy可以自动识别输出文件的后缀名,并进行输出。这段代码中涵盖了一些常用的格式。CSV和XML文件很流行,因为可以被Excel直接打开。JSON文件很流行是因为它的开放性和与JavaScript的密切关系。JSON和JSON Line格式的区别是.json文件是在一个大数组中存储JSON对象。这意味着如果你有一个1GB的文件,你可能必须现在内存中存储,然后才能传给解析器。相对的,.jl文件每行都有一个JSON对象,所以读取效率更高。

不在文件系统中存储生成的文件也很麻烦。利用下面例子的代码,你可以让Scrapy自动上传文件到FTP或亚马逊的S3 bucket。

$ scrapy crawl basic -o"ftp://user:pass@ftp.scrapybook.com/items.json "

$ scrapy crawl basic -o"s3://aws_key:aws_secret@scrapybook/items.json"

注意,证书和URL必须按照主机和S3更新,才能顺利运行。

另一个要注意的是,如果你现在使用scrapy parse,它会向你显示被抓取的项目和抓取中新的请求:

当出现意外结果时,scrapy parse可以帮你进行debug,你会更感叹它的强大。

清洗——项目加载器和杂务字段

恭喜你,你已经创建成功一个简单爬虫了!让我们让它看起来更专业些。

我们使用一个功能类,ItemLoader,以取代看起来杂乱的extract()和xpath()。我们的parse()进行如下变化:

defparse(self, response):

l = ItemLoader(item=PropertiesItem(), response=response)    

l.add_xpath('title','//*[@itemprop="name"][1]/text()')    

l.add_xpath('price','.//*[@itemprop="price"]''[1]/text()', re='[,.0-9]+')    

l.add_xpath('description','//*[@itemprop="description"]''[1]/text()')    

l.add_xpath('address','//*[@itemtype=''"http://schema.org/Place"][1]/text()')   

l.add_xpath('image_URL','//*[@itemprop="image"][1]/@src')

returnl.load_item()

是不是看起来好多了?事实上,它可不是看起来漂亮那么简单。它指出了我们现在要干什么,并且后面的加载项很清晰。这提高了代码的可维护性和自文档化。(自文档化,self-documenting,是说代码的可读性高,可以像文档文件一样阅读)

相关文章

  • 2019-01-17 xpath 笔记

    我们已经成功得到了title,但是再仔细看看,还能发现更简便的方法。 Gumtree为标签添加了属性,就是item...

  • xpath使用笔记

    xpath学习笔记 xpath简介 xpath 用于在XML文档中通过元素和属性进行导航xpath 使用路径表达式...

  • Python爬虫-数据解析学习笔记之xpath

    1、xpath学习笔记 1)xpath描述   xpath(XML Path Language)是一门在XML和H...

  • 2018-09-04第二十天

    2018-09-03+04XPath和IDEA 课堂笔记 XPath轴(XPath Axes)可定义某个相对于当前...

  • XPath笔记

    XPath笔记 用::text选取文本 获取href属性

  • 2018-09-03+04XPath和IDEA

    课堂笔记 XPath轴(XPath Axes)可定义某个相对于当前节点的节点集: IDEA 1.在线使用git导入...

  • xpath 资料

    xpath路径表达式笔记 学爬虫利器XPath,看这一篇就够了 有感4月份,看过的python基础和爬虫相关的知识...

  • Xpath语法笔记

    一、选取节点 常用的路径表达式: 二、谓语 谓语被嵌在方括号内,用来查找某个特定的节点或包含某个制定的值的节点 实...

  • xpath学习笔记

    以前只会用Beautiful Soup, 后来听说xpath速度更快而且更好用, 那还用说吗?赶紧弃暗投明了. 导...

  • xpath 学习笔记

    1. xpath是什么 XPATH是一门在XML文档中查找信息的语言,XPATH可用来在XML文档中对元素和属性进...

网友评论

      本文标题:2019-01-17 xpath 笔记

      本文链接:https://www.haomeiwen.com/subject/reebdqtx.html