美文网首页
Python学习笔记3——第一次爬虫

Python学习笔记3——第一次爬虫

作者: 装满水的空瓶 | 来源:发表于2017-11-19 21:06 被阅读48次

    爬取一个网页共分为两步:

    一是向服务器提出请求

    当我们在上网时,每点击一个新的网页,其实都是在向服务器发送一个请求(Request),服务器在接到我们的请求之后,会返回一个回信(Response)。在提出请求(Request)的方法中,一共有get、post、head、put、options、connect、trace、delete等8种方法,其中最常用的方法是get,用get方法几乎能爬取90%的网页。

    编写代码时,需加载第三方库requests,代码写为import requests。

    二是爬取网页

    通过爬虫获取数据一共分为3步:

    ①使用BeautifulSoup解析网页

    代码写为:soup = BeautifulSoup(html,'lxml'),对这句代码可以这样理解:

    Beautiful Soup是一个可以从HTML或XML文件中提取数据的Python库,它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式。

    lxml也是Python库,将它放入 Beautiful Soup中,作为一种转化工具,去对输入的网页进行解析。

    课程中,侯爵老师的类比非常生动,如果说soup是我们准备做的一碗汤,那html就是所需的食材,而lxml就是做这碗汤所需的食谱。

    ②描述要爬取的信息位置

    定位要爬取的信息位置代码为:XXX = soup.select('需爬取信息的位置'),XXX为爬取信息的名称,select顾名思义,就是去选择并找到解析出的信息。

    以即将爬取的网页http://bj.xiaozhu.com为例,打开网页,右键点击检查,在弹出的窗口中,右键点击需爬取的内容代码,在弹出的窗口内注意copy中的两个选项,一个是Copy selector,另一个是Copy XPath。两者都是选择复制网页的位置路径,但略有不同。将两者复制进行比较:

    Copy selector:

    body > div.wrap.clearfix.con_bg > div.con_l > div.pho_info > h4 > em

    Copy XPath:

    /html/body/div[3]/div[1]/div[1]/h4/em

    在目前的爬虫中,主要是使用Copy selector,具体介绍一下Copy selector。在Copy selector的路径结构中,【>】表示了父子级的关系,【.】表示的是class属性。

    例如我去定位“白格美居东三环地铁国贸潘家园(长租特惠)”这个标题,他的第一父级路径就写为div.wrap clearfix con_bg,子级路径写为:div.con_1,子孙级路径写为:div.pho_info,最后找到子孙节点下的h4标签下的em标签,获取标签中的信息。最终用【>】将父级、子级、子孙级等全部连接起来,最终路径写为:div.wrap.clearfix.con_bg > div.con_l > div.pho_info > h4 > em。(PS:注意在【>】前后都必须有一个空格。)

    将路径写下来是为了帮助准确定位需要的信息,但路径并不是越详细越好,只要能确保所填写的路径为唯一对应就行。在这个例子中,只输入“div.pho_info > h4 > em”,通过ctrl+F查找,已经能确定只有唯一的一个查找目标,那在填写路径时,只填写“div.pho_info > h4 > em”也同样能爬取到我们需要的信息。(PS:在复制出来的路径中,有时候会包含类似div:nth-child(2)、li:nth-child(1)的信息,这时候需要将div、li等之后的:nth-child(x)删除。)

    ③通过方法获取数据

    通过抓取以上信息所获得的数据往往很多是多于的部分,因此还需进一步获取我们想要的信息。例如刚才抓取的标题信息,输出的内容为:[<em>白格美居东三环地铁国贸潘家园(长租特惠)</em>],但我们其实只需要【白格美居东三环地铁国贸潘家园(长租特惠)】这个内容,因此还需把不要的内容去掉。

    通过调用BeautifuSoup的方法去获得信息,例如此例中,用到的方法是get_text()。

    在爬虫中,常用到的方法有:

    get_text():返回选择的标签文本

    get(''):选择标签中的属性 (也就是标签属性中=符号的左边),常用于获取链接和图片

    接下来是课程中的作业,爬取http://bj.xiaozhu.com/中的相关信息。

    代码如下:

    总结:

    1.爬取一个网页共分为两步,一是向服务器提出请求,二是对网页进行解析爬取;

    2.爬取一个网页需要经历大致3步,一是使用BeautifulSoup解析网页,二是描述要爬取的信息位置,三是获取所需数据。

    相关文章

      网友评论

          本文标题:Python学习笔记3——第一次爬虫

          本文链接:https://www.haomeiwen.com/subject/dsguvxtx.html