美文网首页
Python学习笔记3.1——第一次爬虫的补充

Python学习笔记3.1——第一次爬虫的补充

作者: 装满水的空瓶 | 来源:发表于2017-11-28 22:34 被阅读43次

在之前的学习笔记3中,已经成功爬取了一个网页的数据,但是我们往往爬取的内容并不仅仅是单个页面的内容,而是一类所需内容,需要连续爬取多个页面。那如何爬取多个页面的内容呢?接着上一篇的内容,还是以爬取http://bj.xiaozhu.com上短租房的信息为例。

如果想连续爬取多个网页的内容,我们需要得到2个信息:

1、每翻一页时,网页的网址链接

通过观察http://bj.xiaozhu.com网页,往下不断翻页时,可以发现各个网页所对应的网页名称,如第2页的网页为:http://bj.xiaozhu.com/search-duanzufang-p2-0/,第3页的网页为http://bj.xiaozhu.com/search-duanzufang-p3-0/。因此可以推断,网页中P之后的数字就是控制翻页时显示网页内容的关键信息。我们可以通过如下函数找出翻页时网页的网址:

urls = ['http://bj.xiaozhu.com/search-duanzufang-p{}-0/'.format(number)fornumberinrange(1,10)]

这一段函数看似复杂,其实可以拆分为如下函数:

for number in range(1,10):#利用for循环,将1-9的数字放入number中

     urls ='http://bj.xiaozhu.com/search-duanzufang-p{}-0/'.format(number)#取出1-9页的网页

再介绍一下以上函数涉及到的两个函数:

range函数

函数语法:range(start,stop,step)

参数说明:

start: 计数从 start 开始。默认是从 0 开始。例如range(5)等价于range(0, 5);

stop: 计数到 stop 结束,但不包括 stop。例如:range(1, 5) 是[1, 2, 3, 4]没有5

step:步长,默认为1。例如:range(0, 5) 等价于 range(0, 5, 1)

str.format()函数

Python2.6 开始,新增了一种格式化字符串的函数str.format(),它增强了字符串格式化的功能。

函数语法:通过{}来代替以前的%。

format 函数可以接受不限个参数,位置可以不按顺序。

例如:

"{} {}".format("hello", "world") # 不设置指定位置,输出为: 'hello world'

 "{0} {1}".format("hello", "world") # 设置指定位置,输出为: 'hello world'

 "{1} {0} {1}".format("hello", "world") # 设置指定位置,输出为: 'world hello world'

以上函数,即是寻找1-9页网页的站址。输出内容如下:

2、从以上单个网址中,寻找具体商家的网址链接

在以上http://bj.xiaozhu.com/search-duanzufang-p1-0/、http://bj.xiaozhu.com/search-duanzufang-p2-0/的链接中,包含了许多商家的信息,通过寻找商家信息在单个网址中的链接,进一步找到具体的网址链接。代码如下:

urls = ['http://bj.xiaozhu.com/search-duanzufang-p{}-0/'.format(number) for number in range(1, 10)]

for single_url in urls:#通过for循环,将翻页的单独网页存入single_url中

      url = single_url

#----------------------------------获取翻页时的网页网址----------------------------------------------

wb_data = requests.get(url)#向网页发送请求

Soup = BeautifulSoup(wb_data.text,'lxml')#解析网页

links = Soup.select('#page_list > ul > li > a')#获取商家信息

for link in links:#将抓取的商家信息通过for循环,放入link中

     href = link.get('href')#抓取link中的商家网址链接

     print(href)#输出商家网址链接

#---------------------------------寻找具体商家的网址链接--------------------------------------------

输出结果如下:

在完成以上两步之后,便能自动获得我们需要批量爬取的网页信息,最后放入python学习笔记3 的代码中,就可以开始连续爬取多个网页的信息。全部的代码如下:

最终输出结果为:

相关文章

网友评论

      本文标题:Python学习笔记3.1——第一次爬虫的补充

      本文链接:https://www.haomeiwen.com/subject/alblbxtx.html