美文网首页
Python学习笔记3.1——第一次爬虫的补充

Python学习笔记3.1——第一次爬虫的补充

作者: 装满水的空瓶 | 来源:发表于2017-11-28 22:34 被阅读43次

    在之前的学习笔记3中,已经成功爬取了一个网页的数据,但是我们往往爬取的内容并不仅仅是单个页面的内容,而是一类所需内容,需要连续爬取多个页面。那如何爬取多个页面的内容呢?接着上一篇的内容,还是以爬取http://bj.xiaozhu.com上短租房的信息为例。

    如果想连续爬取多个网页的内容,我们需要得到2个信息:

    1、每翻一页时,网页的网址链接

    通过观察http://bj.xiaozhu.com网页,往下不断翻页时,可以发现各个网页所对应的网页名称,如第2页的网页为:http://bj.xiaozhu.com/search-duanzufang-p2-0/,第3页的网页为http://bj.xiaozhu.com/search-duanzufang-p3-0/。因此可以推断,网页中P之后的数字就是控制翻页时显示网页内容的关键信息。我们可以通过如下函数找出翻页时网页的网址:

    urls = ['http://bj.xiaozhu.com/search-duanzufang-p{}-0/'.format(number)fornumberinrange(1,10)]

    这一段函数看似复杂,其实可以拆分为如下函数:

    for number in range(1,10):#利用for循环,将1-9的数字放入number中

         urls ='http://bj.xiaozhu.com/search-duanzufang-p{}-0/'.format(number)#取出1-9页的网页

    再介绍一下以上函数涉及到的两个函数:

    range函数

    函数语法:range(start,stop,step)

    参数说明:

    start: 计数从 start 开始。默认是从 0 开始。例如range(5)等价于range(0, 5);

    stop: 计数到 stop 结束,但不包括 stop。例如:range(1, 5) 是[1, 2, 3, 4]没有5

    step:步长,默认为1。例如:range(0, 5) 等价于 range(0, 5, 1)

    str.format()函数

    Python2.6 开始,新增了一种格式化字符串的函数str.format(),它增强了字符串格式化的功能。

    函数语法:通过{}来代替以前的%。

    format 函数可以接受不限个参数,位置可以不按顺序。

    例如:

    "{} {}".format("hello", "world") # 不设置指定位置,输出为: 'hello world'

     "{0} {1}".format("hello", "world") # 设置指定位置,输出为: 'hello world'

     "{1} {0} {1}".format("hello", "world") # 设置指定位置,输出为: 'world hello world'

    以上函数,即是寻找1-9页网页的站址。输出内容如下:

    2、从以上单个网址中,寻找具体商家的网址链接

    在以上http://bj.xiaozhu.com/search-duanzufang-p1-0/、http://bj.xiaozhu.com/search-duanzufang-p2-0/的链接中,包含了许多商家的信息,通过寻找商家信息在单个网址中的链接,进一步找到具体的网址链接。代码如下:

    urls = ['http://bj.xiaozhu.com/search-duanzufang-p{}-0/'.format(number) for number in range(1, 10)]

    for single_url in urls:#通过for循环,将翻页的单独网页存入single_url中

          url = single_url

    #----------------------------------获取翻页时的网页网址----------------------------------------------

    wb_data = requests.get(url)#向网页发送请求

    Soup = BeautifulSoup(wb_data.text,'lxml')#解析网页

    links = Soup.select('#page_list > ul > li > a')#获取商家信息

    for link in links:#将抓取的商家信息通过for循环,放入link中

         href = link.get('href')#抓取link中的商家网址链接

         print(href)#输出商家网址链接

    #---------------------------------寻找具体商家的网址链接--------------------------------------------

    输出结果如下:

    在完成以上两步之后,便能自动获得我们需要批量爬取的网页信息,最后放入python学习笔记3 的代码中,就可以开始连续爬取多个网页的信息。全部的代码如下:

    最终输出结果为:

    相关文章

      网友评论

          本文标题:Python学习笔记3.1——第一次爬虫的补充

          本文链接:https://www.haomeiwen.com/subject/alblbxtx.html