美文网首页
Python实战计划爬虫作业1_3: 爬租房信息

Python实战计划爬虫作业1_3: 爬租房信息

作者: 解宇涵 | 来源:发表于2016-07-18 21:09 被阅读0次

作业要求

作业要求 作业要求

我的代码

#-*- coding:utf-8 -*-
#本次作业完成完成爬取300个租房信息
#爬取网站为:http://bj.xiaozhu.com/search-duanzufang-p1-0/
#需要打开每一个租房图片的连接,打开新页面,在新页面获取租房信息

from bs4 import BeautifulSoup
import requests
import time

def _getSoup(url, headers):
    webSite = requests.get(url, headers)
    return BeautifulSoup(webSite.text, 'lxml') #注意第一个参数.text

def getProductUrl(url, headers):
    '''
    :param url: 搜索页的URL
    :param headers: 默认为本机的hearders,
    :return: list, 每一个元素为商品页的URL
    '''
    soup = _getSoup(url, headers)
    productsTemp = soup.select('a.resule_img_a') #获取搜索页中,房屋的链接位置
    products = [str(pro.get('href')) for pro in productsTemp] #获取链接

    return products

def getAttribute(url, headers):
    '''
    :param url: 商品页的URL
    :param headers: 用户的headers
    :return: 一个包含商品信息的dict
    '''
    time.sleep(2)
    soup = _getSoup(url, headers)
    title = soup.select('div.pho_info > h4 > em')
    address = soup.select('div.pho_info > p > span')
    image = soup.select('#curBigImage')
    price = soup.select('div.day_l > span')
    rentingType = soup.select('#introduce > li.border_none > h6')
    roomInfo = soup.select('#introduce > li.border_none > p')
    bedNum = soup.select('#introduce > li:nth-of-type(3) > h6')
    bedInfo = soup.select('#introduce > li:nth-of-type(3) > p')
    lorderName = soup.select('a.lorder_name')
    lorderGender = soup.select('#floatRightBox > div.js_box.clearfix > div.member_pic > div')
    lorderCredit = soup.select('#floatRightBox > div.js_box.clearfix > div.w_240 > p')

    genderLabel = lorderGender[0].get('class')[0] #.get返回的是一个list
    if genderLabel == 'member_ico':
        gender = 'male'
    elif genderLabel == 'member_ico1':
        gender = 'female'
    else:
        gender = 'unknown'

    creditLabel = lorderCredit[0].find_all('span', class_ = 'zm_ico')
    if len(creditLabel) != 0:
        credit = creditLabel[0].get_text()
    else:
        credit = 'unknown'

    attribute = {
        'title' : title[0].get_text(),
        'address' : address[0].get_text().strip(), #将地址后面的空格和换行符号去除
        'image' : image[0].get('src'),
        'price' : int(price[0].get_text()), #日租金应该是整型
        'rentingType' : rentingType[0].get_text(), #租房类型:单间?整套?...
        'area' : float(list(roomInfo[0].stripped_strings)[0].split(':')[1][:-2]), #房屋面积
        'apartment' : list(roomInfo[0].stripped_strings)[1][5:], #房屋户型
        'bedNum' : int(bedNum[0].get_text()[1:][:-1]), #床的数量,整型
        'bedInfo' : list(bedInfo[0].stripped_strings), #床的信息
        'lorderName' : lorderName[0].get_text(), #用户姓名
        'lorderGender': gender, #用户性别
        'lorderCredit' : credit #用户的芝麻信用值

    }

    return attribute

def main():
    headers = {
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_5) AppleWebKit/537.36 (KHTML, like Gecko) '
                      'Chrome/51.0.2704.106 Safari/537.36 Name'
    }
    pageNum = 1  # 开始的搜索页的页码
    roomNum = 0  # 已经完成的房间数
    while roomNum <= 300:

        print('page', str(pageNum))  # 当前搜索页的页码
        url = 'http://bj.xiaozhu.com/search-duanzufang-p{}/'.format(str(pageNum))  # 当前搜索页的URL
        products = getProductUrl(url, headers=headers)  # 获取当前搜索页的房源链接list
        print(products)
        roomsCurrentPage = [getAttribute(url, headers) for url in products]
        # 将房源信息写入rooms.txt中
        with open('/Users/xyh/Documents/python/python3/Week1/1_3/rooms.txt', 'a') as text:
            for room in roomsCurrentPage:
                text.write(str(room))
                text.write('\n')
                roomNum += 1

        pageNum += 1

    print('已搞定!')

if __name__ == '__main__':
    main()

总结

本次作业就是BeautifulSoup的练习,模式就是一个套路。重点难点在于,页面上每一个特征的定位,只要能够唯一地确定所需特征的位置,就能够解决问题。

但是感觉自己在组织设计每一个函数的功能时,不是很有感觉及想法。看过一些书,说函数最好就是一个函数实现一个功能,函数中的状态不要太多。但是自己实现时,不能很好地实现这些目标。希望老师能够指点一二。

相关文章

网友评论

      本文标题:Python实战计划爬虫作业1_3: 爬租房信息

      本文链接:https://www.haomeiwen.com/subject/kcqmjttx.html