美文网首页Python新世界
北京房价是天价!毋庸置疑!北漂买的起二手房?Python分析一波

北京房价是天价!毋庸置疑!北漂买的起二手房?Python分析一波

作者: 919b0c54458f | 来源:发表于2018-08-30 13:47 被阅读7次

    Python爬取赶集网北京二手房数据

    入门爬虫一个月,所以对每一个网站都使用了Xpath、Beautiful Soup、正则三种方法分别爬取,用于练习巩固。数据来源如下:

    进群:548377875   即可获取数十套PDF哦!

    哦 天呐这房价!

    Xpath爬取:

    这里主要解决运用Xpath如何判断某些元素是否存在的问题,比如如果房屋没有装修信息,不加上判断,某些元素不存在就会导致爬取中断。

    import requests

    from lxml import etree

    from requests.exceptions import RequestException

    import multiprocessing

    import time

    headers = {

    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}

    def get_one_page(url):

    try:

    response = requests.get(url, headers=headers)

    if response.status_code == 200:

    return response.text

    return None

    except RequestException:

    return None

    def parse_one_page(content):

    try:

    selector = etree.HTML(content)

    ALL = selector.xpath('//*[@id="f_mew_list"]/div[6]/div[1]/div[3]/div[1]/div')

    for div in ALL:

    yield {

    'Name': div.xpath('dl/dd[1]/a/text()')[0],

    'Type': div.xpath('dl/dd[2]/span[1]/text()')[0],

    'Area': div.xpath('dl/dd[2]/span[3]/text()')[0],

    'Towards': div.xpath('dl/dd[2]/span[5]/text()')[0],

    'Floor': div.xpath('dl/dd[2]/span[7]/text()')[0].strip().replace(' ', ""),

    'Decorate': div.xpath('dl/dd[2]/span[9]/text()')[0],

    #地址需要特殊处理一下

    'Address': div.xpath('dl/dd[3]//text()')[1]+div.xpath('dl/dd[3]//text()')[3].replace(' ','')+div.xpath('dl/dd[3]//text()')[4].strip(),

    'TotalPrice': div.xpath('dl/dd[5]/div[1]/span[1]/text()')[0] + div.xpath('dl/dd[5]/div[1]/span[2]/text()')[0],

    'Price': div.xpath('dl/dd[5]/div[2]/text()')[0]

    }

    if div['Name','Type','Area','Towards','Floor','Decorate','Address','TotalPrice','Price'] == None:##这里加上判断,如果其中一个元素为空,则输出None

    return None

    except Exception:

    return None

    def main():

    for i in range(1, 500):#这里设置爬取500页数据,在数据范围内,大家可以自设置爬取的量

    url = 'http://bj.ganji.com/fang5/o{}/'.format(i)

    content = get_one_page(url)

    print('第{}页抓取完毕'.format(i))

    for div in parse_one_page(content):

    print(div)

    if __name__ == '__main__':

    main()

    Beautiful Soup爬取:

    import requests

    import re

    from requests.exceptions import RequestException

    from bs4 import BeautifulSoup

    import csv

    import time

    headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}

    def get_one_page(url):

    try:

    response = requests.get(url,headers = headers)

    if response.status_code == 200:

    return response.text

    return None

    except RequestException:

    return None

    def parse_one_page(content):

    try:

    soup = BeautifulSoup(content,'html.parser')

    items = soup.find('div',class_=re.compile('js-tips-list'))

    for div in items.find_all('div',class_=re.compile('ershoufang-list')):

    yield {

    'Name':div.find('a',class_=re.compile('js-title')).text,

    'Type': div.find('dd', class_=re.compile('size')).contents[1].text,#tag的 .contents 属性可以将tag的子节点以列表的方式输出

    'Area':div.find('dd',class_=re.compile('size')).contents[5].text,

    'Towards':div.find('dd',class_=re.compile('size')).contents[9].text,

    'Floor':div.find('dd',class_=re.compile('size')).contents[13].text.replace(' ',''),

    'Decorate':div.find('dd',class_=re.compile('size')).contents[17].text,

    'Address':div.find('span',class_=re.compile('area')).text.strip().replace(' ','').replace(' ',''),

    'TotalPrice':div.find('span',class_=re.compile('js-price')).text+div.find('span',class_=re.compile('yue')).text,

    'Price':div.find('div',class_=re.compile('time')).text

    }

    #有一些二手房信息缺少部分信息,如:缺少装修信息,或者缺少楼层信息,这时候需要加个判断,不然爬取就会中断。

    if div['Name', 'Type', 'Area', 'Towards', 'Floor', 'Decorate', 'Address', 'TotalPrice', 'Price'] == None:

    return None

    except Exception:

    return None

    def main():

    for i in range(1,50):

    url = 'http://bj.ganji.com/fang5/o{}/'.format(i)

    content = get_one_page(url)

    print('第{}页抓取完毕'.format(i))

    for div in parse_one_page(content):

    print(div)

    with open('Data.csv', 'a', newline='') as f: # Data.csv 文件存储的路径,如果默认路径就直接写文件名即可。

    fieldnames = ['Name', 'Type', 'Area', 'Towards', 'Floor', 'Decorate', 'Address', 'TotalPrice', 'Price']

    writer = csv.DictWriter(f, fieldnames=fieldnames)

    writer.writeheader()

    for item in parse_one_page(content):

    writer.writerow(item)

    time.sleep(3)#设置爬取频率,一开始我就是爬取的太猛,导致网页需要验证。

    if __name__=='__main__':

    main()

    Pycharm中打印如下:

    将字典循环直接写入CSV效果如下:

    很多初学者对于Address不知如何处理,这里强调一下Beautiful Soup 中.contents的用法,亲身体会,我在这里花了好多时间才找到答案。

    虽然早就知道买不起了,但是一看到事实还真是挺扎心的!

    数据清洗

    data<-read.csv("E://Data For R/RData/data.csv")

    DATA<-data[,-c(1,7)]#将Name和Address两列去掉

    DATA[sample(1:nrow(DATA),size=10),]

    #在爬取的时候加入了判断,所以不知道爬取的数据中是否存在缺失值,这里检查一下

    colSums(is.na(DATA))

    #这里将Type的卧室客厅和卫生间分为三个不同的列

    ##这里需要注意,有一些房屋没有客厅如:1室1卫这时候需要单独处理,还有一些没有厕所信息。

    library(tidyr)

    library(stringr)

    DATA=separate(data=DATA,col=Type,into = c("Bedrooms","Halls"),sep="室")

    DATA=separate(data=DATA,col=Halls,into = c("Halls","Toilet"),sep="厅")

    ##将卫生间后面的汉字去掉

    DATA$Toilet<-str_replace(DATA$Toilet,"卫","")

    ###如图六,将Halls中带有汉字去掉,因为有一些房屋信息没有客厅,如:1室1厅,在分成卧室和客厅时,会将卫生间分到客厅一列。

    DATA$Halls<-str_replace(DATA$Halls,"卫","")

    ##取出没有客厅信息的数据,这些数据被separate到Halls列

    newdata<-DATA[which(DATA$Toilet %in% NA),2]

    newdata

    ##将没有客厅的房屋信息Halls列填充为0

    DATA[which(DATA$Toilet %in% NA),2]<-0

    DATA[which(DATA$Toilet %in% NA),3]<-newdata

    colSums(DATA=="")

    Bedrooms Halls Toilet Area Towards Floor Decorate

    0 0 2 0 0 0 0

    TotalPrice Price

    0 0

    ##发现有2个厕所没有信息,将其填写为0。

    DATA$Toilet[DATA$Toilet == ""]<-0

    ##这里将Area后的㎡去掉

    DATA$Area<-str_replace(DATA$Area,"㎡","")

    ##查看Towards的类型

    table(DATA$Towards)

    Towards 北向 东北向 东南向 东西向 东向 南北向 南向 西北向

    51 25 23 50 65 32 1901 678 38

    西南向 西向

    28 26

    ##将Floor信息带括号的全部去除

    DATA$Floor<-str_replace(DATA$Floor,"[(].*[)]","")##正则表达式

    #查看Floor的类别信息

    低层 地下 高层 共1层 共2层 共3层 共4层 共5层 中层

    632 32 790 36 61 101 68 130 1016

    #分别将TotalPrice和Price后面的万元、元/㎡去掉

    DATA$TotalPrice<-str_replace(DATA$TotalPrice,"万元","")

    DATA$Price<-str_replace(DATA$Price,"元/㎡","")

    head(DATA)

    ##将数据转换格式

    DATA$Bedrooms<-as.factor(DATA$Bedrooms)

    DATA$Halls<-as.factor(DATA$Halls)

    DATA$Toilet<-as.factor(DATA$Toilet)

    DATA$Area<-as.numeric(DATA$Area)

    DATA$TotalPrice<-as.numeric(DATA$TotalPrice)

    DATA$Price<-as.numeric(DATA$Price)

    DATA$Towards<-as.factor(DATA$Towards)

    DATA$Decorate<-as.factor(DATA$Decorate)

    str(DATA)

    以上数据清洗完毕。

    DATA$Bedrooms<-as.numeric(DATA$Bedrooms)

    ##这里将卧室数为1、2、3命名为A,4为B,5为C

    DATA$Bedrooms[DATA$Bedrooms=='1']<-"A"

    DATA$Bedrooms[DATA$Bedrooms=='2']<-"A"

    DATA$Bedrooms[DATA$Bedrooms=='3']<-"A"

    DATA$Bedrooms[DATA$Bedrooms=='4']<-"B"

    DATA$Bedrooms[DATA$Bedrooms=='5']<-"C"

    不同卧室数,TotalPrice不同。且随着卧室数的增多,总价越高,符合大众的认知。

    探究Halls与TotalPrice的关系

    table(DATA$Halls)

    0 1 2 3 4 5 9

    20 1674 1050 77 18 1 0

    ##5个客厅只有一个个体,我们这里将其排出

    DATA<-DATA[-(which(DATA$Halls %in% "5")),]

    table(DATA$Halls)

    0 1 2 3 4 5 9

    20 1674 1050 77 18 0 0

    ggplot(DATA,aes(x=Halls,y=TotalPrice))+geom_boxplot(col="red")

    一般卧室数越多,卫生间数也越多,即卫生间数越多,总价越高。

    探究Area与TotalPrice的关系

    ggplot(DATA, aes(x=Area, y=TotalPrice)) + geom_point(col='red')

    这个完全符合住房面积越大,总价越高。

    探究Towards与TotalPrice的关系

    ggplot(DATA,aes(x=Towards,y=TotalPrice))+geom_boxplot(col="red")

    探究Floor与TotalPrice的关系

    ggplot(DATA,aes(x=Floor,y=TotalPrice))+geom_boxplot(col="red")

    图中信息显示楼层一共只有1、2、3、地下的总价较高。

    探究Decorate与TotalPrice的关系

    ggplot(DATA,aes(x=Decorate,y=TotalPrice))+geom_boxplot(col="red")

    不同装修信息对总价影响较小。

    模型建立

    模型的F检验拒绝原假设,说明建立的模型是显著的;Ajusted R-squared为0.6815,模型的拟合程度尚可接受。

    相关文章

      网友评论

        本文标题:北京房价是天价!毋庸置疑!北漂买的起二手房?Python分析一波

        本文链接:https://www.haomeiwen.com/subject/sjwrwftx.html