美文网首页数据库@IT·互联网爬虫专题
2017-4-4抓取赶集房源信息存入mongodb

2017-4-4抓取赶集房源信息存入mongodb

作者: CvnYv | 来源:发表于2017-04-04 19:47 被阅读168次

看了掷骰子的求的这篇文章http://www.jianshu.com/p/5f5cfefd7f1d#觉得获益匪浅,正好在练习怎么把数据存入mongodb,就跟着博主选了赶集的租房信息作了数据源,选合租,个人(依然不会在ubuntu上打出顿号)后就是这个链接http://cd.ganji.com/fang3/a1o1

分析页面特征并爬取每处房子的详情url

  • 观察翻页时url的变动信息
页1.png
页2.png
  • 页数与翻页
    显而易见a1o1和a1o2的o几就是页数,赶集页面好像改版了,所以不能再像原博那样分析边界条件了,我直接改变url页数试出大概有63页(技术不够,体力来凑)。
count = 0
for i in range(1, page + 1):
    url = 'http://cd.ganji.com/fang3/a1o%s/' % i 
  • 然后通过status_code对页面进行判断
    if zf_data.status_code == 404:
        pass
  • 关于线程与进程只是以前看过几页书知道是怎么回事但没写过代码,代理池也并不会,慢点爬应该不会封我一个小IP吧,这次主要练习存储数据,所以就一切简单化
  • 然后就遇到了一个巨大的坑,本来我是根据这个href提取url的


    href.png

    写了这样的代码

links = soup.select("class.f-list-item")

这个爬虫写完后以为不会再出bug,就run了起来然后起身去厕所,没想到回来它就停了。

第五个出错.png

在PyCharm上检查了一下,是第五个数据出了问题,然后检查代码发现好像没错,再打开赶集F12一下,哇,原来是被赶集这个源码坑了。上图


陷阱.png

赶集把第5个规则改了一下,确实是防爬了。好了,不怕有bug,只要知道是什么原因就好解决了。改变策略,上re,用那个puid构建url(先在源码里面搜索下数量检查一下),然后写入mongodb表url_list中。

        puid = re.findall('id="puid-(.*?)"', html, re.S)
        count += 1
        print('抓到第%s页链接' % count)
        for l in puid:
            fang_url = 'http://cd.ganji.com/fang3/%sx.htm' % l
            url_list.insert_one({'link': fang_url})
            print(fang_url)

根据每处房子的url抓取详细信息

  • 用BeautifulSoup就是很简单的页面分析
        data = {
            'title': soup.select(".card-title i")[0].get_text(strip=True),
            'price': soup.select(".price")[0].get_text(strip=True),
            'synopsis': soup.select(".fang-info")[0].get_text(" ", strip=True),
            'name': soup.select(".item-con")[0].get_text(strip=True),
            'area': soup.select(".item-con")[1].get_text(strip=True),
            'describe': soup.select(".describe")[0].get_text(strip=True),
            'url': url
        }
        print(data)
        items_info.insert_one(data)

最后用函数封装起来

    it = url_list.find()
    for i in it:
        url = i['link']
        get_items(url=url)

运行了一会依然是有bug出现了

bug.png 抓取数量.png 数据.png

总共是3405个url,抓了912个信息存入mongodb。至于为什么912个就停了,现在丝毫不想debug,日后再说吧。

  • **数据可视化还不会,抓取动态页面也还没学,还有线程代理等等要学的。B回城回满血再传送到线上继续farm **

相关文章

网友评论

  • 6bf4671977ce:存到mongodb中有啥用
    CvnYv:@噢瑞利 数据量大了就要存到数据库中,有数据就可以进行数据分析了。数据分析正在学中,所以只是先存入mongodb

本文标题:2017-4-4抓取赶集房源信息存入mongodb

本文链接:https://www.haomeiwen.com/subject/silzottx.html