美文网首页Python爬虫python爬虫
60小时Python爬虫学习:从100行数据到10W+数据

60小时Python爬虫学习:从100行数据到10W+数据

作者: 向右奔跑 | 来源:发表于2016-05-30 13:52 被阅读11985次

    这是我Python爬虫学习第31天笔记

    从4月30号开始,我每天学习Python、写代码、爬取数据。先看一下学习成果。

    一、一个月写了18篇文章:

    Python学习笔记

    **一个月共写了18篇文章,16998字。阅读量 7295, 评论 90, 喜欢 378, 打赏 0 **(其中8篇文章上了简书首页)。
    目录如下,
    随便说一下,这些数据的统计和目录列表的生成都是Python爬虫实现的,方法见这篇文章:《简书连载作者福音: 一键生成连载目录和连载作品排行统计(Python爬虫应用》。


    Scrapy用Cookie实现模拟登录
    Srcapy+Redis+mongodb实现一个爬虫中遇到的问题
    Scrapy+Mongodb爬取数据
    BeautifulSoup提取内容的小技巧
    Mongodb基本命令
    简书连载作者福音: 一键生成连载目录和连载作品排行统计(Python爬虫应用)
    简书连载作品龙虎榜: 一个爬虫的应用
    Python中小知识点汇总
    Scrapy爬取简书用户url分析
    使用Scrapy爬取大规模数据
    Python爬虫框架Scrapy快速入门
    XPath提取多个标签下的text
    Python爬虫学习:简书签约作者知多少?
    用Python玩转QQ群论坛
    爬虫搜索神器BeautifulSoup和XPath 的使用
    成长会不完全大数据-Python爬虫案例
    当我们学Python时,我们学什么?
    10行代码完成一个爬虫,就这么简单


    二、一次爬取数据达到10W+

    一个月的时间,爬取过的站点有:知笔墨、QQ群论坛、58赶集、前程无忧、简书。爬取的数据有:简书首书热门(七日热门、三十日热门),爬取找出简书签约作者,赶集、58简历库简历筛选,简书作者信息(文章数、字数、关注数、粉丝数、阅读数、喜欢数、打赏数、评论数)。

    从一开始的爬取简书首页热门数据99条,到昨天爬取简书用户信息超过11W。从一开始用Excel, csv保存下载数据,到现在用mongdb存储。

    简书30日热门数据 数据超过10W时 爬虫成功访问了41W页,获取数据119,700条

    三、学习掌握了这些内容

    到现在为止涉及和掌握的内容: urllib, urlib2, requests, xlrd, xlwt, re, BeautifulSoup, XPath, Scrapy, mongodb, Redis

    这些都是从一个Dome的10多行代码开始拆解、分析、模仿开始,就这样一步步迭代的方式来学习。

    四、总结一下学习方法

    1. 项目和问题驱动
      Python爬虫的学习,我没有按部就班地拿一本Python入门的书开始系统地学习,一个个知识点的来过,而是围绕想解决的问题,想实现的功能,一步步解决问题的方式推进。你可以看到,好几篇文章中我是先实现了一个功能,再总结过程中遇到了哪些问题,是怎么解决的,又遇到了什么问题,就记下来,先存疑。

      《简书连载作者福音: 一键生成连载目录和连载作品排行统计(Python爬虫应用)》这篇文章,就是看到简书上的统计连载作品排行时,手工统计太麻烦,就用Python爬虫来解决。还有工作中一些简历筛选,我也用爬虫处理了。

    2. 高频度集中学习
      每天2小时,首先找一个安静的学习环境,远离舒适区,一般选择下班后的办公室或图书馆。学习中间没有任何打扰,不浏览网页、不看IM信息。

    当我学到30天时,有一些简友加我,问我Python学习中的问题,居然还有Python程序员,一方面不禁感叹Python内容真广,另一方面我Python学习效果非常明显。我也在简书上遇到从事数据分析的简友,所以我又开了一个专题《Python数据分据》。

    相关文章

      网友评论

      • 逍遥浪书生:很牛,对于我等菜鸟来说……关注你
      • Mayday_31ed:你的系列真太全了
      • AliceJordan:对爬虫很感兴趣 会将文章好好看一遍的
      • 100010f774e2:站在前人肩膀上的感觉就是好~赞一个~
      • 安若然丶:hello 第三部分的第二段里的dome,是想要写demo吧:stuck_out_tongue_closed_eyes:
      • Youth丶领:py本来作用可以去搞数据分析。
      • 大邓和他的python:你好,请问你电脑是苹果机吗,我在我的苹果机上一直没法成功安装,想跟你请教下如何安装
        大邓和他的python:@向右奔跑 就是系统路径怎么改呢,我一直显示没配置好
        向右奔跑: @邓旭东HIT 是苹果,什么问题啊
      • 米呼呼:博主,你是零基础开始学习的吗
        米呼呼: @向右奔跑 谢谢老师,我不是计算机专业的,我还是先入门吧。
        向右奔跑:@向右奔跑 我现在有一个爬虫数据分析的群,想进来的话,可以先加我。 http://www.jianshu.com/p/18a067d2823c
        向右奔跑:@路思思 我Python是零基础,但使用过其他编程语言,就学得快。你要先把程序逻辑关过了,初学的人怎么也得要一两个月。
      • 五虎谷的格叔:为什么打赏比较少,因为这类文章有阅读门槛,很多人不够资格读(包括我),很敬佩你的文章系列,有股马拉松风景记录的感觉。
        向右奔跑: @五虎谷的阿格 谢谢,简书的打赏好像一直比较少,其他人都差不多吧。学习、实践、记录、提升、分享,是我一直在尝试的。这里记录一些心得。2017 一起加油~
      • coolLee:想学习爬虫,苦于不知道从哪里入手,求教
      • J1aDong:准备开始玩python爬虫,像你学习
        向右奔跑:@J1aDong 加油~
      • 2c6e0e3bb69e:我用requests post 传入proxies,爬两三百条,依旧会被拉钩网封锁,请问如何突破IP封锁?或者是我没有正确设置代理?
      • wojoin:问下老师,学习Python 网络爬虫用的什么书籍啊还是在线文档:grin:
        wojoin:@向右奔跑 好的,去看看
        向右奔跑:@wojoin 根据你的基础情况来,我有一个专题“编程学习方法论”,里面都有讲到。我是从网上一段代码开始学的,再看文档
      • 504f9299acda:一直都在关注你,对爬虫感兴趣,希望可以提供更多的实操案例,帮助很多,谢谢!:grin:
        向右奔跑:@子默然 爬虫系列文章还会继续更新,谢谢关注,欢迎转发。
      • findsomeoneys:你好:我最近也在学习scrapy 你爬取数据的时候是没有关电脑对吗:joy:
        向右奔跑:@findsomeoneys 1. 跨域爬取一个数据不同字段,我没有做过,但实现过爬取多个页面组成数据字段,传递参数就行了。跨域也应该类似。 2. 数据筛选一般是在pipeline里完成。
        findsomeoneys:@向右奔跑 还有就是对于我正在做的东西 后面一些功能我不是很明白该如何实现 如果你做过的话方便指点下吗?
        1.我需要爬不同网站的网页提取文章内容 当然这些文档内容提取规则肯定不同,我是应该一个网站写一个爬虫还是都写在同一个爬虫里面呢?我用的是里面crawlSpider 好像可以增加匹配规则
        2.我想实现提取规则的可配置化,就是把参数写到settings里面 如果新加了规则 那么对应items里面也加进去..
        向右奔跑:@findsomeoneys 恩,不关,都是晚上爬取数据。

      本文标题:60小时Python爬虫学习:从100行数据到10W+数据

      本文链接:https://www.haomeiwen.com/subject/jhaqdttx.html