美文网首页python热爱者Python新世界
全套Python爬虫速成视频教程,比起送书不是好太多了?赶紧领取

全套Python爬虫速成视频教程,比起送书不是好太多了?赶紧领取

作者: 48e0a32026ae | 来源:发表于2018-11-06 19:16 被阅读1次

    背景(获取方式在文末)

    前两天,有个小伙伴问了播妞这样一个问题:Python可以爬到视频网站上vip才能看到的视频吗?听到这个问题,你是什么反应?

    我当时的内心:开玩笑,还有Python爬不到的东西吗?

    今天就给大家总结了一些Python爬取各种东西的案例,让你看看Python到底有多强大,而且还给大家准备了少量源码或者是视频哦,是不是对我的爱又多了几分。

    既然要在网络上爬取资源,首先要了解下基本的爬虫工作原理。

    爬虫是怎么工作的?

    想象你是一只蜘蛛,现在你被放到了互联“网”上。那么,你需要把所有的网页都看一遍。怎么办呢?没问题呀,你就随便从某个地方开始,比如说人民日报的首页,这个叫initial pages,用$表示吧。

    在人民日报的首页,你看到那个页面引向的各种链接。于是你很开心地从爬到了“国内新闻”那个页面。太好了,这样你就已经爬完了俩页面(首页和国内新闻)!暂且不用管爬下来的页面怎么处理的,你就想象你把这个页面完完整整抄成了个html放到了你身上。

    突然你发现, 在国内新闻这个页面上,有一个链接链回“首页”。作为一只聪明的蜘蛛,你肯定知道你不用爬回去的吧,因为你已经看过了啊。所以,你需要用你的脑子,存下你已经看过的页面地址。这样,每次看到一个可能需要爬的新链接,你就先查查你脑子里是不是已经去过这个页面地址。如果去过,那就别去了。

    理论上如果所有的页面可以从initial page达到的话,那么可以证明你一定可以爬完所有的网页。

    基本的http抓取工具,scrapy

    如果需要大规模网页抓取,你需要学习分布式爬虫的概念。

    rq和Scrapy的结合:darkrho/scrapy-redis · GitHub

    后续处理,网页析取 ( grangier/python-goose · GitHub),存储(Mongodb)

    视频教程包括:

    还给大家准备了Python的Scrapy教程,其中包括:

    完整资源获取方式

    学习Python中有不明白推荐加入交流群

                    号:516107834

                    群里有志同道合的小伙伴,互帮互助,

                    群里有不错的学习教程!

    相关文章

      网友评论

        本文标题:全套Python爬虫速成视频教程,比起送书不是好太多了?赶紧领取

        本文链接:https://www.haomeiwen.com/subject/tyqpxqtx.html