美文网首页python入门基础学习
零基础想学Python爬虫?这是斯坦福大学教授给你的快速入门指南

零基础想学Python爬虫?这是斯坦福大学教授给你的快速入门指南

作者: 编程新视野 | 来源:发表于2018-12-11 14:37 被阅读0次

    本文主要内容:以最短的时间写一个最简单的爬虫,可以抓取论坛的帖子标题和帖子内容。

    本文受众:没写过爬虫的萌新。

    入门

    爬虫是怎么工作的?

    当然在学习Python的道路上肯定会困难,没有好的学习资料,怎么去学习呢?

    所以小编准备了一份零基础入门Python的学习资料。添加小编学习交流群943752371即可获取

    想象你是一只蜘蛛,现在你被放到了互联“网”上。那么,你需要把所有的网页都看一遍。怎么办呢?没问题呀,你就随便从某个地方开始,比如说人民日报的首页,这个叫initial pages,用$表示吧。

    在人民日报的首页,你看到那个页面引向的各种链接。于是你很开心地从爬到了“国内新闻”那个页面。太好了,这样你就已经爬完了俩页面(首页和国内新闻)!暂且不用管爬下来的页面怎么处理的,你就想象你把这个页面完完整整抄成了个html放到了你身上。

    突然你发现, 在国内新闻这个页面上,有一个链接链回“首页”。作为一只聪明的蜘蛛,你肯定知道你不用爬回去的吧,因为你已经看过了啊。所以,你需要用你的脑子,存下你已经看过的页面地址。这样,每次看到一个可能需要爬的新链接,你就先查查你脑子里是不是已经去过这个页面地址。如果去过,那就别去了。

    1) 理论上如果所有的页面可以从initial page达到的话,那么可以证明你一定可以爬完所有的网页。

    2) 基本的http抓取工具,scrapy

    3) 如果需要大规模网页抓取,你需要学习分布式爬虫的概念。

    4) rq和Scrapy的结合:darkrho/scrapy-redis · GitHub

    5) 后续处理,网页析取 ( grangier/python-goose · GitHub),存储(Mongodb)

    准备工作

    需要准备的东西: Python、scrapy、一个IDE或者随便什么文本编辑工具。

    1.技术部已经研究决定了,你来写爬虫。

    随便建一个工作目录,然后用命令行建立一个工程,工程名为miao,可以替换为你喜欢的名字。

    1

    scrapy startproject miao

    随后你会得到如下的一个由scrapy创建的目录结构

    在spiders文件夹中创建一个python文件,比如miao.py,来作为爬虫的脚本。

    内容如下:

    # 这个是解析函数,如果不特别指明的话,scrapy抓回来的页面会由这个函数进行解析。

    # 对页面的处理和分析工作都在此进行,这个示例里我们只是简单地把页面内容打印出来。

    def parse(self, response):

    print response.body

    跑一个试试?

    如果用命令行的话就这样:

    cd miao

    scrapy crawl NgaSpider

    你可以看到爬虫君已经把你坛星际区第一页打印出来了,当然由于没有任何处理,所以混杂着html标签和js脚本都一并打印出来了。

    解析

    接下来我们要把刚刚抓下来的页面进行分析,从这坨html和js堆里把这一页的帖子标题提炼出来。

    其实解析页面是个体力活,方法多的是,这里只介绍xpath。

    0.为什么不试试神奇的xpath呢

    看一下刚才抓下来的那坨东西,或者用chrome浏览器手动打开那个页面然后按F12可以看到页面结构。

    每个标题其实都是由这么一个html标签包裹着的。

    举个例子:

    [合作模式] 合作模式修改设想

    可以看到href就是这个帖子的地址(当然前面要拼上论坛地址),而这个标签包裹的内容就是帖子的标题了。

    于是我们用xpath的绝对定位方法,把class='topic'的部分摘出来。

    看看xpath的效果

    在最上面加上引用:

    from scrapy import Selector

    把parse函数改成:

    再次运行就可以看到输出你坛星际区第一页所有帖子的标题和url了。

    递归

    接下来我们要抓取每一个帖子的内容。

    这里需要用到python的yield。

    yield Request(url=url, callback=self.parse_topic)

    此处会告诉scrapy去抓取这个url,然后把抓回来的页面用指定的parse_topic函数进行解析。

    至此我们需要定义一个新的函数来分析一个帖子里的内容。

    完整的代码如下:

    到此为止,这个爬虫可以爬取你坛第一页所有的帖子的标题,并爬取每个帖子里第一页的每一层楼的内容。

    爬取多个页面的原理相同,注意解析翻页的url地址、设定终止条件、指定好对应的页面解析函数即可。

    Pipelines——管道

    此处是对已抓取、解析后的内容的处理,可以通过管道写入本地文件、数据库。

    0.定义一个Item

    在miao文件夹中创建一个items.py文件。

    此处我们定义了两个简单的class来描述我们爬取的结果。

    写一个处理方法

    在miao文件夹下面找到那个pipelines.py文件,scrapy之前应该已经自动生成好了。

    我们可以在此建一个处理方法。

    在爬虫中调用这个处理方法

    要调用这个方法我们只需在爬虫中调用即可,

    在配置文件里指定这个pipeline

    找到settings.py文件,在里面加入

    ITEM_PIPELINES = {

    'miao.pipelines.FilePipeline': 400,

    }

    这样在爬虫里调用

    yield item

    的时候都会由经这个FilePipeline来处理。后面的数字400表示的是优先级。

    可以在此配置多个Pipeline,scrapy会根据优先级,把item依次交给各个item来处理,每个处理完的结果会传递给下一个pipeline来处理。

    可以这样配置多个pipeline:

    Middleware——中间件

    通过Middleware我们可以对请求信息作出一些修改,比如常用的设置UA、代理、登录信息等等都可以通过Middleware来配置。

    Middleware的配置

    与pipeline的配置类似,在setting.py中加入Middleware的名字,

    例如

    破网站查UA, 我要换UA

    某些网站不带UA是不让访问的。

    在miao文件夹下面建立一个middleware.py

    这里就是一个简单的随机更换UA的中间件,agents的内容可以自行扩充。

    破网站封IP,我要用代理

    比如本地127.0.0.1开启了一个8123端口的代理,同样可以通过中间件配置让爬虫通过这个代理来对目标网站进行爬取。

    同样在middleware.py中加入:

    很多网站会对访问次数进行限制,如果访问频率过高的话会临时禁封IP。

    如果需要的话可以从网上购买IP,一般服务商会提供一个API来获取当前可用的IP池,选一个填到这里就好。

    一些常用配置

    在settings.py中的一些常用配置

    我就是要用Pycharm

    如果非要用Pycharm作为开发调试工具的话可以在运行配置里进行如下配置:

    Configuration页面:

    Script填你的scrapy的cmdline.py路径,

    比如我的是

    /usr/local/lib/python2.7/dist-packages/scrapy/cmdline.py

    然后在Scrpit parameters中填爬虫的名字,

    本例中即为:

    crawl NgaSpider

    最后是Working diretory,找到你的settings.py文件,填这个文件所在的目录。

    示例:

    按小绿箭头就可以愉快地调戏了。

    相关文章

      网友评论

        本文标题:零基础想学Python爬虫?这是斯坦福大学教授给你的快速入门指南

        本文链接:https://www.haomeiwen.com/subject/omashqtx.html