美文网首页大数据 爬虫Python AI Sqlpython学习我爱编程
还没写过爬虫的小白点进来,一文带你入门python爬虫(小白福利

还没写过爬虫的小白点进来,一文带你入门python爬虫(小白福利

作者: 小天真_5eeb | 来源:发表于2018-11-07 11:07 被阅读5次

    入门

    准备工作

    需要准备的东西: Python、scrapy、一个IDE或者随便什么文本编辑工具。

    随便建一个工作目录,然后用命令行建立一个工程,工程名为miao,可以替换为你喜欢的名字。

    scrapy startproject miao

    随后你会得到如下的一个由scrapy创建的目录结构

    在spiders文件夹中创建一个python文件,比如miao.py,来作为爬虫的脚本。内容如下:

    先跑一下试试看

    如果用命令行的话就这样:

    cd miao

    scrapy crawl NgaSpider

    你可以看到爬虫君已经把你坛星际区第一页打印出来了,当然由于没有任何处理,所以混杂着html标签和js脚本都一并打印出来了。

    解析

    接下来我们要把刚刚抓下来的页面进行分析,从这坨html和js堆里把这一页的帖子标题提炼出来。

    其实解析页面是个体力活,方法多的是,这里只介绍xpath。

    为什么不试试神奇的xpath呢

    看一下刚才抓下来的那坨东西,或者用chrome浏览器手动打开那个页面然后按F12可以看到页面结构。

    每个标题其实都是由这么一个html标签包裹着的。举个例子:

    可以看到href就是这个帖子的地址(当然前面要拼上论坛地址),而这个标签包裹的内容就是帖子的标题了。

    于是我们用xpath的绝对定位方法,把class='topic'的部分摘出来。

    看看xpath的效果

    在最上面加上引用:

    from scrapy import Selector

    把parse函数改成:

    小编推荐一个学Python的学习裙【 二二七,四三五,四五零 】,无论你是大牛还是小白,是想转行还是想入行都可以来了解一起进步一起学习!裙内有开发工具,很多干货和技术资料分享!希望新手少走弯路

    再次运行就可以看到输出你坛星际区第一页所有帖子的标题和url了。

    递归

    接下来我们要抓取每一个帖子的内容。

    这里需要用到python的yield。

    yield Request(url=url, callback=self.parse_topic)

    此处会告诉scrapy去抓取这个url,然后把抓回来的页面用指定的parse_topic函数进行解析。

    至此我们需要定义一个新的函数来分析一个帖子里的内容。

    完整的代码如下:

    到此为止,这个爬虫可以爬取你坛第一页所有的帖子的标题,并爬取每个帖子里第一页的每一层楼的内容。

    爬取多个页面的原理相同,注意解析翻页的url地址、设定终止条件、指定好对应的页面解析函数即可。

    Pipelines——管道

    此处是对已抓取、解析后的内容的处理,可以通过管道写入本地文件、数据库。

    0.定义一个Item

    在miao文件夹中创建一个items.py文件。

    此处我们定义了两个简单的class来描述我们爬取的结果。

    写一个处理方法

    在miao文件夹下面找到那个pipelines.py文件,scrapy之前应该已经自动生成好了。我们可以在此建一个处理方法。

    在爬虫中调用这个处理方法

    要调用这个方法我们只需在爬虫中调用即可,例如原先的内容处理函数可改为:

    在配置文件里指定这个pipeline

    找到settings.py文件,在里面加入

    ITEM_PIPELINES = {

    'miao.pipelines.FilePipeline': 400,

    }

    这样在爬虫里调用的时候都会由经这个FilePipeline来处理。后面的数字400表示的是优先级。

    可以在此配置多个Pipeline,scrapy会根据优先级,把item依次交给各个item来处理,每个处理完的结果会传递给下一个pipeline来处理。

    可以这样配置多个pipeline:

    Middleware——中间件

    通过Middleware我们可以对请求信息作出一些修改,比如常用的设置UA、代理、登录信息等等都可以通过Middleware来配置。

    Middleware的配置

    与pipeline的配置类似,在setting.py中加入Middleware的名字,例如

    DOWNLOADER_MIDDLEWARES = {

    "miao.middleware.UserAgentMiddleware": 401,

    "miao.middleware.ProxyMiddleware": 402,

    }

    破网站查UA, 我要换UA

    某些网站不带UA是不让访问的。

    在miao文件夹下面建立一个middleware.py

    这里就是一个简单的随机更换UA的中间件,agents的内容可以自行扩充。

    破网站封IP,我要用代理

    比如本地127.0.0.1开启了一个8123端口的代理,同样可以通过中间件配置让爬虫通过这个代理来对目标网站进行爬取。

    同样在middleware.py中加入:

    很多网站会对访问次数进行限制,如果访问频率过高的话会临时禁封IP。

    如果需要的话可以从网上购买IP,一般服务商会提供一个API来获取当前可用的IP池,选一个填到这里就好。

    一些常用配置

    在settings.py中的一些常用配置

    就是要用Pycharm

    如果非要用Pycharm作为开发调试工具的话可以在运行配置里进行如下配置:

    Configuration页面:

    Script填你的scrapy的cmdline.py路径,比如我的是

    /usr/local/lib/python2.7/dist-packages/scrapy/cmdline.py

    然后在Scrpit parameters中填爬虫的名字,本例中即为:

    crawl NgaSpider

    最后是Working diretory,找到你的settings.py文件,填这个文件所在的目录。

    示例:

    按小绿箭头就可以愉快地调试了

    相关文章

      网友评论

        本文标题:还没写过爬虫的小白点进来,一文带你入门python爬虫(小白福利

        本文链接:https://www.haomeiwen.com/subject/ngjmxqtx.html