美文网首页python热爱者
想爬取各大网站的小姐姐?这份爬虫速成指南送你了!包学会哦!

想爬取各大网站的小姐姐?这份爬虫速成指南送你了!包学会哦!

作者: 919b0c54458f | 来源:发表于2018-06-12 15:04 被阅读11次

在spiders文件夹中创建一个python文件,比如miao.py,来作为爬虫的脚本。

代码如下:

解析

1.试试神奇的xpath

2.看看xpath的效果

在最上面加上引用:

from scrapy import Selector

把parse函数改成:

我们再次运行一下,你就可以看到输出“坛星际区”第一页所有帖子的标题和url了。

递归

完整的代码如下:

Pipelines——管道

现在是对已抓取、解析后的内容的处理,我们可以通过管道写入本地文件、数据库。

3.在爬虫中调用这个处理方法。

4.在配置文件里指定这个pipeline

可以这样配置多个pipeline:

Middleware——中间件

1.Middleware的配置

2.破网站查UA, 我要换UA

这里就是一个简单的随机更换UA的中间件,agents的内容可以自行扩充。

3.破网站封IP,我要用代理

3.在爬虫中调用这个处理方法。

4.在配置文件里指定这个pipeline

可以这样配置多个pipeline:

Middleware——中间件

1.Middleware的配置

2.破网站查UA, 我要换UA

这里就是一个简单的随机更换UA的中间件,agents的内容可以自行扩充。

3.破网站封IP,我要用代理

3.在爬虫中调用这个处理方法。

4.在配置文件里指定这个pipeline

可以这样配置多个pipeline:

Middleware——中间件

1.Middleware的配置

2.破网站查UA, 我要换UA

这里就是一个简单的随机更换UA的中间件,agents的内容可以自行扩充。

3.破网站封IP,我要用代理

进群:125240963,即可获取源码仅限前十哦!

相关文章

网友评论

    本文标题:想爬取各大网站的小姐姐?这份爬虫速成指南送你了!包学会哦!

    本文链接:https://www.haomeiwen.com/subject/mgwleftx.html