前言
Python 的知识很多,基本的入门就有很多东西要学,还有各种合样的库要学习。很多同学学了一段时间,进展很慢,学了前面忘了后面!今天我就给大家介绍一个非常简单的爬虫小例子,来综合练习,非常不错!
1.爬取的目标
我们这次选择一个比较好玩的网站叫"好奇心日报",里面的内容非常有趣,而且图片都是高清,非常漂亮,今天我们就探索一下好奇心日报的爬取。

2.准备工作
前期需要对这个网站进行简单的分析,网页的结构,源码的查看,有无反爬策略等等。
1)第一步是发现好奇心日报的文章地址编码是按数字递增的,例如:http://www.qdaily.com/articles/38425.html
2)截止今天,好奇心日报的文章编码已经从1到55613了,共5万篇文章。
3)然后我发现文章的标题,分享数和文章发布日期都写死在页面里,但是评论数不在页面中 。
4)为了找到评论数,我使用谷歌浏览器的F12的 network 功能,发现了评论是通过json 数据获得的,地址类似:http://www.qdaily.com/comments/article/38425/0.json 。
5)看到 json 的数据自带评论,于是我顺便把评论的内容也爬下来了,顺便做一个评论的词云
小编推荐一个学python的学习qun 740,3222,34
无论你是大牛还是小白,是想转行还是想入行都可以来了解一起进步一起学习!裙内有开发工具,很多干货和技术资料分享!
3.主体代码
1)先创建数据库
数据库我们用选择最最简单的 sqlite3 ,这个数据非常适合小白入门。这个库的详细用法。

用一个类QDaily_DB来专门处理db的创建,保存和关闭.上面的代码是创建部分:
1)创建一个数据库名字叫qdaily.db,里面分布建2张表
2)一张表qdality用来保存好奇心日报的id,标题,点赞分享数,日期和评论数
3)一张表comments用来保存好奇心日报的id和每一条评论的内容
2)网页爬取
网页的爬取,我们这里并没有用什么高深的库和爬虫框架,用简单的requests+bs4的组合,这一个一套比较适合小白上手的库,也没有用并发框架。
1).网页的下载
前面说了,好奇心日报的url的规则已经找到,只要一个一个解析就行!

-
我们输入一个id,来构造一个url,然后把这个url填入到requests中解析即可。
-
注意编码方式,获得页面的内容html_content,然后把详细的html_content内容填入parse_html类函数中进行详细处理.
-
为了防止出现爬取异常,一定要加入try/except和finally这样的异常保护
3).页面的解析和评论内容的获取
下面就是这个项目稍微难有点的地方,需要用BeautifulSoup来详细解析页面的内容。

评论区的内容稍微有一点点的复制,需要用构造一个header取获取,直接解析页面无法获取。


我们用两个简单数据结构,一个是primary_data这个可以是列表,元组或者字典,这是一种数据结构,用来保存我们爬取获得每一篇文章的id,日期,标题等等。另外一个是 comments_data用来存放评论区的内容,然后返回即可。
04:数据存入数据库
前面我们有一个类QDaily_DB,用了创建的类函数,现在用它的save_db函数来把数据入库。

sqlite的操作非常简单,用的也是SQL的语法,上手来说非常方便。我们用insert语句动态插入数据,然后execute去执行,最后不要忘记commit!
05.:数据的展示
爬完5万篇文章用了快一天,虽然多线程可以加快速度,但我采用单线程减轻好奇心日报服务器的压力, 先是根据文章分享数排序:

然后是根据文章的评论数排序:

06:好奇心日报文章id与评论数的关系
感觉好奇心日报用的人越来越多了,那么随着id的增加,文章的平均评论数应该也会增加。


可以看出越到后面,平均每篇文章的分享数就越多,反映出好奇心日报的用户数变多
07:根据评论生成词云
用matplotlib和wordcloud库生成一个词云评论图,看看哪些关键字比较集中!

生成的词云结果如下

发现评论比较多的是"哈哈哈","是的","呵呵","谢谢"这样的短口语词汇。整个这个实战小例子还是非常有趣的,从数据爬取-数据入库,数据分析和词云,一条龙服务,还是非常值得去试试,对初学者强化基础知识,入门比较有帮助。
网友评论