美文网首页python爬虫日记本编程技术我爱编程
用Zhihu-OAuth库轻松爬取知乎各类数据

用Zhihu-OAuth库轻松爬取知乎各类数据

作者: 古柳_Deserts_X | 来源:发表于2018-01-02 00:22 被阅读592次

去年(手动滑稽)某日想爬取知乎特定话题下的全部回答数据,于是翻出以前写的知乎话题爬虫跑运行了下,没想到遇到一个一直没能解决的bug,貌似是抓包到的API返回的JSON数据格式有问题,于是遭遇爬知乎的滑铁卢。幸而想起有个叫“Zhihu-OAuth”的库,于是了解了下并上手一用,还蛮方便的,于是介绍给想爬取知乎数据的小伙伴们。

这是知乎用户“7sDream”开源的Python库,github地址

Zhihu-OAuth 文档

其中能爬取的数据非常全、非常丰富:用户动态、答案、文章、收藏夹、专栏、评论、首页信息流、知乎live、特定用户的信息、分享、问题、话题、私信会话和私信信息等等全部囊括在内

使用的方法也很简单,先是安装库,zhihu_oauth 支持 Python 2 和 Python 3:

pip install zhihu-oauth

接下来以爬取知乎特定话题下的全部回答为例,简单介绍下该库用法。以下为登录知乎,并保存token的代码。

其中账号和密码需要每个人自己输入。账号为邮箱或手机号(前缀"+86")

后续就可以直接加载token来登录知乎。本回爬取的知乎话题为“长大是什么感觉?”

链接为:https://www.zhihu.com/question/27987434

ID为:“27987434”。

具体代码如下,其中answers为生成器,需要用for循环来提取每个回答的数据,具体都能提取那些数据可以参见:Answer类的文档说明。包含了几乎所有可以提取的数据。

代码里注释掉了答主的诸多信息,因为发现提取时很容易被知乎反爬限制,而显示IP或账号异常,从而需要输入验证码。

最后保存数据用的是pandas库,全文代码也是在jupyter notebook里一步步运行的。此处因人而异,其他存储方式亦可。

本文简单介绍下Zhihu-OAuth库,因为上手还蛮简单的,很推荐想爬知乎数据而不得的小伙伴尝试下。后续看情况会更详细的讲下其他用法,看大家觉得需要吗?

相关文章

网友评论

  • Night_2a89:你好,能加个微信吗,我正在做一个关于知乎question的爬虫,能把你的demo发我参考一下么,非常感谢
  • 423e8368b560:您好我想请问下这个API可以爬取用户的所有回答涉及的话题吗?
    423e8368b560:@Deserts_X 嗯 好谢谢你
    古柳_Deserts_X:@张大宝_d238 不清楚唉,可以去官方文档找找
  • c816e363ebd2:您知道多少访问频率的请求不会被ban 吗?是封账号?或者封ip?
    c816e363ebd2:@Deserts_X 突然发现https://www.zhihu.com/robots.txt
    古柳_Deserts_X:@ASC_8384 还没碰到过知乎封账户和ip,验证码比较多。可能也是爬的没那么狠的缘故
    古柳_Deserts_X:@ASC_8384 频率只能爬的时候看了,一开始都是频繁后要输入验证码的
  • 云无心:需要

本文标题:用Zhihu-OAuth库轻松爬取知乎各类数据

本文链接:https://www.haomeiwen.com/subject/givxnxtx.html