美文网首页大数据相关
#老司机教你看妹子——你的第一个知乎爬虫(2)

#老司机教你看妹子——你的第一个知乎爬虫(2)

作者: 李大白很黑 | 来源:发表于2017-07-29 19:21 被阅读71次

    老司机教你看妹子——你的第一个知乎爬虫(2)

    “老师快教我怎么才能获取完整图片?”

    别急,还记得上回说的,设置UA的事情么

    “嗯, 要把自己伪装成一个浏览器

    我们先看看浏览器做了什么。

    浏览器做了什么

    你已经知道了,知乎的网页是通过 Ajax 进行 异步加载, 证据就是那个大大的“更多”按钮。

    点一下,就加载更多。

    那么点了按钮之后究竟发生了什么呢?浏览器可以告诉我们究竟发生了什么。

    使用Chrome浏览器,在页面上单击鼠标右键->审查元素(检查),就可以唤起开发者工具。

    切换到Network一栏里,然后点击“更多”,就可以看到点击了“更多”后面发生了什么网络请求。

    你看到了什么?

    “一堆图片请求,然后上面的那个看图标应该是文件之类的,而且有29k,加载了630ms。而且,从时间顺序上看,先执行获取到了这个数据,然后再加载的图片。”

    Ok,那我们点开看一下。

    fetch-preview.png fetch-preview2.png

    啊哈!

    “这里是具体的回答数据!那我只需要调用这个接口,就可以拿到所有的答案了!“

    Copy as cURL

    你迫不及待的写下了,r = requests.get(url,headers=ua_header) 这样的代码,却发现了我在旁边笑而不语。

    “有什么问题么?”

    不要急着动手写,先分析下这个请求都带了那些参数。

    “是指的url里的参数么?”

    不是。选中那个请求,然后右键->Copy->Copy as cURL

    cURL是一个利用URL语法在命令行下工作的文件传输工具,绝大多数的linux 和unix都会内置的一个软件.
    但是,注意windows下命令行里调用的curl并不是这里提到的那个curl,具体的讨论可以看这篇:PowerShell 为什么 alias 了 curl 就引起了如此大的争议?

    “那我现在要去装curl?”

    别急啊,我们先看看我们复制出来了什么。

    curl 'https://www.zhihu.com/api/v4/questions/22212644/answers?sort_by=default&include=data%5B%2A%5D.is_normal%2Cis_collapsed%2Cannotation_action%2Cannotation_detail%2Ccollapse_reason%2Cis_sticky%2Ccollapsed_by%2Csuggest_edit%2Ccomment_count%2Ccan_comment%2Ccontent%2Ceditable_content%2Cvoteup_count%2Creshipment_settings%2Ccomment_permission%2Cmark_infos%2Ccreated_time%2Cupdated_time%2Creview_info%2Crelationship.is_authorized%2Cis_author%2Cvoting%2Cis_thanked%2Cis_nothelp%2Cupvoted_followees%3Bdata%5B%2A%5D.author.follower_count%2Cbadge%5B%3F%28type%3Dbest_answerer%29%5D.topics&limit=721&offset=0' -H 'Cookie: aliyungf_tc=AQAAADvok2VGQgEAiE1NfJc49LzrUk7p; q_c1=ef155c9cc9124e1f951447b3b6fd875f|1500990779000|1500990779000; _zap=84936da1-3813-4842-a846-56214e791bd0; q_c1=70bd5b2623c14a3d9079630a483b0aa3|1500990778000|1500990778000; l_n_c=1; l_cap_id="NDczNThhZjExZWU1NDIzYWJhMDllNjBkZTJiNDUwZGI=|1500990807|075d561c18784c75946ae101e6f7135b5b271cf3"; r_cap_id="Y2MwNzdlMjMxMjc0NDViMGE0NWJhOTI3NGQzNjQwNGY=|1500990807|769b04b121d8b52602f6d7f3e86ca62bf5f80d33"; cap_id="ZTFkYmRiMjZiZTgyNDdjY2I3YTk3ZDExNDZjZDUyYmY=|1500990807|2f85fb4342ee06cfe26e5ba006d699c778a7787c"; n_c=1; _xsrf=b967f17b-4577-428e-906d-1c306c67decd' -H 'Accept-Encoding: gzip, deflate, br' -H 'Accept-Language: zh-CN,zh;q=0.8,zh-TW;q=0.6,en;q=0.4' -H 'authorization: oauth c3cef7c66a1843f8b3a9e6a1e3160e20' -H 'accept: application/json, text/plain, */*' -H 'Referer: https://www.zhihu.com/question/22212644' -H 'User-Agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.115 Safari/537.36' -H 'Connection: keep-alive' --compressed
    

    嗯,这么长一行确实挺恶心的,我们来换个行。

    curl
    'https://www.zhihu.com/api/v4/questions/22212644/answers
    ?sort_by=default
    &include=data%5B%2A%5D.is_normal%2Cis_collapsed%2Cannotation_action%2Cannotation_detail%2Ccollapse_reason%2Cis_sticky%2Ccollapsed_by%2Csuggest_edit%2Ccomment_count%2Ccan_comment%2Ccontent%2Ceditable_content%2Cvoteup_count%2Creshipment_settings%2Ccomment_permission%2Cmark_infos%2Ccreated_time%2Cupdated_time%2Creview_info%2Crelationship.is_authorized%2Cis_author%2Cvoting%2Cis_thanked%2Cis_nothelp%2Cupvoted_followees%3Bdata%5B%2A%5D.author.follower_count%2Cbadge%5B%3F%28type%3Dbest_answerer%29%5D.topics
    &limit=20
    &offset=3'
    -H 
    'Cookie: 
        aliyungf_tc=AQAAADvok2VGQgEAiE1NfJc49LzrUk7p;   q_c1=ef155c9cc9124e1f951447b3b6fd875f|1500990779000|1500990779000; _zap=84936da1-3813-4842-a846-56214e791bd0;
        l_n_c=1;
        l_cap_id="NDczNThhZjExZWU1NDIzYWJhMDllNjBkZTJiNDUwZGI=|1500990807|075d561c18784c75946ae101e6f7135b5b271cf3";
        r_cap_id="Y2MwNzdlMjMxMjc0NDViMGE0NWJhOTI3NGQzNjQwNGY=|1500990807|769b04b121d8b52602f6d7f3e86ca62bf5f80d33";    cap_id="ZTFkYmRiMjZiZTgyNDdjY2I3YTk3ZDExNDZjZDUyYmY=|1500990807|2f85fb4342ee06cfe26e5ba006d699c778a7787c";
        n_c=1;
        _xsrf=b967f17b-4577-428e-906d-1c306c67decd'
    -H 'Accept-Encoding: gzip, deflate, br'
    -H 'Accept-Language: zh-CN,zh;q=0.8,zh-TW;q=0.6,en;q=0.4'
    -H 'authorization: oauth c3cef7c66a1843f8b3a9e6a1e3160e20'
    -H 'accept: application/json, text/plain, */*'
    -H 'Referer: https://www.zhihu.com/question/22212644'
    -H 'User-Agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.115 Safari/537.36'
    -H 'Connection: keep-alive'
    
    
    

    curl的第一参数就是要请求的url, -H表示一个Header,所以,这个请求总共有8个Header,其中一个是cookie。

    “老师,cookie是啥”

    (如果你知道cookie是啥,可以跳过下面的小节)

    cookie与session

    我们从一个故事开始。

    你去柜台买东西,付钱拿货走人。第二天你又去柜台,说说好的赠品还没给呢。店员说,你谁啊,要啥赠品啊,买东西那边排队去。卒。后来为了避免这种情况,柜台会给个你一个收据,同时也会记录那些东西卖出去了,还欠着赠品。你下次来的时候,带着收据,柜台根据收据,一查账,诶发现确实欠你个赠品,然后给你赠品。大家都美滋滋。

    “店员就这么蠢,一点都不记事么”

    对,最开始的http协议就是这样,一次请求结束后,连接就断开了。后来有了cookie的诞生,发送一些额外的信息,用来标记用户。

    “那cookie就是收据,session就是店家的记录?”

    对,cookie和session分别表示存在浏览器和服务器的某些数据,这些数据被用来标识用户和记录状态。而且cookie是通常都是服务器设置的。

    Request with cookie

    “那我就把这些cookie直接写近代码里就可以了么?”

    cookie会过期,所以,最好还是要知道这些cookie从何而来。

    我们从头开始,看看服务器给我们设置了那些cookie

    在做这个之前,你要先进入Chrome的隐身模式,隐身模式会清除你以前浏览器留下的cookie,其实之前我们所有的请求都是在隐身模式下发起的。

    点开第一条请求,我们看到了_xsrf和aliyungf_tc这两个cookie

    _xsrf这样的字段通常是用来防止XSRF(跨站请求伪造)的,而且aliyungf_tc,从名称上来看,应该是阿里云高防塞的。

    “那q_c1, l_n_c, l_cap_id,r_cap_id,cap_id, n_c这些呢?”

    一点小经验:这种充斥着大量连字符、意义不明的cookie,都可以忽略,这些通常是在某些中间步骤被设置进去的。

    我们分析了这么多,终于可以开始写了。

    我们上次用到的requests库,提供了一个requests.Session()对象,可以用来很方面的模拟一次会话,它会设置根据服务器的返回自动cookie。

    def init(url):
        ua = {'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.115 Safari/537.36'}
        s = requests.Session()
        s.headers.update(ua)
        ret=s.get(url)
        return s
    

    “老师,这个get的这个url是干啥用的,为啥返回值直接不要了”

    会想一下我们刚刚分析的整个流程,首先打开了某个网页,然后JS调用了"https://www.zhihu.com/api/v4/questions/22212644/answers"这样一个接口。所以,我们要模拟打开网页的那一步,让服务器给我们设置cookie。

    “然后接下来模拟js调用?”

    然也

    def fetch_answer(s,qid,limit,offset):
        params={
            'sort_by':'default',
            'include':'data[*].is_normal,is_collapsed,annotation_action,annotation_detail,collapse_reason,is_sticky,collapsed_by,suggest_edit,comment_count,can_comment,content,editable_content,voteup_count,reshipment_settings,comment_permission,mark_infos,created_time,updated_time,review_info,relationship.is_authorized,is_author,voting,is_thanked,is_nothelp,upvoted_followees;data[*].author.follower_count,badge[?(type=best_answerer)].topics',
            'limit':limit,
            'offset':offset
        }
        url ="https://www.zhihu.com/api/v4/questions/"+qid+"/answers"
        return s.get(url,params=params)
    

    qid,就是url后面的那一串数字,question_id,limit表示一次拉去多少个回答、offset表示从第几个开始。

    接下来你就可以运行一下了。

    url = "https://www.zhihu.com/question/29814297"
    session = init(url)
    q_id = url.split('/')[-1]
    offset = 0
    limit=20
    ret=fetch_answer(session,q_id,limit,offset)
    

    如果不出意外的话,你可能会看到这样一个结果:

    “呃,老师这个\u8bf7这一串是什么”

    最简单的方式,把这一串copy出来,贴到交互式窗口里:

    请求头错误,我们可以通过ret.request.headers查看我们个发出的请求,究竟包含了那些header

    对比之后,发现,少了authorization: oauth c3cef7c66a1843f8b3a9e6a1e3160e20

    我们在init函数里把它加上

    def init(url):
        ua = {'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.115 Safari/537.36'}
        s = requests.Session()
        s.headers.update(ua)
        ret=s.get(url)
        s.headers.update({"authorization":"oauth c3cef7c66a1843f8b3a9e6a1e3160e20"})
        return s
    

    在执行一次,我们终于成功了

    获取所有答案

    “等一下,老师,刚刚那个fetch_answer,limit我们可以直接设置到99999啊,然后不久可以一口气拿回来所有的么,或者我们找下总共有多少个回答,然后设置成那个数字不就好了嘛。”

    你一天吃三顿饭,但是你会一口气吃光三顿饭么!这么做当然可以,但是这样的行为十分反常,而且很可能触发某些反爬虫机制,因为这个特征太明显了。牢记一点,你是一个浏览器。

    (实际上知乎会把大于20的limit当做20去处理)

    这里我们因为不关心总数,所以就利用fetch_answer返回的paging里的is_end字段,来判断是否获取完毕。

    def fetch_all_answers(url):
        session = init(url)
        q_id = url.split('/')[-1]
        offset = 0
        limit=20
        answers=[]
        is_end=False
        while not is_end:
            ret=fetch_answer(session,q_id,limit,offset)
            #total = ret.json()['paging']['totals']
            answers+=ret.json()['data']
            is_end= ret.json()['paging']['is_end']
            print("Offset: ",offset)
            print("is_end: ",is_end)
            offset+=limit
        return answers
    

    最后,我们拿到了一个answer的数组,从每个answer里的'content'字段里找出url,下载就好了。

    url = "https://www.zhihu.com/question/29814297"
    answers=fetch_all_answers(url)
    folder = '29814297'
    for ans in answers:
        imgs = grep_image_urls(ans['content'])
        for url in imgs:
            download(folder,url)
    

    完整的代码在这里

    “老师图呢?”

    最后爬取了“日常穿JK制服是怎样一种体验?”这样一个问题,拿到了970张图


    “老师,我们下节课干啥”

    关注我,下节课你就知道了。

    我的知乎,或者我的简书

    相关文章

      网友评论

        本文标题:#老司机教你看妹子——你的第一个知乎爬虫(2)

        本文链接:https://www.haomeiwen.com/subject/lyuclxtx.html