爬虫为什么用Chrome?

作者: 肥宅_Sean | 来源:发表于2018-02-08 18:56 被阅读190次
    • 为什么爬虫要用Chrome?
    • 为什么大家似乎都值得header应该怎么写?
    • 为什么大家都知道怎么爬取网页的路线?
    • 为什么....

    如果你也跟我一样,有过上面类似的疑问,那么我觉得,这篇文章你可能值得看一下。水平有限,如果有差错还望指出。

    1. 用Chrome很容易看到网页的源码
      轻松右键 -> 检查 就可以看到这个源代码
      爬虫1.gif
    1. 检查中还可以看网页从服务器上不断加载包
      虽然一开始我们点开的时候,网页其实已经加载好了。对于所谓的静态网页在这个地方其实已经加载好了。(百度的首页,一般会被认为是静态网页
      但是还可以通过这个来看。 比如: 刷新一下网页~
      不过,在那之前,我们要点之前检查的最上面的 network,一般默认是选中All模式的,在中间偏上的部分。点好之后,我们就可以刷新
      爬虫2.gif

    有趣的事就这样开始了~

    1. 比如:我们可以检查之前的那个包
      就可以看那些包的具体信息。那样,我们就可以得到了所有很多重要的信息了


      爬虫3.gif

    比如像上面的我们可以看到这个信息,是通过上面header拿到的。不过这个,有些会把这个给隐藏掉。但基本是没有问题的,一般我们只要知道一个就好了。

    1. 还有其他的骚操作,比如:看看这个包是怎么拿下来的,这样我们就可以特定地拿数据了。
      比如,我们选择之前拿到的那些图片(百度官网图片)


      爬虫4.gif

    通过这个gif,我们可以看到这个,用的是https://www.baidu.com/img/bd_logo1.png这个url,请求的方法是get

    1. 还可以得到对方的服务器地址。
      比如在之前的那个gif中,下面就放了remote Address这个就是远端的地址。

    2. 此外,还可以通过那个preview来预览一下这个信息包的内容


      爬虫5.gif
    3. 最后还可以通过最后的tim来看一下这个东西下载所用的时间
      (可以算是测测速?)


      爬虫6.gif

    相关文章

      网友评论

        本文标题:爬虫为什么用Chrome?

        本文链接:https://www.haomeiwen.com/subject/gttxtftx.html