爬虫为什么用Chrome?

作者: 肥宅_Sean | 来源:发表于2018-02-08 18:56 被阅读190次
  • 为什么爬虫要用Chrome?
  • 为什么大家似乎都值得header应该怎么写?
  • 为什么大家都知道怎么爬取网页的路线?
  • 为什么....

如果你也跟我一样,有过上面类似的疑问,那么我觉得,这篇文章你可能值得看一下。水平有限,如果有差错还望指出。

  1. 用Chrome很容易看到网页的源码
    轻松右键 -> 检查 就可以看到这个源代码
    爬虫1.gif
  1. 检查中还可以看网页从服务器上不断加载包
    虽然一开始我们点开的时候,网页其实已经加载好了。对于所谓的静态网页在这个地方其实已经加载好了。(百度的首页,一般会被认为是静态网页
    但是还可以通过这个来看。 比如: 刷新一下网页~
    不过,在那之前,我们要点之前检查的最上面的 network,一般默认是选中All模式的,在中间偏上的部分。点好之后,我们就可以刷新
    爬虫2.gif

有趣的事就这样开始了~

  1. 比如:我们可以检查之前的那个包
    就可以看那些包的具体信息。那样,我们就可以得到了所有很多重要的信息了


    爬虫3.gif

比如像上面的我们可以看到这个信息,是通过上面header拿到的。不过这个,有些会把这个给隐藏掉。但基本是没有问题的,一般我们只要知道一个就好了。

  1. 还有其他的骚操作,比如:看看这个包是怎么拿下来的,这样我们就可以特定地拿数据了。
    比如,我们选择之前拿到的那些图片(百度官网图片)


    爬虫4.gif

通过这个gif,我们可以看到这个,用的是https://www.baidu.com/img/bd_logo1.png这个url,请求的方法是get

  1. 还可以得到对方的服务器地址。
    比如在之前的那个gif中,下面就放了remote Address这个就是远端的地址。

  2. 此外,还可以通过那个preview来预览一下这个信息包的内容


    爬虫5.gif
  3. 最后还可以通过最后的tim来看一下这个东西下载所用的时间
    (可以算是测测速?)


    爬虫6.gif

相关文章

网友评论

    本文标题:爬虫为什么用Chrome?

    本文链接:https://www.haomeiwen.com/subject/gttxtftx.html