美文网首页
去填掉网页爬取的那些坑

去填掉网页爬取的那些坑

作者: javen_spring | 来源:发表于2020-05-09 04:34 被阅读0次

网页爬取,要看要爬取的信息藏在哪里?html中还是json文件中?你看到的不一定是你能得到的。当你下载不下来是考虑一下json解析。

导引:总体来说,从Response对象开始,网页内容就分成了两条路径,一条路径是数据放在HTML里,所以我们用BeautifulSoup库去解析数据和提取数据;另一条,数据作为Json存储起来,所以我们用response.json()方法去解析,然后提取、存储数据。
先复习一下网页爬取的流程吧:

网页爬取流程.png

1. HTML里面找信息:

html.png

2. network的XHR里面找信息(json数据):

XHR.png

3. 出现错误:

json出现decodingError时考虑requests.get()下来的是不是json的数据格式,还是html格式。不能想当然的认为就是json数据格式。

相关文章

  • 去填掉网页爬取的那些坑

    网页爬取,要看要爬取的信息藏在哪里?html中还是json文件中?你看到的不一定是你能得到的。当你下载不下来是考虑...

  • Python实战学习笔记 爬去真实网页信息

    爬取URL结果 爬取代码 爬取心得通过这次爬去学会从网页找不同页面地址之间的规律爬去网页,单次爬取的网页可以作为循...

  • (二)爬取豆瓣网的书名(BeautifulSoup库)|Pyth

    1.爬取网页的步骤2.爬取网页的代码1结果显示3.爬取网页的代码2结果显示4.代码分析最近更新:2018-01-1...

  • 网络爬虫与信息提取(二)

    爬取网页的通用代码框架 Requests库的异常 爬取网页的通用代码框架 协议 HTTP http://host[...

  • 前程无忧职位信息爬取

    分析网页 通过浏览器查看网页源代码,可以找到相应的职位信息,可知目标网页为静态网页,因此可以直接爬取。 爬取思路 ...

  • Java爬虫实战—利用xpath表达式抓取页面信息

    前言 之前有写过如何利用Jsoup去爬取页面信息《Java爬虫实战——利用Jsoup爬取网页资源》,那里主要是借助...

  • 爬虫

    URL管理器:管理待爬取的url集合和已爬取的url集合,传送待爬取的url给网页下载器。网页下载器(urllib...

  • 学习笔记 2018-10-22

    第一单元小结 通用代码框架try - except 网络爬虫引发的问题爬取网页,玩转网页 requests爬取网站...

  • 爬虫作业2

    分析要爬取目标的网页的网页结构与元素标签位置信息 任务回顾 1.爬取网页:看准网 http://www.kanzh...

  • requests爬虫改为增量爬虫的一种方法

    在爬虫编写中,为了避免重复爬取同一个网页,一般会使用增量爬虫,这样就避免了重复爬取相同的一个网页,只爬取新的网页数...

网友评论

      本文标题:去填掉网页爬取的那些坑

      本文链接:https://www.haomeiwen.com/subject/gseqnhtx.html