美文网首页
python爬虫学习笔记(二)

python爬虫学习笔记(二)

作者: dev_winner | 来源:发表于2019-08-02 16:02 被阅读0次
    • 爬虫:请求网站并提取数据的自动化程序。
    • 4个基本流程:发起请求,获取响应内容,解析内容,保存数据。
      1、请求方式:主要有GET、POST两种类型,另外还有HEAD、PUT、DELETE、OPTIONS等。
      2、请求URL:URL全称为统一资源定位符,如一个网页文档、一张图片、一个视频等都可以用URL唯一来确定。
      3、请求头:包含请求时的头部信息,如User-Agent、Host、Cookies等信息。
      4、请求体:请求时额外携带的数据,如表单提交时的表单数据。
    • Response
      1、响应状态:200代表成功、301跳转、404找不到页面、502服务器错误。
      2、响应头:如内容类型、内容长度、服务器信息、设置Cookie等等。
      3、响应体:最主要的部分,包含了请求资源的内容 ,如网页HTML、图片二进制数据等。
    • 抓取的数据:
      1、网页文本:如HTML文档,Json格式文本等。
      2、图片:获取的是二进制文件,保存为图片格式。
      3、同为二进制文件,保存为视频格式即可。
      4、只要是能请求到的,都能获取。
    • 解析方式:
      1、直接处理;
      2、Json解析;
      3、正则表达式;
      4、BeautifulSoup;
      5、PyQuery;
      6、XPath。
    • 解决JavaScript渲染问题:
      1、分析Ajax请求;
      2、Selenium/WebDriver(驱动浏览器来加载一个网页)
      3、Splash;
      4、PyV8、GHost.py。
    • 保存数据:
      1、文本:纯文本,Json、Xml等;
      2、关系型数据库:如mysql、oracle、SQL server等具有结构化表结的形式存储;
      3、非关系型数据库:如MongoDB、Redis等key-value形式存储;
      4、二进制文件:如图片、视频、音频等等直接保存成特定格式即可。

    • Python内置的HTTP请求库:Urllib
      1、urllib.request 请求模块
      2、urllib.error 异常处理模块
      3、urllib.parse url解析模块
      4、urllib.robotparser robots.txt解析模块

    • Requests库
      1、其用python语言编写,基于urllib,采用Apache2 Licensed 开源协议的HTTP库。

    • 正则表达式
      1、非python独有,re模块实现

    • BeautifulSoup库
      1、灵活又方便的网页解析库,处理高效,支持多种解析器,利用它不用编写正则表达式即可方便地实现网页信息的提取。

    相关文章

      网友评论

          本文标题:python爬虫学习笔记(二)

          本文链接:https://www.haomeiwen.com/subject/nneldctx.html