美文网首页python爬虫日记本Python数据采集与爬虫爬虫进化日记
爬虫笔记(一) - 各种Request请求的对比(Scrapy

爬虫笔记(一) - 各种Request请求的对比(Scrapy

作者: Spareribs | 来源:发表于2017-05-02 20:58 被阅读995次

关于Cookie的分析我在爬虫笔记(六) - 关于 Cookie 的分析(Postman Request Selenium)中说明了,本次的目标网站也是同一个

本文主要包含一个要点,在分析完请求后,使用不同的方法构造同一个HTTP请求,方法包括:

  • Scrapy框架
  • Request库
  • Chrome的Postman插件

Scrapy中一段让我揪心的代码

在分析前,我说一个自己遇到过的SB问题,在最开始我只放代码~~~

Scrapy中的spider

# -*- coding: utf-8 -*-
import scrapy
from scrapy.http import Request


class JobSpider(scrapy.Spider):
    name = "job"

    def start_requests(self):
        base_url = "https://www.lagou.com/jobs/positionAjax.json"

        querystring = {"city": "广州", "needAddtionalResult": "false", "kd": "python", "pn": "1"}

        headers = {
            'user-agent': "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:53.0) Gecko/20100101 Firefox/53.0",
            'cookie': "user_trace_token=20170502200739-07d687303c1e44fa9c7f0259097266d6;"
        }
        yield Request(url=base_url, method="GET", headers=headers)

    def parse(self, response):
        print response

从Postman中获取到的Request请求

#!/usr/bin/env python
# -*- coding: utf-8 -*-
"""
# @Time    : 2017/5/2 20:24
# @Author  : Spareribs
# @File    : test_lagou.py
"""

import requests
import json

url = "https://www.lagou.com/jobs/positionAjax.json"

querystring = {"city":"广州","needAddtionalResult":"false","kd":"python","pn":"1"}

headers = {
    'user-agent': "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:53.0) Gecko/20100101 Firefox/53.0",
    'cookie': "user_trace_token=20170502200739-07d687303c1e44fa9c7f0259097266d6;"
    }

response = requests.request("GET", url, headers=headers, params=querystring)

print(response.text)

如果看完这两段代码你看懂了关键点,本文最想突出的核心要点你也看懂了。
看不懂也不急,先看下基础分析

Scrapy框架中的Request请求分析

首先是Request对象中文文档

class scrapy.http.Request(url[, callback, method='GET', headers, body, cookies, meta, encoding='utf-8', priority=0, dont_filter=False, errback])

参数要点:

  • url(必填):请求的URL,所说的目标网站
  • method='GET'
  • headers
  • body
  • cookies

Scrapy特有:

  • encoding='utf-8'
  • priority=0
  • dont_filter=False
  • meta:
  • callback:
  • errback:

(占位---待继续更新)

Request库中的Request请求分析

中文文档

requests库中requests的方法

def request(method, url, **kwargs):
    with sessions.Session() as session:
        return session.request(method=method, url=url, **kwargs)

def get(url, params=None, **kwargs):
    kwargs.setdefault('allow_redirects', True)
    return request('get', url, params=params, **kwargs)

def post(url, data=None, json=None, **kwargs):
    return request('post', url, data=data, json=json, **kwargs)

(占位---待继续更新)

Chrome的Postman插件中的Request请求分析

对于Postman的请求,我这里分两种Method分析(其他的爬虫中很少用到)

  • Get请求
  • Post请求

首先是get请求

Postman中Get请求

要点:

  1. 请求的方法:Get
  2. 请求的URL
  3. 请求的Params参数
  4. 请求的Headers头部

然后是Post请求


Postman中Post请求

要点:

  1. 请求的方法:Post
  2. 请求的URL
  3. 请求的Params参数
  4. 请求的Headers头部
  5. Request Body(提供了4中编辑方式)
    然而,在Post中的4种编辑方式分别为:
  • form-data
  • x-www-form-urlencoded
  • raw
  • binary

(占位---待继续更新)

总结:其实我想了很久,一直没想明白,为什么同一个请求放Request库中成功了,而在scrapy中失败了,对于这个问题,其实就是不是很难,就是越简单越害人。Request库的请求的Cookies是可以放到headers中可以辨别的,而Scrapy的Cookies有一个独立的cookies参数来处理Cookie,放在headers中不生效

以上都是我的跟人观点,如果有不对,或者有更好的方法,欢迎留言指正~~~(持续更新中)

相关文章

网友评论

  • 0143e3afbcc6:第一、
    要在setting中设置:
    cookieenable = True
    然后在meta启用CookieJar,以更新cookie。
    第二、
    URL中未设置查询字段query,要在scrapy.requests的body参数中设置(maybe)。
  • JaeGwen:我看了你最上面的2段代码,应该是请求方式不对吧,拉勾职位搜索应该是POST请求,在Scrapy里要用FormRequests这个方法,requests库里可以指定method=post,不知道是不是这样?
    Spareribs:@JaeGwen 那应该有很多种方法的,我在postman里面使用GET方法直接用&把参数传进去也可以,不过不知道postman软件那边有没有帮我做处理。例如:https://www.lagou.com/jobs/positionAjax.json?city=广州&needAddtionalResult=false&kd=python&pn=1
    JaeGwen:@Spareribs 那我倒没注意,我用开发者工具抓包的时候,看到的是POST请求的页面,如果是GET的话,能传字典格式的参数吗?我记得FormRequests是有formdata这个参数
    Spareribs:我试了一下,这个接口(https://www.lagou.com/jobs/positionAjax.json),GET、POST、PUT都能拿到数据(Postman和requests库我都是了)。拉钩会验证cookie,Scrapy库的Request对象,有一个单独的cookie参数来传递cookie,我把它放在header里面了,Scrapy一直没法识别,所以就被墙掉了。
    我上面的代码是:yield Request(url=base_url, method="GET", headers=headers)
    应该写成yield Request(url=base_url, method="GET", headers=headers,cookie=cookies),这个坑太大~~~

本文标题:爬虫笔记(一) - 各种Request请求的对比(Scrapy

本文链接:https://www.haomeiwen.com/subject/ohrwzttx.html