美文网首页
Scrapy 使用代理

Scrapy 使用代理

作者: 小伙在杭州 | 来源:发表于2019-12-08 11:14 被阅读0次

一、使用开放代理(没有用户名和密码)

 # 开放代理
 class IPProxyDownloadMiddleware():
     PROXIES = ['175.42.68.217:9999',
            '223.242.247.177:9999',
            ]

     def process_request(self, request, spider):
         proxy = random.choice(self.PROXIES)
         request.meta['proxy'] = proxy

二、使用独享代理(有用户名和密码)

# 独享代理,需要用户名和密码
class IPProxyDownloadMiddleware(object):
    def process_request(self, request, spider):
        # 需要访问的网站是http就写http 如果是https就写https,前提是代理本身具有相匹配的协议
        proxy  = 'http://112.74.198.237:16816' 
        user_password = "用户名:密码"
        request.meta['proxy'] = proxy
        # 转成bytes
        b64_user_password = base64.b64encode(user_password.encode('utf-8'))
        # Basic后面要有空格
        request.headers['Proxy-Authorization'] = 'Basic ' + b64_user_password.decode('utf-8')

三、setting设置

开启下载中间件

相关文章

  • 32.scrapy中间件的使用

    scrapy中间件的使用 学习目标: 应用 scrapy中使用间件使用随机UA的方法 应用 scrapy中使用代理...

  • Scrapy 使用代理

    一、使用开放代理(没有用户名和密码) 二、使用独享代理(有用户名和密码) 三、setting设置 开启下载中间件

  • scrapy使用代理

    最近一直访问网站访问不了,以为是网站在维护一直没有管它,直到客户截图发过来,我才发现自己手机也是可以访问的,就是使...

  • [scrapy]scrapy爬取京东商品信息——以自营手机为例

    关于scrapy以及使用的代理轮换中间件请参考我的爬取豆瓣文章: 【scrapy】scrapy按分类爬取豆瓣电影基...

  • scrapy代理的设置

    scrapy代理的设置 在我的上一篇文章介绍了scrapy下载器中间件的使用,这里的scrapyIP的代理就是用这...

  • scrapy代理的使用

    首先我们检测ip是否可用: 1.对于免费代理的检测 注:这里的proxy改成你要检测的ip即可返回结果中:"ori...

  • aiohttp与requests效率对比

    之前使用scrapy爬取了一些代理网站的代理,因为像知乎等网站针对ip进行了反爬,如果限制了ip地址,需要使用代理...

  • python scrapy 代理中间件,爬虫必掌握的内容之一

    本篇博客为大家说明一下 scrapy 中代理相关知识点。 代理的使用场景 编写爬虫代码的程序员,永远绕不开就是使用...

  • 6.python爬虫 scrapy 伪装代理和fake_user

    scrapy 伪装代理和fake_userAgent的使用 伪装浏览器代理 在爬取网页是有些服务器对请求过滤的不是...

  • 第七章 反爬虫机制

    反爬虫机制 标签(空格分隔): python scrapy scrapy 架构 useragent 用户代理切换 ...

网友评论

      本文标题:Scrapy 使用代理

      本文链接:https://www.haomeiwen.com/subject/shcmgctx.html