美文网首页
实现任意百度贴吧的爬虫

实现任意百度贴吧的爬虫

作者: 影像声色 | 来源:发表于2019-08-18 12:20 被阅读0次

目标:爬取任意贴吧下前50页,并保存到本地

观察贴吧网页逻辑类型

LOL吧首页.png
李毅吧首页.png
LOL2.png
LOL3.png

1.前两张图片分别是LOL吧首页,李毅吧的首页,对比发现:
当我们搜索不同的贴吧时,我们看到只有网址kw后边的参数有变化,此处参数表示不同的吧名。
2.后两张图片分别是LOL吧第二页和第三页的信息,对比发现:
代表页码的参数是pn后边的参数,以50的倍数增加。

编辑代码

import requests

class TiebaSpider:
    def __init__(self,tieba_name):
        self.tieba_name = tieba_name
        self.url_temp = "https://tieba.baidu.com/f?kw="+tieba_name+"&ie=utf-8&pn={}"
        self.headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64; rv:68.0) Gecko/20100101 Firefox/68.0"}

    def get_url_list(self):
        url_list = []
        for i in range(1000):
            url_list.append(self.url_temp.format(i*50))
        return url_list

    def parse_url(self,url): #发送请求,获取回应
        response = requests.get(url,headers=self.headers)
        return response.content.decode()

    def save_html(self,html_str,page_num): #保存HTML字符串
        file_path = "{}-第{}页.html".format(self.tieba_name,page_num)
        with open("", "")as f: #"lol-第x页.html"
            f.write(html_str)

    def run(self): #实现逻辑
        #1.构造url列表
        url_list = self.get_url_list()
        #2.遍历,发送请求,获取响应
        for url in url_list:
            html_str = self.parse_url(url)
        #3.保存
       #3.保存
        page_num = url_list.index(url)+i #页码数
        self.save_html(html_str,page_num)

if__name___ == '__name__':
    tieba_spider = TiebaSpider("lol")
    tieba_spider.run()

相关文章

  • 实现任意百度贴吧的爬虫

    目标:爬取任意贴吧下前50页,并保存到本地 观察贴吧网页逻辑类型 1.前两张图片分别是LOL吧首页,李毅吧的首页,...

  • 贴吧帖子内图片抓取

    Python之爬虫练习 利用Python对百度贴吧进行网络爬虫,实现抓取每个帖子内的所有图片并将之保存到本地。 本...

  • 第四阶段 爬虫整理

    爬虫概述 爬虫案例 案例1:爬取百度贴吧数据 分析:GET方式爬取数据抓包:设计:实现: 案例2:抓妹子图 分析:...

  • Python爬虫初学(二)—— 爬百度贴吧小说和图片

    昨天初步接触了爬虫,实现了爬取网络段子并逐条阅读等功能,详见Python爬虫初学(一)。 今天准备对百度贴吧下手了...

  • python批量获取文本中的邮箱,并写入文件,增强版,全匹配版

    百度贴吧爬虫之获取邮箱系列之增强版,应该是任意邮箱了 上个基础版支持的不大好,对有些邮箱不支持,还有些其他问题 功...

  • 百度贴吧高级爬虫

    最近做了一个完整版的百度贴啊全吧爬虫,过程比较具有代表性,分析过来供大家参考。代码在解禁后后贴吧爬虫查看。 项目结...

  • 30分钟!用python的request模块抓取百度贴吧内容

    001 我想通过自动抓取百度贴吧 “python爬虫吧“ 里的帖子数据,找到那些付费写爬虫的帖子,赚点零花钱!为了...

  • Python3之百度贴吧小爬虫

    华为贴吧爬虫 程序爬了6000页就被百度封掉,你们回去可以改下贴吧的,比如爬小米吧或者其他娱乐的吧,将页面数改成小...

  • 百度贴吧爬虫

    利用requests、正则表达式和Beautiful爬取贴吧用户名、评论和图片 定义工具类——去除爬取项多余内容 ...

  • Python_Scrapy-基础实践

    爬虫实践 获取百度贴吧的内容 以滁州学院吧为例 贴吧地址: 链接的末尾处:&ie=utf-8 表示该连接采用的是u...

网友评论

      本文标题:实现任意百度贴吧的爬虫

      本文链接:https://www.haomeiwen.com/subject/ixmsjctx.html