美文网首页大数据 爬虫Python AI SqlPython编程
为了防止这个公众号被封,我连夜用Python爬取了它所有图片~

为了防止这个公众号被封,我连夜用Python爬取了它所有图片~

作者: 傻逼平台瞎几把封号 | 来源:发表于2022-09-06 14:45 被阅读0次

    哈喽兄弟们,今天来试试批量获取公众号文章,emmm…

    虽然名义上是文章,单其实它是一篇纯图片文,至于为什么不是文字,小姐姐不比文字香?

    事前准备

    我们需要用到 Fiddler Everywhere 这个软件,Crack是本次要使用到的文件,以及要安装微信PC版客户端。

    本次使用的是Python3.8 以及 pycharm2021,这是目前比较稳定的版本。

    模块方面需要安装一个requests 模块,它是第三方模块,需要手动安装,win+R 打开运行框输入cmd 按回车打开命令提示符窗口,输入pip install requests 按回车即可安装。

    效果展示

    太过份的我就不展示了,影响不好,我们是技术爱好者,不是那啥爱好者~

    主要代码

    headers = {
        'Host': 'mp.weixin.qq.com',
        'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36 NetType/WIFI MicroMessenger/7.0.20.1781(0x6700143B) WindowsWechat(0x63060012)',
        'Cookie': 'wxuin=2408215323; lang=zh_CN; pass_ticket=TsrY5cXMvTN01ghVFxFxT9k4jdPONJBt8mdl0ta20qxjUHNsnkkWLjib4gXCXSQM; devicetype=android-29; version=2800153f; wap_sid2=CJvmqfwIEooBeV9IQVVCUVAzdVBlWEo5NTlySFpON1Ffek5zTE9qRi1jdWZjVFMyOFYyM0FyVE9RSTRNZ3VuUXFTcU94Q3lKY1VyQlJ2RkEtTWFyRWFLeHhJUTRrWmp0N0VDZ05zOFV4d0kzZ1p5cXBIbTVBbEZGRWJteEt4Q0oxSjY4ZHFhODlaZnMyY1NBQUF+MOXS6ZIGOA1AlU4=',
    }
    # ::text
    for page in range(0, 3):
        url = f'https://mp.weixin.qq.com/mp/profile_ext?action=getmsg&__biz=MzU0MzU4OTY2NQ==&f=json&offset={page * 10}&count=10&is_ok=1&scene=&uin=777&key=777&pass_ticket=&wxtoken=&appmsg_token=1161_7%252BO7mVaQbImKSRrYWqKBnNggweX4WNZaqjadeg~~&x5=0&f=json'
        json_data = requests.get(url=url, headers=headers).json()
        general_msg_list = json_data['general_msg_list']
        general_msg_list = json.loads(general_msg_list)['list']
        # print(general_msg_list)
        title_list = []
        content_url_list = []
        for general_msg in general_msg_list:
            title = general_msg['app_msg_ext_info']['title']
            content_url = general_msg['app_msg_ext_info']['content_url']
            multi_app_msg_item_list = general_msg['app_msg_ext_info']['multi_app_msg_item_list']
            title_list.append(title)
            content_url_list.append(content_url)
            for multi_app_msg_item in multi_app_msg_item_list:
                title_list.append(multi_app_msg_item['title'])
                content_url_list.append(multi_app_msg_item['content_url'])
        # print(title_list)
        # print(content_url_list)
        zip_data = zip(title_list, content_url_list)
        for detail_title, detail_url in zip_data:
            if not os.path.exists('img/' + detail_title):
                os.mkdir('img/' + detail_title)
            # 1\. 发送请求
            response = requests.get(url=detail_url, headers=headers)
            # 2\. 获取数据
            html_data = response.text
            # 3\. 解析数据
            # 正则匹配数据 第一个参数 需要匹配的规则
            # 第一个参数 在哪个字符串里面匹配
            img_list = re.findall('data-src="(https://mmbiz\.qpic\.cn/.*?)"', html_data)
            print(detail_title)
    
    

    我也录制了对应的视频讲解:Python采集公众号文章

    最后推荐一套爬虫教程:Python实战100例

    相关文章

      网友评论

        本文标题:为了防止这个公众号被封,我连夜用Python爬取了它所有图片~

        本文链接:https://www.haomeiwen.com/subject/qnqbnrtx.html