美文网首页python
Python爬虫实战——爬取糗事百科网的段子信息(基于re模块)

Python爬虫实战——爬取糗事百科网的段子信息(基于re模块)

作者: libdream | 来源:发表于2018-12-26 10:25 被阅读15次

目标

爬取糗事百科网“文字”专题中的信息,需要爬取的信息有:用户ID、用户等级、用户性别、发表的段子文字信息、好笑数量和评论数量。

网址

https://www.qiushibaike.com/text

思路:

(1)手动浏览“文字”专题的信息,容易发现url也是简单的按数字递增的方式构造的,即

https://www.qiushibaike.com/text/page/1/

https://www.qiushibaike.com/text/page/2/

...

(2)构建爬取信息的函数getInfo(),传入的参数为每一页的url地址

(3)将爬取的信息写入txt文件

具体代码如下:

import requests
import time, re

headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 \
(KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}

info_lists = []    #初始化列表,用于装入爬虫信息

def judgementSex(sex):
    #判断性别
    if sex == 'manIcon':
        return '男'
    else:
        return '女'

def getInfo(url):
    #爬取信息
    r = requests.get(url,headers=headers)
    user_ids = re.findall('<h2>(.*?)</h2>', r.text, re.S)        #用户ID
    levels = re.findall('<div class="articleGender \D+Icon">(.*?)</div>', r.text, re.S)     #用户等级
    sexs = re.findall('<div class="articleGender (.*?)">', r.text, re.S)    #用户性别
    contents = re.findall('<div class="content">.*?<span>(.*?)</span>', r.text, re.S) #笑话内容,
#这里需要注意的是,虽然段子信息在<span>标签中,但如果只提取<span>标签会提取到符合规律但不是段子信息的内容,所以需要把匹配的正则写的更详细,加上<div>标签。由于<div>标签与<span>便签之间留有几行空格,所以要通过.*?来匹配出。
    laughs = re.findall('<span class="stats-vote"><i class="number">(\d+)</i>', r.text, re.S)  #好笑数
    comments = re.findall('<i class="number">(\d+)</i> 评论', r.text, re.S)  #评论数

    for user_id, level, sex, content, laugh, comment in zip(\
        user_ids, levels, sexs, contents, laughs, comments):
        info = {
            'user_id':user_id,
            'level':level,
            'sex':judgementSex(sex),
            'content':content,
            'laugh':laugh,
            'comment':comment,
            }             

        info_lists.append(info) #将信息写入字典,添加到列表中
    pass

if __name__ == '__main__':
    urls = ["https://www.qiushibaike.com/text/page/{}/"\
            .format(str(i)) for i in range(1,14)]
    for url in urls:
        print("正在爬取"+url)
        getInfo(url)
        time.sleep(2)
        for info_list in info_lists:    #遍历列表,写入文件
            try:
                f = open("qiushibaike.txt", 'a+')
                f.write(info_list['user_id'] + '\n')
                f.write(info_list['level'] + '\n')
                f.write(info_list['sex'] + '\n')
                f.write(info_list['content'] + '\n')
                f.write(info_list['laugh'] + '\n')
                f.write(info_list['comment'] + '\n')
                f.close()
            except UnicodeEncodeError:                #此处由于编码问题,在写入content时会出现UnicodeEncodeError,这里暂时先忽略。
                pass
  

相关文章

网友评论

    本文标题:Python爬虫实战——爬取糗事百科网的段子信息(基于re模块)

    本文链接:https://www.haomeiwen.com/subject/ycnclqtx.html