美文网首页python热爱者Python新世界python
Python爬虫实战:秒爬内涵段子

Python爬虫实战:秒爬内涵段子

作者: 轻松学Python111 | 来源:发表于2018-09-05 22:50 被阅读12次

    话不多说就是上代码,效果还是不错的。

    coding=utf-8

    import urllib2
    import re

    class Spider:
    """
    内涵段子爬虫类
    """
    def init(self, page, enable):
    self.page = page
    self.enable = enable

    def loadPage(self, page):
        url = 'http://www.neihan8.com/article/list_5_' + str(page) + '.html'
        #User-Agent头
        user_agent = 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT6.1; Trident/5.0'
    
        headers = {'User-Agent': user_agent}
        req = urllib2.Request(url, headers = headers)
        response = urllib2.urlopen(req)
        html = response.read()
        gbk_html = html.decode('gbk').encode('utf-8')
    
        # 找到所有的段子内容<div class = "f18 mb20"></div>
        # re.S 如果没有re.S 则是只匹配一行有没有符合规则的字符串,如果没有则下一行重新匹配视频教程、电子书等等加一下这个群548377875,每天都有更新,也有大牛指导学习。
        # 如果加上re.S 则是将所有的字符串将一个整体进行匹配
        pattern = re.compile(r'<div.*?class="f18 mb20">(.*?)</div>', re.S)
        item_list = pattern.findall(gbk_html)
    
        print item_list
    
        return item_list
    
    def printOnePage(self, item_list, page):
        """
            @brief 处理得到的段子列表
            @param item_list 得到的段子列表
            @param page 处理第几页
        """
    
        print "******* 第 %d 页 爬取完毕...*******" % page
        for item in item_list:
            print "================"
            item = item.replace("<p>", "").replace("</p>", "").replace("<br />", "")
            print item
            self.writeToFile(item)
    
    def writeToFile(self, text):
        '''
            @brief 将数据追加写进文件中
            @param text 文件内容
        '''
    
        myFile = open("./duanzi.txt", 'a')  # 追加形式打开文件
        myFile.write(text)
        myFile.write("-----------------------------------------------------")
        myFile.close()
    
    def doWork(self):
        '''
            让爬虫开始工作
        '''
    
        while self.enable:
            try:
                item_list = self.loadPage(self.page)
            except urllib2.URLError, e:
                print e.reason
                continue
    
            # 对得到的段子item_list处理
            self.printOnePage(item_list, self.page)
            self.page += 1  # 此页处理完毕,处理下一页
            print "按回车继续..."
            print "输入 quit 退出"
            command = raw_input()
            if (command == "quit"):
                self.enable = False
                break
    

    if name == 'main':
    """
    ======================
    内涵段子小爬虫
    ======================
    """

    print '请按下回车开始'
    raw_input()
    
    #定义一个Spider对象
    mySpider = Spider(1, True)
    mySpider.doWork()
    

    怎么样 代码不是很多吧,赶紧去试试效果吧!

    相关文章

      网友评论

        本文标题:Python爬虫实战:秒爬内涵段子

        本文链接:https://www.haomeiwen.com/subject/ivozwftx.html