美文网首页PythonPython玩耍Python
python爬虫入门(1):爬万本书籍

python爬虫入门(1):爬万本书籍

作者: 查尔德77 | 来源:发表于2016-07-27 21:08 被阅读4333次

    最近闲的无聊,想爬点书看看。 于是我选择了这个网站雨枫轩

    STEP1.分析网站


    一开始我想通过一篇文章引用的链接,将书爬完,后来发现并不需要这样做。比如我们可以打开人生哲学这个栏目。


    如图1所示,会把页面数全列出来。
    并且这个url
    http://txt.rain8.com/txtzx/list_93_1.html
    

    也非常的有规律。
    可以看出是由

    'http://txt.rain8.com/txt'+'栏目名称'+'list_栏目编号_页数.html'
    

    组成的。
    知道了这点后,我们就能轻松的把网站爬完了。

    STEP2.初始化

    首先我们来理清思路。

    这是我们需要的库

    import requests
    import re
    import os
    

    其实这个项目用urllib2也能完成。
    我们首先来初始化,在self.urls里,我们定义一些需要fetch的栏目。(比如言情,恐怖仙侠之类的书就可以跳过)。然后写一些正则表达式,供其他的method使用。

    class fetchBook:
        def __init__(self):
            self.header = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:47.0) Gecko/20100101 Firefox/47.0'}
            self.urls = [
                         'http://txt.rain8.com/txtgw/',
                         'http://txt.rain8.com/txtzj/',
                         'http://txt.rain8.com/txtzx/',
                         'http://txt.rain8.com/txtsh/'
                         ]
            self.rePageIndex = re.compile('list_\d+_\d+.html')#得到栏目编号
            self.rePageCount = re.compile('<strong>\d+</strong>')#得到页面数目
            self.reDownloadGet1 = re.compile('href=.http://txt.rain8.com/plus/xiazai_yfx.php?[^>]+')#得到下载链接
            self.reGetTitle = re.compile('<title>.+</title>')#得到标题
            self.reGetAuthor = re.compile("</small><span>[^>]+")#得到作者名称
            self.reBookGetNew = re.compile('')#得到书籍链接
            self.reBookGetOld = re.compile('')
            self.cnt = 0
    

    STEP3.获取所有的页面

    我们可以查看人生哲学源代码。可以找到总共的页数。


    然后我们就能得到每一页的数据。
    代码如下
        def viewAllPage(self,url):
            """
            函数功能为把该栏目下所有页面全过一遍。
            """
            req = requests.get(url,headers = self.header)
            pageIndex = self.rePageIndex.findall(req.text)[0][5:7]
            pageCount = int(self.rePageCount.findall(req.text)[0][8:-9])
            urlToFetch = [url,'list_',pageIndex,'_','1','.html']
            foldname = self.reGetTitle.findall(req.text)[0][7:]
            foldname = foldname.encode('unicode_escape').decode('string_escape')
            foldname = foldname.split('|')[0]
            self.createDir(foldname)
            for page in range(1,pageCount+1):
                urlToFetch[4] = str(page)
                url_to_get = ''.join(urlToFetch)#得到所有页面的url
    

    STEP4.得到下载链接

    然后我们用上面写好的正则表达式,来匹配她的下载链接。

        def fetchDownloadUrl(self,bookurl):
            req = requests.get(bookurl,headers = self.header)
            result = self.reDownloadGet1.findall(req.text)
            result = result[0][6:-17]
            authorname = self.reGetAuthor.findall(req.text)[0][14:-6].encode('unicode_escape').decode('string_escape')
            req = requests.get(result,headers = self.header)
            bookname = self.reGetTitle.findall(req.text)[0][7:-24]
            downloadurl = self.reDownloadGet1.findall(req.text)[0][6:-17]
            return downloadurl,bookname,authorname
    

    STEP5.下载

    下载的时候,由于该网站下载的书都是rar格式的。所以我们只要用二进制的方式写就可以了。
    我们调用

    self.req = requests.get(downloadUrl,headers = self.header)
    

    然后

    f = open(posi+'/'+bookname+'.rar','wb')
    

    就可以写进去了。

    STEP6.编码问题

    之前一直被python的编码问题搞的头大,这次又遇见了。于是找了点资料看了看。
    因为python工作使用的编码是unicode,如果要在编码间进行转化,推荐要先decode成unicode,然后再encode成别的编码。
    然后我在爬内容的过程中碰到了这个问题:

    s = u'\xb9\xc5\xca\xab\xb4\xca\xc3\xfb\xd6\xf8'
    

    \xb9这样的很明显应该是gbk编码。而python却在字符串前加了个u。然后我对这串字符encode还是decode都会报错。或者打印出来乱码。
    经过查阅资料,我找到了一种解决办法

    s.encode('unicode_escape').decode('string_escape')
    

    经过这样处理后

    >>> print repr(s)
    >>> '\xb9\xc5\xca\xab\xb4\xca\xc3\xfb\xd6\xf8'
    

    很明显就恢复了正常。这时我们只要decode('gb2312')就能转换成unicode编码了。

    STEP7.结果展示

    github地址
    喜欢的可以点一下喜欢。

    相关文章

      网友评论

      • bluescorpio:还是用requests直接得到最终有下载文件的URL的方法快些,可以使用next_page = soup.find('ul', attrs={'class': 'pagelist'}).find('a')判断最后一页存在不存在
      • AlbertS:楼主是不是用的python 2.x?
        查尔德77:@AlbertS yes
      • 661f7d1196eb:不错,虽然还没研究过爬虫
      • kakaka0234:不错,虽然还没研究过爬虫
      • 爱学习的我:看不懂哦
      • 温暖的男人:我的是mac,要改点东西才能用
        幻想无极:请问怎么改的呢,能看看吗,最近对爬虫这块有点兴趣
        查尔德77:@温暖的男人 os操作还有编码都得改
      • 38ca446b7642:准备重复造轮子一次
      • 羽恒:希望向您学习,假如您方便可以加我好友哦 1461165480
        8621c9ad126a:@查尔德77 加我一个吧!!我刚申请哈哈
        羽恒:@查尔德77 已添加 多谢多谢
        查尔德77:@羽恒 我也是小打小闹,不过可以共同学习,加这个群568175097

      本文标题:python爬虫入门(1):爬万本书籍

      本文链接:https://www.haomeiwen.com/subject/ujaojttx.html