美文网首页大数据 爬虫Python AI Sql
一个简单小爬虫实现对全本小说的下载

一个简单小爬虫实现对全本小说的下载

作者: 玄同爱紫嫿 | 来源:发表于2019-07-27 12:16 被阅读9次

      这几天看见有许多分享用python爬虫获取小说的文章,弄得我自己也手痒了,于是就写了个小爬虫,基本能实现分析下载小说以.TXT格式下载到本地的功能。只是关于文本格式以及网页防吊死的问题暂时没有处理,本文主要是给想爬小说的小伙伴们一个思路,当然,源代码也在文章最后,随时都可以跑起来。

    一.python环境及编辑器(用到的库和模块)

    运行平台: win7

    Python版本: Python3.x 

    IDE: pycharm 

    模块:Beautiful Soup,urllib

    由于本文主要是实战展示,所以就没有对于库和模块的安装,讲解。具体使用方法可以看官方文档,安装过程有需要可以留下评论。我这里就只附上我看过后感觉写的不错的文档链接,大家可以自行查询:

    Beautiful Soup:‘https://cuiqingcai.com/1319.html’

    urllib:‘https://www.jianshu.com/p/63dad93d7000’

    二.确定目标

    因为某阁是个盗版小说网站,而且我发现这个网站没有反爬虫的机制,所以对新手爬友比较友好,所以我就以这个网站作为实战示范。

    笔趣阁主页url:‘https://www.biquge.cm/’

    不知道大家平时喜欢看谁的小说,我从中学就喜欢看西红柿大大的小说,所以这次就以爬取大大的‘飞剑问道’这本小说作为目标。

    通过地址栏我们可以获得这个目录页面的url:https://www.biquge.cm/10/10963/,下面我们就可以开始分析该网站的HTML结构,想办法取出我们想要获得内容。

    三.过程分析

    解析工具有很多,爬取方式也有很多,我这里就简单说下我自己的思路。

    1.通过目录页面获得小说所有章节的链接地址。

    2.通过第一步获得的链接地址,爬取每一章节的正文内容。

    3.把爬取到的正文保存在TXT文档,并下载到本地。

    我的大致思路就是这个样子,你们也可以选择其他方式获取每一章节的url地址,比如使用selenium,或者用开发者工具找到下一页的标签再提取。不管黑猫白猫,能抓到耗子就是好猫,所以编程是一件有趣的事情,通过不同的方法可以达到同样的目的。好了,闲话不多说,大致思路有了之后,我们就开始代码实现。

    四.代码实现

    第一步,先引用我们需要用到的模块和库,美味汤和urllib。

    第二步,我们定义一个函数模块,用来获得页面原始数据。

    第三步,我们定义一个专门分析页面的函数,用来反复调取。这个解析器就是我们的美味汤(Beautiful Soup),完成这一步后,前期的基础工作就算搞定了,这样我们就能分析每个页面的数据了。

    第四步,我们正式开始分析小说,还记得我们最开始的思路吗,第一步,先获取每一章小说的链接。打开开发者工具(F12或者右键检查),用选择工具随便点几个章节目录,发现他们都在  <div id="list">这个父级标签下.

    我们使用Ctrl+F查找这个标签,发现在目录页,这个标签是唯一的,所以我们获得如下信息。1.所以章节链接都在<div id="list">标签下 2.标签属性id=‘list’是唯一的,通过这个属性,我们就能得到所有章节链接。

    那我们只需要红圈内的地址,如何提取呢?这里可以使用正则表达式,或者seleck方法,但我这里直接选择了find的方法,简单粗暴好理解。经过观察分析我们得知,这里的地址是每个章节url的后半部分,所以我们需要对其进行拼接才能得到真实的url,所以代码如下

    第5步,定义获取每一章小说正文的函数,用同样的方法分析获得每一章小说的正文,我们发现正文在<div id="content">标签下,且属性也是唯一的。

    这里可以对文本格式进行处理,但是我为了快速实现功能就没有搞这些。大家后续可以在我这个基础上优化代码,我这里就不做过多解释了,所以代码如下。

    第6步,定义一个函数下载并保存我们的小说,这里比较简单,直接上代码

    第7步,运行部分代码

    第8步,点击运行就OK了,附一张运行的图

    按照以上操作步骤,代码基本就实现了,注意我这里没有定义保存路径,所以默认保存在当前文件夹,需要注意。最好把源码分享给大家。拿去跑一跑吧。

    import urllib,bs4

    from bs4 import BeautifulSoup

    #引入模块和库

    #获取页面初始数据

    def getHtmlcode(url):

        #请求头,虽然这个网站不需要,但是这算是反反爬虫的一种最基本手段

        user_agent = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"

        headers = {"User-Agent": user_agent}

        response=urllib.request.Request(url,headers=headers)#发起请求

        result=urllib.request.urlopen(response)#打开页面

        html=result.read()#读取页面

        return html  #返回页面信息

    #分析页面

    def paarser(url):

        html=getHtmlcode(url)#调用getHtmlcode函数

        soup=BeautifulSoup(html,'html.parser')#用美味汤分析,得到bs文件

        return soup

    #获取每章节目录链接

    def Charpter_url(url):

        soup=paarser(url)#调用parser分析页面

        datas=soup.find('div',id="list").find_all('a')#获得需要的数据

        url_list=[]#新建列表用来储存url地址

        for data in datas:

            page_url='https://www.biquge.cm'+data['href']#拼接成真实地址

            page_name=data.text#每一章的小说名字

            url_list.append(page_url)

        return url_list

    #获取文章单章正文

    def get_Charpter_text(url):

        soup=paarser(url)#调用parser分析页面

        content=soup.find('div',id="content").text#获得需要的正文

        content1=content.strip().replace("<br />", "")#顺手处理下格式问题

        return content

    #保存文件

    def save_text(url):

        url_list=Charpter_url(url)

        num=1

        with open('飞剑问道.text','a',encoding='utf-8') as f:

            for page_url in url_list:

                contents=get_Charpter_text(page_url)

                f.write(contents)

                print('第{}章下载完成'.format(num))

                num+=1

            f.close()

    if __name__=='__main__':

        url='https://www.biquge.cm/10/10963/'

        save_text(url)

    相关文章

      网友评论

        本文标题:一个简单小爬虫实现对全本小说的下载

        本文链接:https://www.haomeiwen.com/subject/tlbkrctx.html