美文网首页
One Project: pratice for

One Project: pratice for

作者: 谁吃了我的薯条 | 来源:发表于2017-06-19 11:25 被阅读0次

    最近正在学习 Machine leaning,加之余闲之际,又喜看小说,故偶生一技,采用机器学习分析金庸小说与网络小说(仙侠类)的差异;
    废话少道,先看看此次项目的实现流程:


    项目简单流程图

    1、Get Data

    首先,要对比金庸及网络小说的差异之处,那第一步肯定是获取数据了,在这里我们选取最近比较火的5部网络小说,分别为:《天影》、《无疆》、《盗天仙途》、《双天行》、《两仪道》,金庸大大的书,就选择为:《天龙八部》、《倚天屠龙记》、《鹿鼎记》、《笑傲江湖》、《神雕侠侣》;
    书籍选好了,接下来便是获取书籍的内容了,本文采取 Python Request库及 BeautifulSoup4 库对书籍文本进行爬取网络文学,采取 Python Request库及 RE库进行对金庸大大的书籍进爬取;

    1、1 Python 爬取书籍数据:

    a、Request & BeautifulSoup 爬取网络文学:

    首先,百度一下《天影》,发现顶点小说内可以免费阅读(天影),就已此书为例爬取此书到本地;

    网页结构图 named:图 ①

    研究发现,所有的文本链接均在一个类别(class)为 chapterlist的标签内(dl),而且每个章节的链接为都在 'dd>a' 下,故利用此规律可以对此进行遍历及索引;
    其次,打开章节内容,发现,文本存储在 类别(class)为 ‘inner’ 的标签内(div),而且,其中 <h1>..</h1>标签内的内容为章节标题,<div id='content'>..</div>,Id 为‘content’的 标签内为章节内容(txt);.故可以按照此规律对其进行遍历,详细程序如下:

    import os
    import requests
    from bs4 import BeautifulSoup  #引入基本python使用库
    
    def url_requests(url): #定义一个url处理函数 :url——soup对象
    headers={'User-Agent':'Mozilla/5.0'}
    re=requests.get(url,headers=headers,timeout=20)
    re.encoding=re.apparent_encoding
    if re.status_code==200:
    soup=BeautifulSoup(re.text,'html.parser')
    return soup
    else:
    print('linking error')
    
    def file_write(text):#文件写入函数
    with open('天影.text','a',encoding='utf-8') as file:#指定编码类型为‘UTF-8’型
    file.write(name+text)
    file.close()
    
    if os.path.exists(r'./art')==0:#判断文件夹是否存在,若NOT,创建一个到本地;
    os.mkdir(r'./art')
    os.chdir(r'./art')
    
    url='http://www.23us.com/html/65/65090/'
    links=url_requests(url).select('td > a')#查询所有带有目的url的 a(Tag)标签
    for i in range(len(links)): 
    urls=url+links[i]['href']
    text=url_requests(urls).select_one('#contents').get_text()
    name=links[i].get_text()
    file_write(text)#引入写入函数中
    

    同理,只需要修改一下url 及保存文档名字,就可以spider 所有的目的小说;

    b、Requests&Re(正则表达式)爬取武侠小说:

    源码如下:

    import re
    import requests
    from bs4 import BeautifulSoup
    import os
    
    def change_url(url):
        response=requests.get(url)
        response.encoding=response.apparent_encoding
        if response.status_code==200:
            soup=BeautifulSoup(response.text,'html.parser')
            return soup
        else:
            print('link error 1')
            
    def file_write(text):   
        with open('倚天屠龙记.text','a',encoding='utf-8') as file:
            file.write(text)
        file.close()
        
    if os.path.exists(r'./art')==0:
        os.mkdir(r'./art')    
    os.chdir(r'./art')    
    url='http://jinyong.zuopinj.com/7/'
    rs=requests.get(url)
    rs.encoding=rs.apparent_encoding
    if rs.status_code==200:
        links=re.findall(r'href\=\".{29}\d{2,3}.html\"',rs.text) #re:含义为 href="..",比bs4更为简洁
        for i in range(len(links)):
            urls=eval(links[i].split('=')[1])#对字符串进行分割处理
            content=change_url(urls).select_one('#htmlContent').get_text()
            
            file_write(content)
    else:
        print('link error 0') #PS:其实从此份代码可以看出,有时候用正则库可能还不如用bs4库方便
    

    下一小节,更新第二点数据处理

    相关文章

      网友评论

          本文标题: One Project: pratice for

          本文链接:https://www.haomeiwen.com/subject/dvzwqxtx.html