利用结巴分词做新闻地图(1)

作者: 沐子鱼和火 | 来源:发表于2017-05-12 23:38 被阅读320次
04-18的新闻地图.png

应用语言学的期末Pre花了差不多一个月零零碎碎的时间完成了。最初的打算爬取网易、新浪、腾讯的国内新闻,再通过提取关键词,比较这三个网站社会新闻报道的内容的倾向性。不过手头只有寒假做好的新浪网站的爬虫新浪爬虫的一些日记可以看这里遂改为爬取新浪,使用结巴分词进行切分,再统计地名词频,进而数据可视化得出到底哪些地方大新闻比较多。
本来作为一个语言学学生,非常希望从专业的角度分析一下结巴分词的错误案例,于是我爬取了300个新闻标题,并且进行了分类,但是发现……看不懂源码的话,最多说这个是什么成分什么成分的错,但是显然有语感的人都看得出这些分词是错的(摊手)。
但是不管怎么说,也算是一次较为完整的代码实践,打算依次记录下来。

爬虫爬取新浪新闻

由于寒假的爬虫笔记中已经有记录,不再赘述。再次感谢指路的MG,诸位想要自学的可以去这里→天善智能

#encoding = utf-8
import  requests
import  json
def getnews(pages):
    global newsbag
    newsbag = []
    for page in range(1, pages + 1):
        raw_url = 'http://api.roll.news.sina.com.cn/zt_list?channel=news&cat_1=gnxw&cat_' \
                  '2==gdxw1||=gatxw||=zs-pl||=mtjj&level==1||=2&show_ext=1&show_all=10&show_num=100' \
                  '&tag=1&format=json&page={}&callback=newsloadercallback&_=1487824946231'
        url = raw_url.format(page)
        res = requests.get(url)
        jd = json.loads(res.text.lstrip(' newsloadercallback(').rstrip(');'))
        diclist = jd['result']['data']
        for ent in diclist:
            newsbag.append(ent['title'])
        continue
    return newsbag
    
pages = int(input("你想查询(返回输入值的100倍):"))
#因为使用的是控制下拉页加载的链接,所以每次都是抓取固定值,我设置的是100,可以通过调节 show_num 自己调整。使用一个数值较大的效率会高点。
getnews(pages)

后来想能够查指定日期的新闻标题,于是把时间戳也爬取了下来,并且做成了时间-标题的元组放到了列表里方便以后使用。修改的逻辑是首先抓取一定量的标题,然后再在这个标题里抓指定日期的新闻。这样就会有两个不便:

  • 抓的数量要尽可能大才能满足调用需求
  • 每次抓取都是定量的,可能最后抓的一部分并没有把最后一天的新闻抓全

我当时是先去查询爬取到的最后一条新闻的时间,然后再扩大爬取的总量,确保能把我要的日期的新闻都框在里面。

改进后的可以按日期查询新闻的代码如下

#encoding = utf-8
import  requests
import  json

def getnews(pages):
    global newsbag
    newsbag = []
    titlelist = []
    timelist=[]
    for page in range(1,pages+1):
        raw_url = 'http://api.roll.news.sina.com.cn/zt_list?channel=news&cat_1=gnxw&cat_2==gdxw1||=gatxw||=zs-pl||=mtjj&level==1||=2&show_ext=1&show_all=1&show_num=100&tag=1&format=json&page={}&callback=newsloadercallback&_=1487824946231'
        url=raw_url.format(page)
        res = requests.get(url)
        jd = json.loads(res.text.lstrip(' newsloadercallback(').rstrip(');'))
        diclist = jd['result']['data']
        for ent in diclist:
            timestamp =float(ent['createtime'])
            newstime = datetime.fromtimestamp(timestamp).strftime('%Y-%m-%d')
            timelist.append(newstime)
            titlelist.append(ent['title'])
        newsbag = zip(timelist,titlelist)
    return newsbag

print('新浪国内新闻查询器v2.0,在定量数据范围内查询特定日期的新闻。')
pages=int(input('请输入一共想要查询的页数,仅支持输入正整数,1页显示100条:'))
date = str(input('请输入想查询的日期,格式以2017-04-25为例:'))
getnews(pages)
for i in newsbag:
    if i[0] == date:
        print(i)

使用结巴分词进行标题的切分

在结巴分词的安装上遇到了一些坑,一开始解压安装包,使用cmd安装一直安装失败,显示的信息是什么也忘记了。后来使用最简单的pip的方法安装好了。

结巴分词是一个优秀的开源项目,虽然后来我得知玻森分词也提供给开发者少量(但处理我的作业绰绰有余)的调用次数时已经完成了数据采集部分的工作了,不然我一定会使用玻森分词的。所以如果调用数量不大,从准确度的角度考虑,还是选用玻森分词比较好。

结巴分词的使用文档写的也很简单,但是简单的另一面是对Python新手不大友好,一开始以为结巴只能输出迭代对象,后来才发现原来也可以输出列表。

使用结巴分词切分新闻标题

# encoding = utf-8
import jieba
def cutseg():
    seg_list = []
    for i in newsbag:
        seg_list = jieba.lcut(i,cut_all=True)+seg_list
    return "/".join(seg_list)
print(cutseg())

结巴分词切分出来的错误类型我将在另一篇文章中讲


使用结巴分词后对指定日期的新闻进行切分

结合一下改进过的查询代码后,我们直接使用结巴分词切分日期的标题,这样提高了切分的效率。这样,我们就能得到我们所需要的原始语料了。

#encoding = utf-8
import  requests
import  json
import  jieba
from datetime import datetime
print ('haha')


def getnews(pages):
    global newsbag
    newsbag = []
    titlelist = []
    timelist=[]
    for page in range(1,pages+1):
        raw_url = 'http://api.roll.news.sina.com.cn/zt_list?channel=news&cat_1=gnxw&cat_2==gdxw1||=gatxw||=zs-pl||=mtjj&level==1||=2&show_ext=1&show_all=1&show_num=100&tag=1&format=json&page={}&callback=newsloadercallback&_=1487824946231'
        url=raw_url.format(page)
        res = requests.get(url)
        jd = json.loads(res.text.lstrip(' newsloadercallback(').rstrip(');'))
        diclist = jd['result']['data']
        for ent in diclist:
            timestamp =float(ent['createtime'])
            newstime = datetime.fromtimestamp(timestamp).strftime('%Y-%m-%d')
            timelist.append(newstime)
            titlelist.append(ent['title'])
        newsbag = zip(timelist,titlelist)
    return newsbag

def cutseg():
    title_list = []
    for i in timetitle:
        title_list = title_list+jieba.lcut(i)
    return title_list

print('新浪国内新闻查询器v2.0,在定量数据范围内查询特定日期的新闻。')
pages=int(input('请输入一共想要查询的页数,仅支持输入正整数,1页显示100条:'))
date = str(input('请输入想查询的日期,格式以2017-04-25为例:'))
getnews(pages)
global timetitle
timetitle = []
for i in newsbag:
    if i[0] == date:
        timetitle.append(i[1])
        
print(cutseg())

下一篇,我们将使用搜狗细胞词库将新闻标题中的地名挑选出来并且使用pandas进行数据整理!

新手牛刀小试,欢迎交流!

相关文章

  • 利用结巴分词做新闻地图(1)

    引 应用语言学的期末Pre花了差不多一个月零零碎碎的时间完成了。最初的打算爬取网易、新浪、腾讯的国内新闻,再通过提...

  • 常用Python中文分词工具

    1. jieba 分词 “结巴” 分词,GitHub 最受欢迎的分词工具,立志做最好的 Python 中文分词组件...

  • “结巴”中文分词:做最好的 Python中文分词组件

    “结巴”中文分词:做最好的 Python中文分词组件 1 jieba中文分词简介: 中文分词是中文NLP的第一步,...

  • 结巴中文分词的用法

    jieba “结巴”中文分词:做最好的 Python 中文分词组件"Jieba" (Chinese for "to...

  • python 结巴分词

    jieba “结巴”中文分词:做最好的 Python 中文分词组件“Jieba” (Chinese for “to...

  • 自然语言处理(NLP)相关

    ヾ(◍°∇°◍)ノ゙-参考 结巴分词使用 中文分词之结巴分词~~~附使用场景+demo(net) jieba分词、...

  • jieba分词入门

    结巴分词代码临摹中,做一下知识点归集 Part 1. 分词相关概念 分词是自然语言理解的重要步骤。 分词就是将句子...

  • Python 结巴分词

    jieba “结巴”中文分词:做最好的 Python 中文分词组件 “Jieba” (Chinese for “t...

  • jieba

    Project description jieba “结巴”中文分词:做最好的 Python 中文分词组件 “Ji...

  • python jieba分词库使用

    jieba “结巴”中文分词:做最好的 Python 中文分词组件 “Jieba” (Chinese for “t...

网友评论

本文标题:利用结巴分词做新闻地图(1)

本文链接:https://www.haomeiwen.com/subject/vygtxxtx.html