寒假学爬虫笔记 NO.2

作者: 沐子鱼和火 | 来源:发表于2017-02-14 22:00 被阅读76次

新闻爬虫1.1 抓取新闻内页

材料:Pycharm,Chrome开发人员工具,infoLite插件,bs4,request

在前面我们已经将新闻列表页面的所有链接都下载下来了,但是还不够,我们希望可以获取链接所指的各个单个新闻的标题、来源、时间以及内文
这里我们从特殊到一般,而用到的方法还是笔记NO.1中对select的活用,先以一个链接为例。

取得内文页面

和抓取列表页面的初始步骤一样,我们首先要将原材料整个的放到soup里进行一个剖析,然后再逐个提取出我们想要的元素。取得页面的说明不再赘述。

import requests
from bs4 import BeautifulSoup
res = requests.get('http://news.sina.com.cn/c/nd/2017-01-04/doc-ifxzczff3681310.shtml')
res.encoding = 'utf-8'
soup = BeautifulSoup(res.text,'html.parser')

获取内文标题

通过检查工具得知标题是一个特殊的css属性标签,ID是artibodyTitle,通过soup的select传回一个list,再通过取出list里内容的方法取出来。

title= soup.select('#artibodyTitle')[0].text

取得来源和时间

本来想处理时间,时间的类是time-source,结果select回传的结果里既有时间又有来源。使用.text也无法将之分开。
select的回传列表结果:

[<span class="time-source" id="navtimeSource">2017年01月04日09:47      <span>
<span data-sudaclick="media_name">
\<a href="http://www.cma.gov.cn/2011zwxx/2
011zyjgl/2011zyjxy/2011zqxyj/201701/\t20170104_382215.html
\" rel="nofollow" target="_blank">政府网站</a></span></span>
</span>]

所以这里要采用contents将时间和来源取出来。

关于.contents的帮助文档说明
tag的.contents属性可以将tag的子节点以列表的方式输出。新闻的时间精确到日就可以了,对字符串进行切片处理。

time = soup.select('.time-source')[0].contents[:10]

接下来我们要思考如何取出来源,通过检查工具我们可以看到,来源是在时间的层级之下的,这也很好的解释了为什么用contens处理下来,和来源有关的东西并没有发生变化,因为它是附属其下,并且由一个span里的a tag控制的。

![Uploading time-source_539741.png . . .]

所以试试用这个把它select出来

medianame = soup.select('.time-source span a')[0].text

取得内文

内文位于artibody p里,同样的方法取出。观察由三个成分组成,<p>分隔符、控制符以及我们需要的文字内容。通过strip去除控制符,再遍历输出

article = soup.select('#artibody p')[:-1]

获得编辑名称

同理,略

author = soup.select('.article-editor')[0].text.strip('责任编辑:')

新闻爬虫1.1 抓取新闻内页

材料:Pycharm,Chrome开发人员工具,infoLite插件,bs4,request

在前面我们已经将新闻列表页面的所有链接都下载下来了,但是还不够,我们希望可以获取链接所指的各个单个新闻的标题、来源、时间以及内文
这里我们从特殊到一般,而用到的方法还是笔记NO.1中对select的活用,先以一个链接为例。

取得内文页面

和抓取列表页面的初始步骤一样,我们首先要将原材料整个的放到soup里进行一个剖析,然后再逐个提取出我们想要的元素。取得页面的说明不再赘述。

import requests
from bs4 import BeautifulSoup
res = requests.get('http://news.sina.com.cn/c/nd/2017-01-04/doc-ifxzczff3681310.shtml')
res.encoding = 'utf-8'
soup = BeautifulSoup(res.text,'html.parser')

获取内文标题

通过检查工具得知标题是一个特殊的css属性标签,ID是artibodyTitle,通过soup的select传回一个list,再通过取出list里内容的方法取出来。

title= soup.select('#artibodyTitle')[0].text

取得来源和时间

本来想处理时间,时间的类是time-source,结果select回传的结果里既有时间又有来源。使用.text也无法将之分开。
select的回传列表结果:

[<span class="time-source" id="navtimeSource">2017年01月04日09:47      <span>
<span data-sudaclick="media_name">
\<a href="http://www.cma.gov.cn/2011zwxx/2
011zyjgl/2011zyjxy/2011zqxyj/201701/\t20170104_382215.html
\" rel="nofollow" target="_blank">政府网站</a></span></span>
</span>]

所以这里要采用contents将时间和来源取出来。

关于.contents的帮助文档说明
tag的.contents属性可以将tag的子节点以列表的方式输出。新闻的时间精确到日就可以了,对字符串进行切片处理。

time = soup.select('.time-source')[0].contents[:]

接下来我们要思考如何取出来源,通过检查工具我们可以看到,来源是在时间的层级之下的,这也很好的解释了为什么用contens处理下来,和来源有关的东西并没有发生变化,因为它是附属其下,并且由一个span里的 a tag 控制的。

time-source.png

所以试试用这个把它select出来

medianame = soup.select('.time-source span a')[0].text

取得内文

内文位于artibody p里,同样的方法取出。观察由三个成分组成,<p>分隔符、控制符以及我们需要的文字内容。通过strip去除控制符,再遍历输出

article = soup.select('#artibody p')[:-1]

获得编辑名称

同理,略

author = soup.select('.article-editor')[0].text.strip('责任编辑:')

相关文章

  • 寒假学爬虫笔记 NO.2

    新闻爬虫1.1 抓取新闻内页 材料:Pycharm,Chrome开发人员工具,infoLite插件,bs4,req...

  • 寒假学爬虫笔记 NO.1

    新闻爬虫1.0 在列表页获取列表和时间 材料:Pycharm,Chrome开发人员工具,infoLite插件,bs...

  • 从零开始学爬虫(2):突破限制,分类爬取,获得全部数据

    这是我学习爬虫的笔记,作为备忘,如果可以帮到大家,那就更好了~从零开始学爬虫(1):爬取房天下二手房信息从零开始学...

  • 从零开始学爬虫(3):通过MongoDB数据库获取爬虫数据

    这是我学习爬虫的笔记,作为备忘,如果可以帮到大家,那就更好了~从零开始学爬虫(1):爬取房天下二手房信息从零开始学...

  • 从零开始学爬虫(1):爬取房天下二手房信息

    这是我学习爬虫的笔记,作为备忘,如果可以帮到大家,那就更好了~从零开始学爬虫(1):爬取房天下二手房信息从零开始学...

  • 寒假No.2

    假期过了几天后,我和同学们再次来到一家奶茶店,讨论学习。我们在一起写作业的时候,遇到了很多的困惑,但我们通过激烈的...

  • xpath 资料

    xpath路径表达式笔记 学爬虫利器XPath,看这一篇就够了 有感4月份,看过的python基础和爬虫相关的知识...

  • #笔记法·整合 *step 01

    学霸不可怕,就怕学霸放寒假[em]e400824[/em] #笔记法的总结 ·新时代的笔记法 告别长篇大论,记录...

  • 寒假阅读No.2

    今天去图书馆借了几本书回来。其实家里还有很多没看完的书,可是就想去图书馆借新书,因为那些书自己不会再去买了。家里的...

  • 爬虫脚本学习简单总结

    边学边模拟,来做个笔记总结一下,爬虫一般可分为三个步骤: 1. 访问url 获取数据 有的网页有反爬虫机制,在...

网友评论

    本文标题:寒假学爬虫笔记 NO.2

    本文链接:https://www.haomeiwen.com/subject/djsfwttx.html