爬虫篇(2)——爬取博客内容

作者: 飘涯 | 来源:发表于2018-02-06 20:49 被阅读59次
  • 对博客网站博客园首页的200页网站进行内容爬取
  • 用lxml和xpath进行爬取数据

页面分析

  • 主页面


    image.png

    主页面数据页面


    image.png
  • 副页面


    image.png

代码分析

1.获取200个主页面的网站
2.每个主页面的20个副页面的网站
3.每个副页面的内容
4.保存起来

  • 对比实战1多了一个主页面的下拉框
    类似的网站也有淘宝等等

代码实现

  • 获取200个主页面的网站
from lxml import etree
import requests
url = "https://www.cnblogs.com/"
url01=url[:-1]
url_List = []
while True:
    r = requests.get(url).text

    re = etree.HTML(r)
    content=re.xpath("//div[@class='pager']/a[last()]/text()")[0]
    s_url=re.xpath("//div[@class='pager']/a[last()]/@href")[0]
    if content == "Next >":
        url = url01 + s_url
        url_List.append(url)
    else:
        break
  • 每个主页面的20个副页面的网站
r = requests.get(url,head).content.decode("utf-8")
#解析
html = etree.HTML(r)
#获取数据(每一篇帖子的url)
list_url = html.xpath('//h3/a/@href')# list_url = html.xpath('//div[@class="post_item_body"]/h3/a/@href')

  • 每个副页面的内容
    for x in list_url:
        r01 = requests.get(x, head).content.decode("utf-8")
        html01 = etree.HTML(r01)
        title = html01.xpath('//a[@id="cb_post_title_url"]/text()')
        content = html01.xpath("string(//div[@id='cnblogs_post_body'])")
  • 保存
    with open("cn-blog.csv", "a+", encoding="utf-8") as file:
            file.write(title[0] + "\n")
            file.write(content + "\n")
            file.write("*" * 50 + "\n")
  • 完整代码如下:
from lxml import etree
import requests
url = "https://www.cnblogs.com/"
head ={
    'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.119 Safari/537.36'
}
url01=url[:-1]
for x in range(199):
    r = requests.get(url).text
    re = etree.HTML(r)
    s_url=re.xpath("//div[@class='pager']/a[last()]/@href")[0]
    url=url01+s_url
    list_url = re.xpath('//h3/a/@href')
    for x in list_url:
        r01 = requests.get(x, head).content.decode("utf-8")
        html01 = etree.HTML(r01)
        title = html01.xpath('//a[@id="cb_post_title_url"]/text()')
        content = html01.xpath("string(//div[@id='cnblogs_post_body'])")
        # 保存内容
        with open("cn-blog.csv", "a+", encoding="utf-8") as file:
            file.write(title[0] + "\n")
            file.write(content + "\n")
            file.write("*" * 50 + "\n")

爬虫篇(4)——qq音乐爬取
爬虫篇(3)——招聘信息爬取
爬虫篇(1)——从爬取练习题开始

相关文章

网友评论

    本文标题:爬虫篇(2)——爬取博客内容

    本文链接:https://www.haomeiwen.com/subject/ghlnzxtx.html