爬虫进阶(一)

作者: Abyssal_Fish | 来源:发表于2018-12-15 11:16 被阅读0次

这里我们介绍网页链接的提取以及简单的文本分析。

网页链接提取

前文已经提到现在很多网页都是js渲染过的,我们得用rdom才可以快速爬取。
我们要爬的网站是http://jnqx.jinan.gov.cn/col/col14936/index.html,大体是这个样子的:

示例
我们要的是人影简报(用于反馈人工增雨情况)的链接。

导入库

一般总会用到这么几个库

> library(rdom)
> library(XML)
> library(tidyverse)
> library(rvest)

探索

先尝试一个网页

url <- 'http://jnqx.jinan.gov.cn/col/col14936/index.html?uid=25751&pageNum=1'
x <- rdom(url) %>% getNodeSet(path = "//a[@target = '_blank' and @ class = 'bt_linkb']")

详细介绍一下第二行:
大家知道rdom库就只有一个函数,我们把网页读进来之后再把它传给readHTMLTable(header = T)去分析(参考上一篇)。但是我们发现这个策略对于提取网页表格文字、数字内容非常好用,但是它不能返回超链接。这就麻烦了。
那怎么办呢?去guthub寻找源代码。https://github.com/cpsievert/rdom/blob/master/R/rdom.R

#' Return DOM of a website as HTML
#'
#' @param url A url or a local path.
#' @param css a string containing one or more CSS selectors separated by commas.
#' @param all logical. This controls whether \code{querySelector} or
#' \code{querySelectorAll} is used to extract elements from the page.
#' When FALSE, output is similar to \code{rvest::html_node}. When TRUE,
#' output is similar to \code{rvest::html_nodes}.
#' If \code{css} is missing, then this argument is ignored.
#' @param timeout maximum time to wait for page to load and render, in seconds.
#' @param filename A character string specifying a filename to store result
#' @export
#' @importFrom XML htmlParse
#' @importFrom XML xmlChildren
#' @importFrom XML getNodeSet
#'
#' @examples \dontrun{
#' library("rvest")
#' stars <- "http://www.techstars.com/companies/stats/"
#' # doesn't work
#' html(stars) %>% html_node(".table75") %>% html_table()
#' # should work
#' rdom(stars) %>% html_node(".table75") %>% html_table()
#' # more efficient
#' stars %>% rdom(".table75") %>% html_table()
#' }
#'

rdom <- function(url, css, all, timeout, filename) {
  if (missing(url)) stop('Please specify a url.')
  args <- list(
    system.file('rdomjs/rdom.js', package = 'rdom'),
    url,
    # NA is a nice default since jsonlite::toJSON(NA) == null
    css %||% NA,
    all %||% FALSE,
    timeout %||% 5,
    filename %pe% NA
  )
  args <- lapply(args, jsonlite::toJSON, auto_unbox = TRUE)
  phantom_bin <- find_phantom()
  res <- if (missing(filename)) {
    # capture output as a character vector
    system2(phantom_bin, args = as.character(args),
            stdout = TRUE, stderr = TRUE, wait = TRUE)
  } else {
    # ignore stdout/stderr and write to file
    system2(phantom_bin, args = as.character(args),
            stdout = FALSE, stderr = FALSE, wait = TRUE)
  }
  st <- attr(res, 'status')
  if (!is.null(st)) stop(paste(res, '\n'))
  p <- if (missing(filename)) {
    XML::htmlParse(res, asText = TRUE)
  } else {
    XML::htmlParse(filename)
  }
  # If the result is a node or node list, htmlParse() inserts them into
  # the body of a bare-bones HTML page.
  if (!missing(css)) {
    nodes <- XML::xmlChildren(XML::getNodeSet(p, '//body')[[1]])
    if (length(nodes) == 1) nodes[[1]] else nodes
  } else {
    p
  }
}

通过源代码,我们知道它还可以传递给XML库的getNodeSet函数。事实上,rdom返回的是"XMLInternalElementNode" "XMLInternalNode" "XMLAbstractNode",只要能接受这三种数据类型之一的函数就可以用。当然很多是不接受的。
我们研究getNodeSet怎么用,

nodeset <- getNodeSet(doc = , path = ) 

其中doc就是rdom的返回值,path比较麻烦,它是用xpath语法写的。可以参见XPath 语法,很简单。类似于正则表达式。
具体来看这个例子,

示例 我们需要href = 里面的东西,构造
path = "//a[@target = '_blank' and @ class = 'bt_linkb']"

就是说要标签<a>里面的而且参数target = '_blank' 、class = 'bt_linkb的。
你当然可以用正则表达式弄,不过麻烦点罢了。
看一下我们的成果:

> x[[1]]
<a href="/art/2010/9/25/art_14936_554027.html" class="bt_linkb" target="_blank" title="2010人影简
报第五期(总第95期)">2010人影简报第五期(总第95期)</a>

基本快搞定了,最后来一波正则表达式把链接弄出来。然而出现了一个问题,当我们尝试把x[[1]]转化为字符串时,报错了:

> as.character(x[[1]])
Error in as.vector(x, "character") : 
  cannot coerce type 'externalptr' to vector of type 'character'

几个意思呢?说x[[1]]是一个外部指针,无法强制转化为字符串。
经过google上的一番折腾,应该这样处理指针:

capture.output(x[[1]])

这样就捕获了这个指针指向的内容。应该说,R语言中很少见这种事。
正则表达式就比较好办了,有一个套路:

m <- regexpr('/art/[0-9]*/[0-9]*/[0-9]*/art_[0-9]*_[0-9]*.html', c[j])
c[j] <- substr(c[j], m, attr(m, "match.length") - 1 + m)

全部程序如下:

s <- 0
L <- list()
url_2 <- 'http://jnqx.jinan.gov.cn'

for (k in 1:8) {
  
  url <- 'http://jnqx.jinan.gov.cn/col/col14936/index.html?uid=25751&pageNum='
  url <- paste(url, k, sep = '')
  x <- rdom(url) %>% getNodeSet(path = "//a[@target = '_blank' and @ class = 'bt_linkb']")
  c <- character(length(x))
  
  for (j in 1:length(x)) {
    c[j] <- capture.output(x[[j]])
    m <- regexpr('/art/[0-9]*/[0-9]*/[0-9]*/art_[0-9]*_[0-9]*.html', c[j])
    c[j] <- substr(c[j], m, attr(m, "match.length") - 1 + m)
  }

  c <- paste(url_2, c, sep = '')
  
  for (i in 1:length(c)) {
    webpage <- read_html(c[i], encoding="utf-8")
    data_html <- html_nodes(webpage, '#zoom')
    L[[s + i]] <- html_text(data_html)
  }
  
  
  s <- s + length(c)
}

事实上写爬虫也是个苦差事…

文本分析

源码在这里:

t <- character(length(L))
for (i in 1:length(L)) {
  m <- regexpr('[0-9]*月[0-9]*日', L[[i]])
  t[i] <- substr(L[[i]], m, attr(m, "match.length") - 1 + m)
}

t[20] <- '6月22日'
t[88] <- '5月17日'
t[89] <- '5月7日'
t[100] <- '11月3日'
t[108] <- '3月21日'
t[111] <- '11月17日'
t[114] <- '10月26日'
L[[130]] <- NULL
t <- t[-130]

r <- character(length(L))
for (i in 1:length(L)) {
  m <- regexpr(''[0-9]+?\\.[0-9]毫米'', L[[i]])
  r[i] <- substr(L[[i]], m, attr(m, "match.length") - 1 + m)
}

data <- data.frame(Time = t, result = r)

其实主要就是正则表达式,+?表示非贪婪匹配,也就是匹配到一开始那个就成功了。注意R语言字符串转义要用\\而不是\。
到此,下面这些文本就分析好了。剩下的该回归回归,该机器学习就学习。

示例

总结

  1. 正则表达式要掌握好
  2. 有问题github上看源码
  3. StackExhcange要用好
  4. 掌握具体问题具体分析原则
  5. 不要轻易放弃熟悉的工具

相关文章

  • Python爬虫进阶-curl的使用

    本笔记是爬虫进阶的第一篇,关于本系列笔记的介绍,请看Python爬虫进阶-前言。 本篇也是爬虫三大环节:数据获取、...

  • 爬小说谁的青春不迷茫

    @DC学院《Python爬虫:入门+进阶》 今年11月7号,报名了DC学院python爬虫(入门进阶)课程,在此课...

  • 手把手教你进行pip换源,让你的Python库下载嗖嗖的

    以下文章来源于Python爬虫与数据挖掘 ,作者Python进阶者作者:Python进阶者来源:Python爬虫与...

  • Python爬虫进阶-前言

    本系列笔记聊一聊,Python爬虫如何进阶,探讨如何系统的完成爬虫进阶。 在正式开篇之前,如果是新手,建议先了解如...

  • python-爬虫

    初识爬虫 网页基础 BeautifuleSoup 解析数据 提取数据 Tag 对象 CSS选择器 爬虫进阶

  • 爬虫进阶(一)

    这里我们介绍网页链接的提取以及简单的文本分析。 网页链接提取 前文已经提到现在很多网页都是js渲染过的,我们得用r...

  • Python爬虫技巧-西瓜视频MP4地址获取并下载

    参考文章: Python爬虫进阶---西瓜视频地址获取Python爬虫技巧-西瓜视频MP4地址获取【源码】爬虫--...

  • 爬虫——Web Scraper

    1.认识爬虫 2.利用Excel抓取数据 3.爬虫入门 4.爬虫进阶 5.反爬虫及高阶玩法 6.制作新爬虫步骤 7...

  • 开始爬虫之旅

    引言 我经常会看到有人在知乎上提问如何入门 Python 爬虫?、Python 爬虫进阶?、利用爬虫技术能做到哪些...

  • node入门场景之——爬虫

    边做边学效率更高,爬虫是node的适用场景之一,关于爬虫的另一篇文章node爬虫进阶之——登录为了验证“经验总结、...

网友评论

    本文标题:爬虫进阶(一)

    本文链接:https://www.haomeiwen.com/subject/dfiohqtx.html