虽然不常用R语言做爬虫或下载东西,但是用到的时候也很方便。
下面的代码可以实现从一个url网址上下载点文件,顺便把这些文件整理在一个文件夹里。用到的函数是download.file()
dir.create("test")
download <- function(name) {
url <- "https://github.com/hadley/mastering-shiny/raw/master/neiss/"
download.file(paste0(url, name), paste0("test/", name), quiet = TRUE)
}
download("injuries.tsv.gz")
download("population.tsv")
download("products.tsv")
就相当于手写了一个download
函数,从固定的网页上下载需要的文件。免去可每次都复制黏贴网页的麻烦。
网友评论