美文网首页程序员
java爬虫之webmagic介绍

java爬虫之webmagic介绍

作者: GG_lyf | 来源:发表于2021-01-11 14:35 被阅读0次

    前言

      在自学了一些关于java爬虫的东西之后,我终于正式的接触了webmagic。这个东西怎么说呢?确实是没有jsoup那么好用,这玩意儿科不是轻量级的,因为要使用这个东西需要学更多的东西.例如:xpath语法,xpath轴,正则表达式(这个东西在好多语言中也都存在,但是在这个工具中使用我确实是没想到的,我没想到它还能用来匹配网址),调度语法等等.


    开搞

    1.开源框架webmagic
      webmagic是一个开源的Java爬虫框架,目标是简化爬虫的开发流程,让开发者专注于逻辑功能的开发。webmagic的核心非常简单,但是覆盖爬虫的整个流程,也是很好的学习爬虫开发的材料。

      webmagic的主要特色:
       完全模块化的设计,强大的可扩展性。
       核心简单但是涵盖爬虫的全部流程,灵活而强大,也是学习爬虫入门的好材料。
       提供丰富的抽取页面API。
       无配置,但是可通过POJO+注解形式实现一个爬虫。
       支持多线程。
       支持分布式。
       支持爬取js动态渲染的页面。
       无框架依赖,可以灵活的嵌入到项目中去。

    2.架构解析
      WebMagic项目代码分为核心和扩展两部分。核心部分(webmagic-core)是一个精简的、模块化的爬虫实现,而扩展部分则包括一些便利的、实用性的功能。扩展部分(webmagic-extension)提供一些便捷的功能,例如注解模式编写爬虫等。同时内置了一些常用的组件,便于爬虫开发。

      WebMagic的设计目标是尽量的模块化,并体现爬虫的功能特点。这部分提供非常简单、灵活的API,在基本不改变开发模式的情况下,编写一个爬虫。

      WebMagic的结构分为DownloaderPageProcessorSchedulerPipeline四大组件,并由Spider将它们彼此组织起来。这四大组件对应爬虫生命周期中的下载、处理、管理和持久化等功能。而Spider则将这几个组件组织起来,让它们可以互相交互,流程化的执行,可以认为Spider是一个大的容器,它也是WebMagic逻辑的核心。

      Downloader负责从互联网上下载页面,以便后续处理。WebMagic默认使用了ApacheHttpClient作为下载工具。

      PageProcessor负责解析页面,抽取有用信息,以及发现新的链接。WebMagic使用Jsoup作为HTML解析工具,并基于其开发了解析XPath的工具Xsoup。
    在这四个组件中,PageProcessor对于每个站点每个页面都不一样,是需要使用者定制的部
    分。

      Scheduler负责管理待抓取的URL,以及一些去重的工作。WebMagic默认提供了JDK的内存队列来管理URL,并用集合来进行去重。也支持使用Redis进行分布式管理。

      Pipeline负责抽取结果的处理,包括计算、持久化到文件、数据库等。WebMagic默认提供了“输出到控制台”和“保存到文件”两种结果处理方案。

    3.方法介绍

    方法 说明 示例
    create(PageProcessor) 创建Spider Spider.create(new GithubRepoProcessor())
    addUrl(String…) 添加初始的 URL spider.addUrl("http://webmagic.io/docs/")
    thread(n) 开启n个线程 spider.thread(5)
    run() 启动,会阻塞 当前线程执行 spider.run()
    start()/runAsync() 异步启动,当前线程继续执行 spider.start()
    stop() 停止爬虫 spider.stop()
    addPipeline(Pipeline) 添加一个 Pipeline,一个Spider可以有多个Pipeline spider .addPipeline(new ConsolePipeline())
    setScheduler(Scheduler) 设置Scheduler,一个Spider只能有个一个Scheduler spider.setScheduler(new RedisScheduler())
    setDownloader(Downloader) 设置Downloader,一个Spider只能有个一个Downloader spider .setDownloader(new SeleniumDownloader())
    get(String) 同步调用,并直接取得结果 ResultItems result = spider.get("http://webmagic.io/docs/")
    getAll(String…) 同步调用,并直接取得一堆结果 List results = spider.getAll("http://webmagic.io/docs/","http://webmagic.io/xxx")

      同时Spider的其他组件(Downloader、Scheduler、Pipeline)都可以通过set方法来进行设置。

      Page代表了从Downloader下载到的一个页面——可能是HTML,也可能是JSON或者其他文本格式的内容。Page是WebMagic抽取过程的核心对象,它提供一些方法可供抽取、结果保存等。

      Site用于定义站点本身的一些配置信息,例如编码、HTTP头、超时时间、重试策略等、代理等,都可以通过设置Site对象来进行配置。

    方法 说明 实例
    setCharset(String) 设置编码 site.setCharset("utf-8")
    setUserAgent(String) 设置 UserAgent site.setUserAgent("Spider")
    setTimeOut(int) 设置超时时间, 单位是毫秒 site.setTimeOut(3000)
    setRetryTimes(int) 设置重试次数 site.setRetryTimes(3)
    setCycleRetryTimes(int) 设置循环重试次数 site.setCycleRetryTimes(3)
    addCookie(String,String) 添加一条cookie site.addCookie("dotcomt_user","code4craft")
    setDomain(String) 设置域名,需设置域名后,addCookie才可生效 site.setDomain("github.com")
    addHeader(String,String) 添加一条addHeader site.addHeader("Referer","https://github.com")
    setHttpProxy(HttpHost) 设置Http代理 site.setHttpProxy(new HttpHost("127.0.0.1",8080))

    4.Pipeline
    4.1 ConsolePipeline 控制台输出


    4.2 FilePipeline 文件保存


    4.3 JsonFilePipelin,以json的格式存储


    4.4 定制Pipeline


    5.Scheduler
    5.1 内存队列 使用setScheduler来设置Scheduler


    5.2 文件队列 使用文件保存抓取URL,可以在关闭程序并下次启动时,从之前抓取到的URL继续抓取,创建文件夹E:\schedule



    运行后文件夹E:\scheduler会产生两个文件blog.csdn.net.urls.txt和blog.csdn.net.cursor.txt

    5.3 Redis队列 使用Redis保存抓取队列,可进行多台机器同时合作抓取,要运行redis服务端


    6.XPath语法
    6.1 选取节点:

    表达式 描述
    nodename 选取此节点的所有子节点。
    / 从根节点选取。
    // 从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。
    . 选取当前节点。
    .. 选取当前节点的父节点。
    @ 选取属性。

    6.2 谓语
    谓语用来查找某个特定的节点或者包含某个指定的值的节点。
    谓语被嵌在方括号中

    表达式 含义
    /bookstore/book[1] 选取属于 bookstore 子元素的第一个 book 元素。
    /bookstore/book[last()] 选取属于 bookstore 子元素的最后一个 book元素。
    /bookstore/book[last()-1] 选取属于 bookstore 子元素的倒数第二个book 元素。
    /bookstore/book[position()<3] 选取最前面的两个属于 bookstore 元素的子元素的 book 元素。
    //title[@lang] 选取所有拥有名为 lang 的属性的 title 元素。
    //title[@lang='eng'] 选取所有 title 元素,且这些元素拥有值为 eng的 lang 属性。
    /bookstore/book[price>35.00] 选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00。
    /bookstore/book[price>35.00]/title 选取 bookstore 元素中的 book 元素的所有title 元素,且其中的 price 元素的值须大于35.00。

    6.3 通配符
    XPath 通配符可用来选取未知的 XML 元素,通配指定节点。

    表达式 描述 用法 说明
    * 匹配任何元素节点 xpath(/div/*) 选取div下的所有子节点
    @* 匹配任何属性节点 xpath(/div[@*]) 选取所有带属性的div节点
    node() 匹配任何类型的节点 xpath(//div[@class=’tb_cls’]).node() 选择标签为div且类属性为tb_cls的所有标签

    6.4 多路径选择
    通过在路径表达式中使用“|”运算符,您可以选取若干个路径。

    用法 说明
    xpath(//book/title* |*//book/price) 选取 book 元素的所有 title 和 price 元素。
    xpath(//title| //price) 选取文档中的所有 title 和 price 元素

    6.5 XPath 轴
    轴可定义相对于当前节点的节点集。

    表达式 描述 用法 说明
    ancestor 选取当前节点的所有先辈(父、祖父等) xpath(//div[@id=’123’]/ancestor::*) 选择标签为div且ID号为123的所有先辈标签
    ancestoror-self 选取当前节点的所有先辈(父、祖父等)以及当前节点本身 xpath(//div[@id=’123’]/ancestor-orself::*) 选择标签为div且ID号为123的所有先辈标签且包含自己
    attribute 选取当前节点的所有属性 xpath(//div[@id=’123’]/attribute::class) 选择标签为div且ID号为123的类属性名称选择标签
    child 选取当前节点的所有子元素 xpath(//div[@id=’123’]/child::book) 为div且ID号为123的所有子元素的为book节点
    descendant 选取当前节点的所有后代元素(子、孙等) xpath(./descendant::*) 返回当前节点的所有后代节点(子节点、孙节点)
    following 选取文档中当前节点结束标签后的所有节点 xpath(./following::*) 选取文档中当前节点结束标签后的所有节点
    parent 选取当前节点的父节点 xpath(./parent::*) 选取当前节点的父节点
    preceding 选取文档中当前节点的开始标签之前的所有节点 xpath(//div[@id=’123’]/preceding::*) 选择标签为div且ID号为123的开始标签之前的所有节点
    precedingsibling 选取当前节点之前的所有同级节点 xpath(//div[@id=’123’]/precedingsibling::*) 选择标签为div且ID号为123的之前的所有同级节点
    self 选取当前节点 xpath(./self::*) 选取当前节点

    6.6 XPath 运算符

    表达式 描述 用法 说明
    + 加法 6 + 4 10
    - 减法 6 - 4 2
    * 乘法 6 * 4 24
    div 除法 8 div 4 2
    = 等于 price=9.80 如果 price 是 9.80,则返回 true。如果price 是 9.90,则返回 false。
    != 不等于 price!=9.80 如果 price 是 9.90,则返回 true。如果price 是 9.80,则返回 false。
    < 小于 price<9.80 如果 price 是 9.00,则返回 true。如果price 是 9.90,则返回 false。
    <= 小于或等于 price<=9.80 如果 price 是 9.00,则返回 true。如果price 是 9.90,则返回 false。
    > 大于 price>9.80 如果 price 是 9.90,则返回 true。如果price 是 9.80,则返回 false。
    >= 大于或等于 price>=9.80 如果 price 是 9.90,则返回 true。如果price 是 9.70,则返回 false。
    or price=9.80 or price=9.70 如果 price 是 9.80,则返回 true。如果price 是 9.50,则返回 false。
    and price>9.00 and price<9.90 如果 price 是 9.80,则返回 true。如果price 是 8.50,则返回 false。
    mod 计算除法的余数 5 mod 2 1

    6.7 常用的功能函数
    使用功能函数能够更好的进行模糊搜索

    表达式 描述 用法 说明
    startswith 选取id值以ma开头的div节点 xpath(‘//div[startswith(@id,”ma”)]‘) 选取id值以ma开头的div节点
    contains 选取id值包含ma的div节点 xpath(‘//div[contains(@id,”ma”)]‘) 选取id值包含ma的div节点
    and 选取id值包含ma和in的div节点 xpath(‘//div[contains(@id,”ma”) and contains(@id,”in”)]‘) 选取id值包含ma和in的div节点
    text() 选取节点文本包含ma的div节点 xpath(‘//div[contains(text(),”ma”)]‘) 选取节点文本包含ma的div节点

    7.Selectable

    方法 说明 示例
    xpath(String xpath) 使用XPath选择 html.xpath("//div[@class='title']")
    $(String selector) 使用Css选择器选择 html.$("div.title")
    $(String selector,String attr) 使用Css选择器选择 html.$("div.title","text")
    css(String selector) 功能同$(),使用Css选择器选择 html.css("div.title")
    links() 选择所有链接 html.links()
    regex(String regex) 使用正则表达式抽取 html.regex("<div>(.*?)")
    regex(String regex,int group) 使用正则表达式抽取,并指定捕获组 html.regex("<div>(.*?)",1)
    replace(String regex, String replacement) 替换内容 html.replace("","")

    返回结果

    方法 说明 示例
    get() 返回一条String类型的结果 String link= html.links().get()
    toString() 功能同get(),返回一条String类型的结果 String link= html.links().toString()
    all() 返回所有抽取结果 List links= html.links().all()
    match() 是否有匹配结果 if (html.links().match()){ xxx; }

    相关文章

      网友评论

        本文标题:java爬虫之webmagic介绍

        本文链接:https://www.haomeiwen.com/subject/oranoktx.html