美文网首页我是程序员Pythonpython爬虫
8个最高效的Python爬虫框架,你用过几个?

8个最高效的Python爬虫框架,你用过几个?

作者: 阿里云云栖号 | 来源:发表于2018-06-01 12:02 被阅读54次

    小编收集了一些较为高效的Python爬虫框架。分享给大家。

    1.Scrapy

    Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。。用这个框架可以轻松爬下来如亚马逊商品信息之类的数据。

    项目地址:https://scrapy.org/

    2.PySpider

    pyspider 是一个用python实现的功能强大的网络爬虫系统,能在浏览器界面上进行脚本的编写,功能的调度和爬取结果的实时查看,后端使用常用的数据库进行爬取结果的存储,还能定时设置任务与任务优先级等。

    项目地址:https://github.com/binux/pyspider

    3.Crawley

    Crawley可以高速爬取对应网站的内容,支持关系和非关系数据库,数据可以导出为JSON、XML等。

    项目地址:http://project.crawley-cloud.com/

    4.Portia

    Portia是一个开源可视化爬虫工具,可让您在不需要任何编程知识的情况下爬取网站!简单地注释您感兴趣的页面,Portia将创建一个蜘蛛来从类似的页面提取数据。

    项目地址:https://github.com/scrapinghub/portia

    5.Newspaper

    Newspaper可以用来提取新闻、文章和内容分析。使用多线程,支持10多种语言等。

    项目地址:https://github.com/codelucas/newspaper

    6.Beautiful Soup

    Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.Beautiful Soup会帮你节省数小时甚至数天的工作时间。

    项目地址:https://www.crummy.com/software/BeautifulSoup/bs4/doc/

    7.Grab

    Grab是一个用于构建Web刮板的Python框架。借助Grab,您可以构建各种复杂的网页抓取工具,从简单的5行脚本到处理数百万个网页的复杂异步网站抓取工具。Grab提供一个API用于执行网络请求和处理接收到的内容,例如与HTML文档的DOM树进行交互。

    项目地址:http://docs.grablib.org/en/latest/#grab-spider-user-manual

    8.Cola

    Cola是一个分布式的爬虫框架,对于用户来说,只需编写几个特定的函数,而无需关注分布式运行的细节。任务会自动分配到多台机器上,整个过程对用户是透明的。 

    项目地址:https://github.com/chineking/cola

    本文作者:雁横

    阅读原文

    本文为云栖社区原创内容,未经允许不得转载。

    相关文章

      网友评论

      • 空人不见人:感谢分享
      • e9e5b265ab54:弱弱的问一句,爬虫框架是什么../.
      • 丶Chrisiven:Bs是框架??你在逗我??那pyquery也是咯
        丶Chrisiven:朋友,框架跟库是不同的。。。
        wendell_dev:@丶Chrisiven pyquery的确可以直接进行网络请求,内置urllib和requests
      • 清凌一夜:大佬带我飞啊
      • 雪飞鸿:最近在做爬虫
      • 130faa65ac75:Beautiful Soup也算爬虫框架吗?他只能做到解析页面,作为爬虫环节中的一个框架倒是可以,想写爬虫还得配合requests 或者 urllib等库使用,才是一个完整的爬虫。
        94b5509c2417:@一线城市十八线程序猿 小编为了凑够那种框架
      • IT人故事会:感谢分享

      本文标题:8个最高效的Python爬虫框架,你用过几个?

      本文链接:https://www.haomeiwen.com/subject/olwhsftx.html