美文网首页
写个爬虫

写个爬虫

作者: yfwz100 | 来源:发表于2015-08-01 11:03 被阅读323次

爬虫的流程

一个爬虫的执行过程可以大致分为三个部分:

  1. 获取页面内容(html)
  2. 使用CSS选择器、XPath、DOM API等手段提取页面关键内容
  3. 遍历提取到的url继续进行信息挖掘

可以看出爬虫是一个递归过程,如果步骤 3 中提取得到的 url 和这个过程是一样的话(例如搜索引擎的爬虫)。而最简单的爬虫只涉及到前两个方面(即信息流是单次的)。

爬虫的工具:

  • Python 组合:Requests/Urlib + BeautifulSoup/PyQuery
  • Node.js 组合: Request + Cheerio 或 Request + JSDOM (需要JS解释的特殊页面)

信息获取部分

对于简单的爬虫,可以使用浏览器的开发者工具对所要爬取的网页进行审查(inspect),确定元素的查询路径,然后利用工具 CSS 选择器、XPath 等进行元素遍历,在遍历过程中提取有效的信息(html或者value等)。在 Chrome 浏览器最近的版本中,选择某一个元素已经可以支持“复制 CSS 路径”(Copy CSS Path)这样的自动化选项了,极大减轻了爬虫所需要的重复劳动。

模拟浏览器

爬虫的一个很重要的问题就是模拟人类,这个不是通过机器学习人类来得到的,而是通过伪造浏览器的标识。一些网站为了防止信息被盗用,往往设置了十分复杂的验证流程。而这些复杂的验证流程,基本上可以归结为以下问题:

  1. 模拟 Session
  2. 模拟 cookie
  3. 模拟 JS 执行过程
  4. 模拟验证码过程

其中,前两者可以通过模拟 HTTP 协议以及浏览器行为来解决(Python 的 Requests 库、Node.js 的 Request 库、Java 的 HttpClient 类),而第 3 点可以通过 模拟浏览器环境(Node.js 的 JSDOM 模块)或者手工逆过程编程实现。第 4 点是一个难题,单说验证码就有千差万别的形式,例如图片验证码、组合验证码、语音验证码等等,这些基本上是通过观察服务器端的漏洞,或者通过机器学习、模式识别等算法进行破解。

对于大部分应用来说,能够模拟前两者已经可以了,而模拟前两者需要扎实的HTTP协议基础,配合利用好浏览器的开发者工具中关于请求的部分(Chrome 的开发者工具在这方面做的不错)发现其中的验证流程(访问页面、提交数据这些步骤的顺序)。

遍历 URL

遍历 URL 是自动递归爬虫需要解决的问题。例如搜索引擎爬虫,需要知道哪些 URL 需要获取、哪些 URL 是不需要获取的。URL 的识别,可以算作是信息获取部分的内容,而另一个难题就是如何确定这个 URL 是需要获取的,而不是已经被重复获取的。这个时候,可以维护一个 HashMap 等结构,通过网页的散列值(hash code)来确定 URL 是否被获取过了。这在小数据量的情况下是十分有效的,但在大数据环境下就不一样了。当获取的网址数量超过了内存的存量,这个时候需要考虑外部存储。

网络爬虫的程序结构

说了那么多注意的问题,那么如何组织起来一个网络爬虫的程序结构呢?我的建议是分为三层:直接的数据读写、逻辑整理、以及抓取循环。

例如,一个数据获取类:

class UrlDAO(object):
 
    def __init__(self):
        super(UrlDAO, self).__init__()
        # 初始化数据库连接,可以用MongoDB、MySQL 等等
        # ...
 
    def insert(self, url):
        # 不做任何判断,仅仅插入数据
        print url

之所以封装这样的类,是为了以后能够简单地更改数据获取后端,例如,数据量少的时候可以直接用内存或者文件系统,数据量大的时候就用Redis。

处理逻辑相关的,是对数据获取的一个封装:

class UrlCollector(object):
 
    def __init__(self, url_dao):
        super(UrlCollector, self).__init__()
        # 存入数据库访问层
        self._url_dao = url_dao
        # 初始化已经获取到的列表
        self._fetched_urls = set()
 
    def collect(self, url):
        # 收集的业务逻辑:如果未曾收集,则收集到数据库中
        if url not in self._fetched_urls:
            # 调用数据库连接层来处理
            self._url_dao.insert(url)

最后的抓取循环就简单多了~ 以一个站点为输入,上述定义的逻辑类(collector)处理业务:

def fetch(site, collector):
    for i in range(0, 5):
        html = browser.get('http://www.similarsitesearch.com/s.php?URL=%s&P=%d' % (site, i)).content
        doc = BeautifulSoup(html, "html.parser")
 
        for block in doc.select('div.res_main_top > h2 > a'):
            sub_url = urlparse(block['href']).hostname
            collector.collect(sub_url)

相关文章

  • 写个爬虫

    爬虫的流程 一个爬虫的执行过程可以大致分为三个部分: 获取页面内容(html) 使用CSS选择器、XPath、DO...

  • golang + goquery写个爬虫

    goquery 是一个超好用的库,可以帮你爬取页面,解析页面。我用它写了个糗事百科的爬虫,可以用来看当前有什么好玩...

  • 能写个爬虫吗

    有不是这行的同学问:能写个爬虫吗 大哥问:能搭建个vpn吗 自问:让你自己做个系统 到上线 你能吗 ……我很惭愧,...

  • 【视频】手把手教你写抓美女爬虫~

    今天呢,大邓给大家写个爬图片的爬虫,毕竟之前写了验证码的爬虫,关于图片保存已经涉及了,那么咱们就来个图片爬虫吧。 ...

  • Pythod初学之简单语法

    Pythod初学之简单语法 [TOC] 前言 经常想写个爬虫来获取数据或者写个脚本来执行某些想法,脚本语言中选择了...

  • 使用Selenium+Chrome+BeautifulSoup爬

    上周,有同事跟我说:“听说你会写Python,那能请你帮我写个爬虫吗?” 之前虽然对爬虫也仅仅停留在最基础的地方,...

  • 手把手教你从今日头条爬取你想要的任何图片

    都说人生苦短,我用python。为了找点乐趣,不如写个爬虫? 那爬什么呢? 宇宙条是爬虫界行家,它的很多信息都是从...

  • 用Flask写个爬虫玩

    原文地址 作者:along 來源:简书 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

  • 用Flask写个爬虫玩

    昨天彭老师和我说,希望我能和大家分享一下Flask这一块。碰巧最近在做flask的开发工作,手头上的这个工程项目可...

  • 爬虫爬某医学院网站

    闲来无事,写个爬虫玩玩。爬了某医学院,不是自己母校,至于为啥,没有目的。单纯爬爬而已。 源码 爬虫项目地址:htt...

网友评论

      本文标题:写个爬虫

      本文链接:https://www.haomeiwen.com/subject/iqhvqttx.html