美文网首页
爬虫的基本操作

爬虫的基本操作

作者: JamesSawyer | 来源:发表于2017-09-26 18:27 被阅读98次

    主要模块

    #1 简易爬虫.jpg

    主要由这几部分组成:

    • 爬虫调度端(spider_main): 对爬虫流程进行控制
    • url管理器(url_manager): 对要爬取的url进行管理
    • 网页下载器(download_manager): 对希望爬取的网页进行下载
    • 网页解析器(html_parser): 对下载好的网页进行解析,如果需要对网页中的其它链接进行下载,则将解析好的url添加到url管理器中
    • 循环上面步骤,然后将有价值的信息存储下来

    整个流程

    #2 流程图.jpg

    看上面的流程图:

    • 调度器询问URL管理器,是否有待爬的url?
    • 如果得到肯定回复,则将获取的url添加到URL管理器中
    • URL管理器将待爬的数据返给调度器,调度器调用下载器进行URL内容下载
    • 然后调度器将下载好的内容交给解析器进行解析, 收集有用数据

    URL调度器

    #3 URL管理器.jpg

    URL管理器的主要原理就是:将已经爬取的或待爬取的分成2类,避免重复循环爬取

    #4 URL管理器实现方式.jpg

    其实现方式有3种:

    • 小的应用使用内存,使用 set数据结构存储
    • 也可以使用数据库对urls进行存储查询
    • 使用redis,一般用于比较大的爬虫操作

    网页下载器

    #5 网页下载器.jpg

    网页下载器可以使用python内置的 urllib.request 中的 urlopen 方法

    另外下载网页时可能遇到的问题:

    • 需要模拟头信息
    • 需要登录之后才能查看网页的情况
    • 权限限制
    • 网页是异步加载的,所以直接去下载得不到内容
    from urllib.request import urlopen
    from urllib import request
    import http.cookiejar
    
    
    url = 'http://www.imooc.com/video/10683'
    
    print('第1种方法')
    response1 = urlopen(url)
    print(response1.getcode())  # 获取状态码
    print(len(response1.read()))
    
    
    print('第2种方法, 添加请求头信息')
    req = request.Request(url)
    req.add_header('user-agent', 'Mozilla/5.0')  # 添加头信息
    response2 = urlopen(req)
    print(response2.getcode())
    print(len(response2.read()))
    
    
    print('第3种方法, 添加cookie')
    cj = http.cookiejar.CookieJar()
    opener = request.build_opener(request.HTTPCookieProcessor(cj))
    request.install_opener(opener)
    response3 = urlopen(url)
    print(response3.getcode())
    print(cj)
    print(response3.read())
    
    

    网页解析器

    对网页进行解析,有4种方式:

    • 使用正则表达式进行模糊匹配,用的很少
    • 使用内置的 html.parser
    • 使用内置的 Ixml
    • 使用第3方的插件,比如 BeautifulSoup, 这个插件实现了上面的多种方式

    BeautifulSoup的基本操作

    from bs4 import BeautifulSoup
    import re
    
    
    html_doc = """
    <html><head><title>The Dormouse's story</title></head>
    <body>
    <p class="title"><b>The Dormouse's story</b></p>
    
    <p class="story">Once upon a time there were three little sisters; and their names were
    <a href="http://example.com/elsie" class="sister" id="link1"><small>Elsie</small></a>,
    <a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and
    <a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;
    and they lived at the bottom of a well.</p>
    
    <p class="story">...</p>
    """
    
    # 定义一个soup, 3个参数分别为
    # 解析的字符串
    # 使用的解析器, 还可以使用'Ixml'
    # 使用的编码格式
    soup = BeautifulSoup(html_doc, 'html.parser', from_encoding='utf-8')
    
    
    print('----获取所有的a标签----')
    links_nodes = soup.find_all('a')
    for link in links_nodes:
        print(link.name, link['href'], link.get_text())  # name表示标签名 get_text()表示内部文字
    
    
    print('----获取lacie的a标签----')
    link_node = soup.find('a', href="http://example.com/lacie")
    print(link_node.name, link_node['href'], link_node.get_text())
    
    
    print('----使用正则获取a标签href中包含"ill"的----')
    link_spec = soup.find('a', href=re.compile(r'ill'))
    print(link_spec.name, link_spec['href'], link_spec.get_text())
    
    
    print('----获取class为title的p元素----')
    p_nodes = soup.find_all('p', class_='title')  # 因为class是关键词,所以这里使用'class_'
    # 还可以使用dict的形式
    # p_nodes = soup.find_all('p', {'class': 'title'})
    for p in p_nodes:
        print(p.name, p.get_text())
    

    抓取策略

    这个其实是整个业务的核心

    • 你要明白你要抓取的内容是什么
    • 入口页面是什么
    • 抓取数据的规律
    • 对抓取数据希望是如何进行处理
    #6 抓取策略.jpg

    github地址

    本文章来自慕课网Python开发简单爬虫的学习笔记, 原教程采用的python版本是2.7,我自己实现的是使用v3.6版本,2者之间差异不大

    github 地址:

    相关文章

      网友评论

          本文标题:爬虫的基本操作

          本文链接:https://www.haomeiwen.com/subject/loceextx.html