美文网首页
网络爬虫相关知识

网络爬虫相关知识

作者: wangyu2488 | 来源:发表于2019-12-23 09:13 被阅读0次

    2019年12月19日

    一.爬取数据

    image.png

    二.使用urllib爬取数据

    image.png

    1.获取静态数据

    """获得静态数据"""
    import urllib.request
    url = 'https://www.nasdaq.com/symbol/aapl/historical#.UWdnJBDMhHk'
    req = urllib.request.Request(url)
    with urllib.request.urlopen(req) as response:
        data = response.read()
        htmlstr = data.decode()
        print(htmlstr)
    
    image.png

    2.获取动态数据

    http://q.stock.sohu.com/cn/600519/lshq.shtml

    2.1获取动态请求链接

    image.png

    2.2查看网页编码格式

    image.png

    2.3.实现数据抓包处理

    """获得动态数据"""
    import urllib.request
    url = 'http://q.stock.sohu.com/hisHq?code=cn_600519&stat=1&order=D&period=d&callback=historySearchHandler&rt=jsonp&0.8115656498417958'
    req = urllib.request.Request(url)
    with urllib.request.urlopen(req) as response:
        data = response.read()
        htmlstr = data.decode('gbk')
        print(htmlstr)
        htmlstr = htmlstr.replace('historySearchHandler(', '')
        htmlstr = htmlstr.replace(')', '')
        print('替换后的:', htmlstr)
    
    
    image.png

    http://www.kjson.com/

    image.png

    3.伪装成浏览器

    # coding=utf-8
    import urllib.request
    url = 'http://www.ctrip.com/'
    req = urllib.request.Request(url)
    req.add_header('User-Agent',
                   'Mozilla/5.0 (iPhone; CPU iPhone OS 10_2_1 like Mac OS X) AppleWebKit/602.4.6 (KHTML, like Gecko) Version/10.0 Mobile/14D27 Safari/602.1')
    with urllib.request.urlopen(req) as response:
        data = response.read()
        htmlstr = data.decode()
        if htmlstr.find('mobile') != -1:
            print('移动版')
    
    image.png

    三.使用Selenium爬取数据【操控浏览器做事情】

    1.安装

    image.png

    1.1安装selenium

    pip install selenium

    image.png

    这么这个会自动添加 不需要单独设置

    image.png

    1.2.兼容问题 要下载GeckoDriver

    方法1:https://github.com/mozilla/geckodriver/releases

    image.png

    方法2:推荐

    brew install geckodriver

    image.png

    如有问题可以设置下环境变量,(应为以前设置过了,其实可以不用设置了)

    image.png

    2.使用

    2.1.常用API

    image.png image.png image.png image.png

    2.2 具体使用

    抓取指定指定数据

    # coding=utf-8
    
    from selenium import webdriver
    driver = webdriver.Firefox()
    driver.get('http://q.stock.sohu.com/cn/600519/lshq.shtml')
    em = driver.find_element_by_id('BIZ_hq_historySearch')
    print(em.text)
    # driver.close()
    driver.quit()
    
    

    效果:会自动打开火狐浏览器

    image.png

    预计2分钟左右下面数据就会出来了

    image.png

    四.分析数据

    1.使用正则表达式

    eg1:将指定网站,指定格式的图片下载下来

    # coding=utf-8
    
    import urllib.request
    import os
    import re
    url = 'http://p.weather.com.cn/'
    
    def findallimageurl(htmlstr):
        """从HTML代码中查找匹配的字符串"""
        # 定义正则表达式
        pattern = r'http://\S+(?:\.png|\.jpg)'
        return re.findall(pattern, htmlstr)
    
    def getfilename(urlstr):
        """根据图片连接地址截取图片名"""
        pos = urlstr.rfind('/')
        return urlstr[pos + 1:]
    
    # 分析获得的url列表
    url_list = []
    req = urllib.request.Request(url)
    with urllib.request.urlopen(req) as response:
        data = response.read()
        htmlstr = data.decode()
        url_list = findallimageurl(htmlstr)
    for imagesrc in url_list:
        # 根据图片地址下载
        req = urllib.request.Request(imagesrc)
        with urllib.request.urlopen(req) as response:
            data = response.read()
            # 过滤掉用小于100kb字节的图片
            if len(data) < 1024 * 100:
                continue
            # 创建download文件夹
            if not os.path.exists('download'):
                os.mkdir('download')
            # 获得图片文件名
            filename = getfilename(imagesrc)
            filename = 'download/' + filename
            # 保存图片到本地
            with open(filename, 'wb') as f:
                f.write(data)
        print('下载图片', filename)
    
    
    image.png

    2.使用BeautifulSoup库 (推荐使用,有标签的概念)

    2.1安装

    pip install beautifulsoup4

    image.png

    2.2 常用API

    image.png image.png

    2.3 使用

    # coding=utf-8
    import os
    import urllib.request
    from bs4 import BeautifulSoup
    url = 'http://p.weather.com.cn/'
    
    def findallimageurl(htmlstr):
        """从HTML代码中查找匹配的字符串"""
        sp = BeautifulSoup(htmlstr, 'html.parser') #html.parser html.parser
        # 返回所有的img标签对象
        imgtaglist = sp.find_all('img')
        # 从img标签对象列表中返回对应的src列表
        srclist = list(map(lambda u: u.get('src'), imgtaglist))
        # 过滤掉非.png和.jpg结尾文件src字符串
        filtered_srclist = filter(lambda u: u.lower().endswith('.png')
                                            or u.lower().endswith('.jpg'), srclist)
        return filtered_srclist
    
    def getfilename(urlstr):
        """根据图片连接地址截取图片名"""
        pos = urlstr.rfind('/')
        return urlstr[pos + 1:]
    
    # 分析获得的url列表
    url_list = []
    req = urllib.request.Request(url)
    with urllib.request.urlopen(req) as response:
        data = response.read()
        htmlstr = data.decode()
        url_list = findallimageurl(htmlstr)
    for imagesrc in url_list:
        # 根据图片地址下载
        req = urllib.request.Request(imagesrc)
        with urllib.request.urlopen(req) as response:
            data = response.read()
            # 过滤掉用小于100kb字节的图片
            if len(data) < 1024 * 100:
                continue
            # 创建download文件夹
            if not os.path.exists('download'):
                os.mkdir('download')
            # 获得图片文件名
            filename = getfilename(imagesrc)
            filename = 'download/' + filename
            # 保存图片到本地
            with open(filename, 'wb') as f:
                f.write(data)
        print('下载图片', filename)
    
    
    image.png

    如果您发现本文对你有所帮助,如果您认为其他人也可能受益,请把它分享出去。

    相关文章

      网友评论

          本文标题:网络爬虫相关知识

          本文链接:https://www.haomeiwen.com/subject/qqmonctx.html