美文网首页python社区
python爬虫系列(4)- 提取网页数据(正则表达式、bs4、

python爬虫系列(4)- 提取网页数据(正则表达式、bs4、

作者: 永恒君的百宝箱 | 来源:发表于2019-07-26 18:07 被阅读0次
    python 爬虫 常见流程.jpg

    记录提取网页数据(正则表达式、bs4、xpath)一些常用方法和使用样板。

    就永恒君使用经验来说,bs4、xpath比较容易上手但是功能有限,正则比较晦涩难懂但是功能超级强大。

    简介

    正则表达式

    正则表达式是一个特殊的字符序列,它能帮助你方便的检查一个字符串是否与某种模式匹配。
    re 模块使 Python 语言拥有全部的正则表达式功能。

    import re 
    pattern = re.compile(r'\d+')   # 查找数字
    result1 = pattern.findall('runoob 123')
    
    ##结果为123,类型为list
    

    或者

    import re 
    result1=re.findall(r'\d+','runoob 123')
    

    具体怎么写正则表达式就不多说了,这里有一个教程可以参考:https://github.com/ziishaned/learn-regex/blob/master/translations/README-cn.md

    网上教程也很多,多写多练才能更好掌握。

    bs4

    之前介绍了用bs4来解析 html 标签,完成之后就可以调用bs4的各种方法来提取数据。

    基本用法

    from bs4 import BeautifulSoup
    
    soup = BeautifulSoup(html,'lxml')
    soup.prettify() #格式化网页代码,缺少的补齐等等
    soup.title #获取<title>标签
    soup.title.string #获取title的文本内容
    soup.p #获取p标签
    soup.p["class"] #获取p标签的class属性
    soup.find_all('a') #返回所有的a标签,返回列表
    
    

    更多详细看官方文档:https://www.crummy.com/software/BeautifulSoup/bs4/doc.zh/

    xpath

    简单来说,xpath 就是一种在 XML 文档中查找信息的语言。

    基本用法

    test = html.xpath('/html/head/title') #表示匹配根节点下的head节点下的title元素节点
    
    test = html.xpath('/html/head/title/text()')#表示匹配根节点下的head节点下的title元素节点中的文本节点
    test = html.xpath('/a/@href') #表示匹配a元素节点下的子节点中的 href 属性节点
    
    test = html.xpath('//a[@href]') #匹配带有 href 属性的 <a> 标签
    
    test = html.xpath('//a[@href="image1.html"]') #指定带有 href 属性且值为 image1.html 的 <a> 标签
    

    xpath 方法返回字符串或者匹配列表,匹配列表中的每一项都是 lxml.etree._Element 对象。

    如上面的 test 作为测试样例,test 中的每一项都是一个 _Element 对象。我们写爬虫最终获取的数据信息,就是通过_Element 对象的方法来获取的。

    test = html.xpath('//a[@href="image1.html"]')
    obj = test[0]
    obj.tag #返回标签名'a'
    obj.attrib #返回属性与值组成的字典{'href': 'image1.html'}
    obj.get('href') #返回指定属性的值
    obj.text #返回文本值
    

    使用XPath有一个方便的地方在于,可以直接使用Chrome浏览器来获取XPath路径,方法是:在网页中右击->选择审查元素(或者使用F12打开) 就可以在elements中查看网页的html标签了,找到你想要获取XPath的标签,右击->Copy XPath 就已经将XPath路径复制到了剪切板。

    常用的样板

    正则

    import requests
    import re#导入相关的库
    url="https://www.yhjbox.com"
    data = requests.get(url)
    pattern = re.compile(r'<title>(.*?)</title>')   # 查找数字
    title = pattern.findall(data.text)
    print(title)
    
    正则输出结果.png

    bs4

    from bs4 import BeautifulSoup
    import lxml
    import requests
    
    url='https://www.yhjbox.com'
    data = requests.get(url)
    soup = BeautifulSoup(data.content, 'lxml')
    title = soup.find_all('title')[0].string
    
    print(title)
    
    
    bs4输出结果.png

    xpath

    import requests
    from lxml import etree
    
    url = 'https://www.yhjbox.com'
    data = requests.get(url) 
    html = etree.HTML(data.text)
    title = html.xpath('/html/head/title/text()') 
    
    print(title)
    
    xpath输出结果.png

    你可能还会想看:

    爬虫系列:

    python爬虫系列(3)- 网页数据解析(bs4、lxml、Json库)

    python爬虫系列(2)- requests库基本使用

    python爬虫系列(1)- 概述

    python实例:

    用python给女友准备个礼物吧~

    python帮你定制批量获取你想要的信息

    python帮你定制批量获取智联招聘的信息

    用python定制网页跟踪神器,有信息更新第一时间通知你(附视频演示)

    用python助你一键下载在线小说

    教你制作一个微信机器人陪你聊天,只要几行代码

    Google图片搜索出了大量满意图片,批量下载它们!

    带你看看不一样的微信!

    欢迎交流!

    相关文章

      网友评论

        本文标题:python爬虫系列(4)- 提取网页数据(正则表达式、bs4、

        本文链接:https://www.haomeiwen.com/subject/ftndrctx.html