美文网首页
python爬虫初步之BeautifulSoup实战

python爬虫初步之BeautifulSoup实战

作者: jangohe | 来源:发表于2019-04-09 13:46 被阅读0次

1.学习beautifulsoup

  • Step.1 BeautifulSoup是基于标签的,所以我们第一步要准确定位到我们需- 要信息所在的标签。
  • Step.2 从定位的标签中提取我们需要的信息(一般在属性或者在string中)
  • Step.3 对于提取数据的简单处理

2.使用beautifulsoup提取丁香园论坛的回复内容

  • 2.1用户浏览器访问目标网站并检查目标内容所在标签
    BeautifulSoup是一个可以将复杂的HTML文档转换成一个复杂的树形结构,每个节点都是python对象,所有对象可以归纳为4种:Tag、NavigableString、BeautifuSoup和Comment。
    下面边爬取论坛边介绍每个对象的意义以及方法。
    目标网址:

http://www.dxy.cn/bbs/thread/626626

按F12可看见网站结构及回复内容所在标签如下图:


image.png
  • 2.2获取回复内容和用户名
    我们所需的评论内容就在td class="postbody"标签下,利用BeautifulSoup获取内容
content = data.find("td", class_="postbody").text

我们需要的用户名在<div class="auth">标签下,利用BeautifulSoup获取内容

name = data.find("div", class_="auth").text

find函数用法:

find(name, attrs, recursive, text, **wargs)    # recursive 递归的,循环的
这些参数相当于过滤器一样可以进行筛选处理。不同的参数过滤可以应用到以下情况:
查找标签,基于name参数
查找文本,基于text参数
基于正则表达式的查找
查找标签的属性,基于attrs参数
基于函数的查找

附源码:

import urllib.request
from bs4 import BeautifulSoup as bs
def main():
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) "
                          "Chrome/58.0.3029.110 Safari/537.36 SE 2.X MetaSr 1.0"
    }
    url = 'http://www.dxy.cn/bbs/thread/626626'
    request = urllib.request.Request(url, headers=headers)
    response = urllib.request.urlopen(request).read().decode("utf-8")
    html = bs(response, 'lxml')
    getItem(html)
def getItem(html):
    datas = [] # 用来存放获取的用户名和评论
    for data in html.find_all("tbody"):
        try:
            username = data.find("div", class_="auth").get_text(strip=True)
            print(username)
            content = data.find("td", class_="postbody").get_text(strip=True)
            print(content)
            datas.append((username,content))
        except:
            pass
    print(datas)



if __name__ == '__main__':
    main()

截图:


image.png

3.学习xpath,使用lxml+xpath提取内容

什么是 XPath?
XPath即为XML路径语言(XML Path Language),它是一种用来确定XML文档中某部分位置的语言。
在 XPath 中,有七种类型的节点:元素、属性、文本、命名空间、处理指令、注释以及文档(根)节点。XML 文档是被作为节点树来对待的。
下面列出了最有用的路径表达式:

表达式 描述
nodename 选取此节点的所有子节点
/ 从根节点选取
// 从匹配选择的当前节点选择文档中节点,从而不考虑节点的位置
. 选取当前节点
.. 选取当前节点的父节点
@ 选取属性

Xpath中text(),string(),data()的区别如下:
text()仅仅返回所指元素的文本内容。
string()函数会得到所指元素的所有节点文本内容,这些文本讲会被拼接成一个字符串。
data()大多数时候,data()函数和string()函数通用,而且不建议经常使用data()函数,有数据表明,该函数会影响XPath的性能。

4.使用xpath提取丁香园论坛的回复内容

# _*_ coding:utf-8 _*_
from contextlib import closing
import requests, json, re, os, sys, random, time
from urllib.request import urlopen
import urllib
from lxml import etree

class getUrl(object):

    def __init__(self):
        self.headers={
            "Connection": "keep-alive",
            "User-Agent": "Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.121 Safari/537.36",
            "Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8",
            "Accept-Encoding": "gzip, deflate",
            "Accept-Language": "zh-CN,zh;q=0.9"
        };

    def run(self):
        url = "http://www.dxy.cn/bbs/thread/626626"
        req = requests.get(url,headers=self.headers)
        html = req.text
        tree = etree.HTML(html)
        user = tree.xpath('//div[@class="auth"]/a/text()')
        content = tree.xpath('//td[@class="postbody"]')
        result = []
        for i in range(0,len(user)):
            #print(content[i])
            print(content[i].xpath('string(.)'))
            print(user[i].strip()+":"+content[i].xpath('string(.)'))
            print('*'*80)


if __name__ == '__main__':
    geturl = getUrl()
    geturl.run()

截图:


image.png

相关文章

网友评论

      本文标题:python爬虫初步之BeautifulSoup实战

      本文链接:https://www.haomeiwen.com/subject/yesbiqtx.html