美文网首页
技能 | IT@信息采集

技能 | IT@信息采集

作者: ElaineQMY | 来源:发表于2021-04-04 10:53 被阅读0次
  1. Python自带标准库urllib
#urllib.parse 用于解析url
import urllib.parse
kw={'wd':'*'}
#编码
result=urllib.parse.urlencode(kw)
print(result) 
#解码
res=urllib.parse.unquote(result)
print(res)
#urllib.request 用于打开和读取URL
import urllib.request
import urllib.parse
url='*'
headers={'User-Agent':'*'}
data={'username':'*','password':'*','action':'login'}
#1.发送请求
resp=urllib.request.urlopen(url,data=bytes(urllib.parse.urlencode(data),encoding='utf-8'))
html=resp.read().decode('gbk') #decode将bytes类型转成str类型
print(html)
#2.构建请求对象
req=urllib.request.Request(url,headers=headers)
#使用urlopen打开请求
resp=urllib.request.urlopen(req)
#从响应结果中读取数据
html=resp.read().decode('utf-8')
print(html)
#https://www.xicidaili.com/nn/ 用于免费代理IP
from urllib.request import build_opener
from urllib.request import ProxyHandler
proxy=ProxyHandler({'https':'*(IP地址):*(端口号)'})
opener=build_opener(proxy)
url='*'
resp=opener.open(url)
print(resp.read().decode('utf-8'))
#cookie 用于解决http的无状态性
import urllib.request
from http import cookiejar
filename='cookie.txt'
#获取cookie
def get_cookie():
    cookie=cookiejar.MozillaCookieJar(filename) #实例化一个MozillaCookieJar 用于保存cookie
    handler=urllib.request.HTTPCookieProcessor(cookie) #创建handler对象
    opener=urllib.request.build_opener(handler) #创建opener对象
    url='*'
    resp=opener.open(url) #请求网址
    cookie.save() #存储cookie文件
#读取cookie
def use_cookie():
    cookie=cookiejar.MozillaCookieJar() #实例化MozillaCookieJar
    cookie.load(filename) #加载cookie文件
    print(cookie)
if __name__=='__main__':
    get_cookie()
    use_cookie()
#urllib.error.URLError 用于捕获由urllib.request产生的异常
import urllib.request
import urllib.error
url='*’
try
    resp=urllib.request.urlopen(url)
except urllib.error.URLError as e
    print(e.reason)
#urllib.error.HTTPError 用于处理HTTP与HTTPS请求的错误
import urllib.request
import urllib.error
url='*’
try
    resp=urllib.request.urlopen(url)
except urllib.error.HTTPError as e
    print('原因:',e.reason)
    print('响应状态码:',str(e.code))
    print('响应头数据:',e.headers)
  1. 第三方requests库
#requests.get() 用于发送get请求
import requests
url='*’
params=['*':'*']
resp=requests.get(url,params=params)

resp.encoding='utf-8' #设置响应的编码格式
cookie=resp.cookies #获取请求后的cookie信息
headers=resp.headers
print('响应状态码:',resp.status_code)
print('请求后的cookie:',cookie
print('获取请求的网址:',resp.url)
print('响应头:',headers)
print('响应内容:',resp.text)

json_data=resp.json() #获取json数据
print(json_data)

with open('*','wb') as file #存储二进制数据
    file.write(resp.content)

session=requests.session() #使用session
resp=session.get(url)
resp.encoding='utf-8’
print(resp.text)
#requests.post() 用于发送post请求
import requests
url='*'
data={'username':'*','password':'*','action':'login'}
resp=requests.post(url,data=data)
resp.encoding='gb2312’
print(resp.status_code)
print(resp.text)

session=requests.session() #使用session
resp=session.post(url,data=data)
resp.encoding='gb2312’
print(resp.text)
  1. 第三方库XPath
#XPath 用于提取数据
import requests
from lxml import etree
url='*'
headers={'User-Agent':'*'}
resp=requests.get(url,headers) #发送请求
e=etree.HTML(resp.text) #将str类型转换成class 'lxml.etree._Element'(print(type(e)))
e1=e.xpath('//*节点名[last()-1]/text()')
e2=e.xpath('//*节点名[@*属性="*"]/text()') 
for e1,e2 in zip(e1,e2)
    print(e1,":",e2)
  1. 第三方库BeautifulSoup
#BeautifulSoup 用于提取数据
from bs4 import BeautifulSoup
html='''
    <html>
        <head>
            <title>*</title>
        </head>
        <body>
             <h1 class='*'>*</h1>
             
        </body>
    </html>
'''
bs=BeautifulSoup(html,'html.parser')
bs=BeautifulSoup(html,'lxml')
print(bs.title) #获取标签
print(bs.h1.attrs) #获取h1标签的所有属性

#获取单个属性
print(bs.h1.get('class'))
print(bs.h1['class'])

#获取文本内容
print(bs.title.text)
print(bs.title.string) #获取包括注释内容

print(bs.find('h1',class_='*')) #获取第一个满足条件的标签
print(bs.find_all('h1',class_='*')) #获取所有满足条件的标签列表
for item in bs.find_all('h1',class_='*')
    print(item)
print(bs.find_all('h1',attrs={'class':'*'}))

#css选择器
print(bs.select("#*"))
print(bs.select('.*'))
print(bs.select('*>*'))
print(bs.select('*.*>*'))
for item in bs.select('*.*>*'):
    print(item.text)

相关文章

  • 技能 | IT@信息采集

    Python自带标准库urllib 第三方requests库 第三方库XPath 第三方库BeautifulSoup

  • 《关键词阅读术》:有一种职业叫信息采集员

    #提高信息采集能力的关键词阅读术##村上悠子##Forest出版##信息采集员##专业采集员##信息采集##不遗漏...

  • 信息采集

    信息采集指为出版物的出版在信息资源方面做准备的工作,包括对信息的收集和处理。它是选题策划的直接基础和重要依据。 一...

  • 采集信息

    最近深受朋友的影响,渐渐的拖延症告别了我,终于在休息期间可以去采集信息。主要是担心疫情原因,还有一些不确定因素,我...

  • 有没有更好的信息收集软件

    企业信息采集软件 企业名录、电话号码、大数据信息搜索采集系统 企业公司店铺行业电话销售号码名录数据信息搜索采集软件

  • 从工作态度看一个人的修养

    最近几天,在政府网采集退役军人的信息,信息涉及的信息量很大,采集起来很不容易。是在前期军人采集信息的基础上的补充、...

  • 健康监测:理想体重=身高-100,165以下的-105

    健康监测。 健康监测分为信息采集和信息管理。 信息采集包括健康调查表选用及健康信息收集。 体格测量要求掌握身高体重...

  • 只是输入个了网址,我就采集到了超多的西十区票务数据

    本文主要介绍如何使用后羿采集器的智能模式,免费采集西十区的票务信息。 采集工具简介: 后羿采集器 采集字段: 话剧...

  • perf程序cpu火焰图分析

    最好在root权限下执行指令,权限开放情况下才能采集到完整的堆栈信息 perf使用 # 采集信息 ...

  • PDA监控点采集问题处理

    一、监控信息采集:对监控点的GPS信息进行初始化采集,回传给基础信息库作为该监控点的GPS坐标基础信息数据使用。 ...

网友评论

      本文标题:技能 | IT@信息采集

      本文链接:https://www.haomeiwen.com/subject/wyjgcltx.html