本人对于Python学习创建了一个小小的学习圈子,为各位提供了一个平台,大家一起来讨论学习Python。欢迎各位到来Python学习群:960410445一起讨论视频分享学习。Python是未来的发展方向,正在挑战我们的分析能力及对世界的认知方式,因此,我们与时俱进,迎接变化,并不断的成长,掌握Python核心技术,才是掌握真正的价值所在。
1. 为什么要爬虫?
“大数据时代”,数据获取的方式:
大型企业公司有海量用户,需要收集数据来提升产品体验
【百度指数(搜索),阿里指数(网购),腾讯数据(社交)】
数据管理咨询公司: 通过数据团队专门提供大量数据,通过市场调研,问卷调查等
政府/机构提供的公开数据
中华人民共和国统计局
World bank
Nasdaq
第三方数据平台购买数据
数据堂
贵阳大数据交易平台
爬虫数据
2. 什么是爬虫?
抓取网页数据的程序
3. 爬虫如何抓取网页数据?
首先需要了解网页的三大特征:
每个网页都有自己的URL(统一资源定位符)来定位
网页都使用HTML(超文本标记语言)来描述页面信息
网页都使用HTTP/HTTPS(超文本传输协议)来传输HTML数据
爬虫的设计思路:
首先确定需要爬取的网URL地址
通过HTTP/HTTPS协议来获取对应的HTML页面
提取HTML页面内有用的数据:
a. 如果是需要的数据--保存
b. 如果有其他URL,继续执行第二步
4. Python爬虫的优势?
5. 学习路线
抓取HTML页面:
HTTP请求的处理: urllib, urlib2, requests
处理器的请求可以模拟浏览器发送请求,获取服务器响应的文件
解析服务器相应的内容:
re, xpath, BeautifulSoup(bs4), jsonpath, pyquery等
使用某种描述性语言来给我们需要提取的数据定义一个匹配规则,符合这个规则的数据就会被匹配
采集动态HTML,验证码的处理
通用动态页面采集: Selenium + PhantomJS:模拟真实浏览器加载JS
验证码处理: Tesseract机器学习库,机器图像识别系统
Scrapy框架:
高定制性,高性能(异步网络框架twisted)->数据下载快
提供了数据存储,数据下载,提取规则等组件
分布式策略:
scrapy redis:在scarpy基础上添加了以redis数据库为核心的一套组件,主要在redis做请求指纹去重、请求分配、数据临时存储
爬虫、反爬虫、反反爬虫之间的斗争:
User-Agent, 代理, 验证码, 动态数据加载, 加密数据
6. 爬虫的分类
6.1 通用爬虫:
1.定义: 搜索引擎用的爬虫系统
2.目标: 把所有互联网的网页爬取下来,放到本地服务器形成备份,在对这些网页做相关处理(提取关键字,去除广告),最后提供一个用户可以访问的借口
3.抓取流程:
a) 首先选取一部分已有的URL, 把这些URL放到带爬取队列中
b) 从队列中取出来URL,然后解析NDS得到主机IP,然后去这个IP对应的服务器里下载HTML页面,保存到搜索引擎的本地服务器里,之后把爬过的URL放入已爬取队列
c) 分析网页内容,找出网页里其他的URL连接,继续执行第二步,直到爬取结束
4.搜索引擎如何获取一个新网站的URL:
主动向搜索引擎提交网址: https://ziyuan.baidu.com/linksubmit/index
在其他网站设置网站的外链: 其他网站上面的友情链接
搜索引擎会和DNS服务商进行合作,可以快速收录新网站
5.通用爬虫注意事项
通用爬虫并不是万物皆可以爬,它必须遵守规则:
Robots协议:协议会指明通用爬虫可以爬取网页的权限
我们可以访问不同网页的Robots权限
6.通用爬虫通用流程:
7.通用爬虫缺点
只能提供和文本相关的内容(HTML,WORD,PDF)等,不能提供多媒体文件(msic,picture, video)及其他二进制文件
提供结果千篇一律,不能针对不同背景领域的人听不同的搜索结果
不能理解人类语义的检索
聚焦爬虫的优势所在
DNS 域名解析成IP: 通过在命令框中输入ping www.baidu.com,得到服务器的IP
6.2 聚焦爬虫:
爬虫程序员写的针对某种内容的爬虫-> 面向主题爬虫,面向需要爬虫
网友评论