代码直通车
Github FoxCrawler项目下的SeleniumClawer解决方案
工具介绍
Selenium:是一个自动化测试工具,封装了很多WebDriver用于跟浏览器内核通讯,我用开发语言来调用它实现PhantomJS的自动化操作。它的下载页面里有很多东西,我们只需要Selenium Client,它支持了很多语言(C#、JAVA、Ruby、Python、NodeJS),按自己所学语言下载即可。
下载地址:http://docs.seleniumhq.org/download/
Nuget 使用
image.png
Selenium的好处
Selenuim的好处是显而易见的,当我们爬取网站信息时候,难免会碰到异步加载,数据延时绑定,数据接口定位难,加密信息解码难等问题。其实最终数据都会完整的显示在界面上,既然数据能够显示出来,使用Selenium操控WebDriver进行模拟浏览器行为(点击,切换,移动)等等事件,等待数据显示,然后使用选择器(Id,Class,XPath等)进行爬取,这是一种符合人习惯的编程方式。当然我也不是说其他的方式不好,只是在同等时间的情况下,这种方式效率更高,耗时更快,可靠性也更高。
下面使用Selenium进行一个简单的百度贴吧一键签到功能编码
项目创建,环境配置
打开Vs,新建控制台项目,使用Nuget获取最新Selenium的C#库,然后根据自己机型安装的浏览器选择WebDirver(有点类似运行时打开的模拟浏览器,不过时单独的一个.exe文件,首先你电脑要安装这个浏览器),我以自己的电脑Chrome浏览器为例子,所以我Nuget下载一个
chrome.webdriver.png
下载完成后在项目根目录的packages文件夹中找到对应内容
根据系统类型,系统是32还是64自行选择
路径.png
复制.exe文件到项目Bin文件夹下即可,环境配置完成
先来一下简单例子
在完成一键签到功能之前,我们先来完成一个简单的例子,这样能让大家对这种方式有一个基本的了解
我的例子选取的是某学校的通知公告数据爬取,进行一般爬虫和Selenium爬取的区别
爬取地址
http://www.jit.edu.cn/myNews_list_out.aspx?infotype=1
普通方式爬取
我们首先要分析如何获取数据,当我们点击下一页的时候,我们发现页面整体刷新,且地址栏没有发生变化,通过分析Respons信息我们发现IIS字样,这样可以推定使用的技术是.net webform 自带的gridview服务端控件,这种方式自带了加密验证,破解的方式网上有,就是要获取每次页面生成的加密码,然后带上其他参数向后台重新发起请求。
缺点:
如果使用这种方式,当我们碰到不同的问题,需要根据不同的问题寻找解决方案,测试可行然后再进行编码,要花多的时间在一个一个没有接触过的问题身上。
Selenium 模拟爬取
这种方式就相对简单,也很好理解。编码的逻辑就是如下
1、打开网页
2、找到下一页按钮
3、模拟点击
4、数据获取
这样的方式就和我们使用浏览器操作习惯一置,逻辑也更加清楚。
接下去我就基于这一种方法,对代码进行说明
打开网页
var docHtml = new HtmlDocument();
var driver = new ChromeDriver();
driver.Navigate().GoToUrl("http://www.jit.edu.cn/myNews_list_out.aspx?infotype=1");
业务逻辑
代码简单明了,爬取当页数据,然后找到下一页按扭,如果存在点击,如何不存在,退出循环
bool nextpage = true;
do
{
ReadOnlyCollection<IWebElement> newsNodes =
driver.FindElements(By.XPath("//*[@id=\"table_list\"]/li/a")); //获取li内容
GetNewList(newsNodes);//获得新闻内容
docHtml.LoadHtml(driver.PageSource);
//找到下一页按钮
HtmlNode node = docHtml.GetElementbyId("nextpage");
IWebElement element = null;
if (node != null)
{
element = driver.FindElementById("nextpage");
}
else
{
nextpage = false;
}
//如果存在下一页按钮,模拟点击
if (nextpage)
{
element.Click();
}
} while (nextpage);
获取新闻内容
private static List<NewInfo> GetNewList(ReadOnlyCollection<IWebElement> newsNodes)
{
List<NewInfo> newInfoList = new List<NewInfo>();
foreach (var news in newsNodes)
{
newInfoList.Add(new NewInfo()
{
Url = news.GetAttribute("href"),
Title = news.Text
});
Console.WriteLine($"{news.Text} {news.GetAttribute("href")}");
}
return newInfoList;
}
好处:
1、代码简单明了
2、逻辑清晰
3、后期维护方便
网友评论