美文网首页
C#多线程网络爬虫

C#多线程网络爬虫

作者: 今夕子铭 | 来源:发表于2016-09-10 21:59 被阅读0次

上次做了一个帮公司妹子做了爬虫,不是很精致,这次公司项目里要用到,于是有做了一番修改,功能添加了网址图片采集,下载,线程处理界面网址图片下载等。

说说思路:首相获取初始网址的所有内容 在初始网址采集图片 去初始网址采集链接 把采集到的链接放入队列 继续采集图片,然后继续采集链接,无限循环

还是上代码!

处理网页内容抓取跟网页网址爬取都做了改进,下面还是大家来看看代码,有不足之处,还请之处!

网页内容抓取HtmlCodeRequest,

网页网址爬取GetHttpLinks,用正则去筛选html中的Links

图片抓取GetHtmlImageUrlList,用正则去筛选html中的Img

都写进了一个封装类里面 HttpHelper

//////取得HTML中所有图片的 URL。//////HTML代码///图片的URL列表publicstaticstringHtmlCodeRequest(stringUrl)

{if(string.IsNullOrEmpty(Url))

{return"";

}try{//创建一个请求HttpWebRequest httprequst =(HttpWebRequest)WebRequest.Create(Url);//不建立持久性链接httprequst.KeepAlive =true;//设置请求的方法httprequst.Method ="GET";//设置标头值httprequst.UserAgent ="User-Agent:Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.2; .NET CLR 1.0.3705";

httprequst.Accept="*/*";

httprequst.Headers.Add("Accept-Language","zh-cn,en-us;q=0.5");

httprequst.ServicePoint.Expect100Continue=false;

httprequst.Timeout=5000;

httprequst.AllowAutoRedirect=true;//是否允许302ServicePointManager.DefaultConnectionLimit =30;//获取响应HttpWebResponse webRes =(HttpWebResponse)httprequst.GetResponse();//获取响应的文本流stringcontent =string.Empty;using(System.IO.Stream stream =webRes.GetResponseStream())

{using(System.IO.StreamReader reader =newStreamReader(stream, System.Text.Encoding.GetEncoding("utf-8")))

{

content=reader.ReadToEnd();

}

}//取消请求httprequst.Abort();//返回数据内容returncontent;

}catch(Exception)

{return"";

}

}//////提取页面链接/////////publicstaticList GetHtmlImageUrlList(stringurl)

{stringhtml =HttpHelper.HtmlCodeRequest(url);if(string.IsNullOrEmpty(html))

{returnnewList();

}//定义正则表达式用来匹配 img 标签Regex regImg =newRegex(@"]*?\bsrc[\s\t\r\n]*=[\s\t\r\n]*[""']?[\s\t\r\n]*(?[^\s\t\r\n""'<>]*)[^<>]*?/?[\s\t\r\n]*>", RegexOptions.IgnoreCase);//搜索匹配的字符串MatchCollection matches =regImg.Matches(html);

List sUrlList =newList();//取得匹配项列表foreach(Match matchinmatches)

sUrlList.Add(match.Groups["imgUrl"].Value);returnsUrlList;

}//////提取页面链接/////////publicstaticList GetHttpLinks(stringurl)

{//获取网址内容stringhtml =HttpHelper.HtmlCodeRequest(url);if(string.IsNullOrEmpty(html))

{returnnewList();

}//匹配http链接conststringpattern2 =@"http(s)?://([\w-]+\.)+[\w-]+(/[\w- ./?%&=]*)?";

Regex r2=newRegex(pattern2, RegexOptions.IgnoreCase);//获得匹配结果MatchCollection m2 =r2.Matches(html);

List links =newList();foreach(Match url2inm2)

{if(StringHelper.CheckUrlIsLegal(url2.ToString()) || !StringHelper.IsPureUrl(url2.ToString()) ||links.Contains(url2.ToString()))continue;

links.Add(url2.ToString());

}//匹配href里面的链接conststringpattern =@"(?i)]*?href=(['""]?)(?!javascript|__doPostBack)(?[^'""\s*#<>]+)[^>]*>"; ;

Regex r=newRegex(pattern, RegexOptions.IgnoreCase);//获得匹配结果MatchCollection m =r.Matches(html);foreach(Match url1inm)

{stringhref1 = url1.Groups["url"].Value;if(!href1.Contains("http"))

{

href1= Global.WebUrl +href1;

}if(!StringHelper.IsPureUrl(href1) || links.Contains(href1))continue;

links.Add(href1);

}returnlinks;

}

这边下载图片有个任务条数限制,限制是200条。如果超过的话线程等待5秒,这里下载图片是异步调用的委托

publicstringDownLoadimg(stringurl)

{if(!string.IsNullOrEmpty(url))

{try{if(!url.Contains("http"))

{

url= Global.WebUrl +url;

}

HttpWebRequest request=(HttpWebRequest)WebRequest.Create(url);

request.Timeout=2000;

request.UserAgent="User-Agent:Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.2; .NET CLR 1.0.3705";//是否允许302request.AllowAutoRedirect =true;

WebResponse response=request.GetResponse();

Stream reader=response.GetResponseStream();//文件名stringaFirstName =Guid.NewGuid().ToString();//扩展名stringaLastName = url.Substring(url.LastIndexOf(".") +1, (url.Length - url.LastIndexOf(".") -1));

FileStream writer=newFileStream(Global.FloderUrl + aFirstName +"."+aLastName, FileMode.OpenOrCreate, FileAccess.Write);byte[] buff =newbyte[512];//实际读取的字节数intc =0;while((c = reader.Read(buff,0, buff.Length)) >0)

{

writer.Write(buff,0, c);

}

writer.Close();

writer.Dispose();

reader.Close();

reader.Dispose();

response.Close();return(aFirstName +"."+aLastName);

}catch(Exception)

{return"错误:地址"+url;

}

}return"错误:地址为空";

}

话不多说,更多的需要大家自己去改进咯!欢迎读者来与楼主进行交流。如果本文对您有参考价值,欢迎帮博主点下文章下方的推荐,谢谢

下面源码送上:嘿嘿要分的哦!

http://download.csdn.net/detail/nightmareyan/9627215

相关文章

网友评论

      本文标题:C#多线程网络爬虫

      本文链接:https://www.haomeiwen.com/subject/iwtuettx.html