美文网首页好玩的代码爬虫专题
爬取煎蛋网妹子图 - 好玩的代码

爬取煎蛋网妹子图 - 好玩的代码

作者: 野狗道人闯红灯 | 来源:发表于2017-04-08 14:42 被阅读2399次

    之前一直以为爬虫是一种很牛逼的东西,甚至以为是一种黑客技术。在大三下学期一次机缘下(有一位同学的Android课的期末设计是在github上找了一个爬取校园官网新闻的app,给老师看的时候老师让改改,但是代码是找的,不知道怎么改,最后让我帮忙看看。我就给研究了下代码给解决了一下,顺便知道了怎么写爬虫)。在这个过程中,自己也算会了爬虫,就想写个爬虫试试,既然写的话,就写个有意思的喽。于是就有了这个妹子图爬虫。

    前言

    首先,煎蛋网妹子图的链接在这http://jandan.net/ooxx 可以先观摩一下~
    其次,这次爬虫使用了java的爬虫库JSoup,爬虫的主要原理是能够根据网页的有规则节点来获取想要的内容,JSoup这个库能够比较简单获取节点相关内容等。
    最后,不懂爬虫的可以先去百度一下,了解下原理什么的。这里用妹子图这个很浅显的解释一下:本来我们看这个网站就一张张的看,看完一页手动点下一页接着看,用代码写的话,也是一张图片一张图片的拿,拿完一页之后,找到下一页的链接,然后接着拿图片,找下一页链接,直到全部拿完。

    目标

    把妹子图里面的每张图片的链接拿到,顺便也把这张图片的点赞数(oo)和踩数(xx)给获取到,储存在文件里。以便爬取完之后简单的分析一下。

    思路

    其实写这个程序最开始的思路并不是很清晰,后面有一些问题,是一步步解决的。

    1. 人工分析妹子图图片链接,xx和oo数量在网页中的节点规律,并写出来。
    2. 后来发现爬着爬着就报错了,煎蛋网有防爬虫策略如果过快的爬取就会把你的ip封掉,就不能访问了。这里要找一些对策。
    3. 爬完了之后,就要尽情享用一下啦。把oo数量最多的100张图片根据链接下载下来,把oo数量最多的gif图拿出来。如果顺便把上传者也给获取了的话,还能看看谁发的最多,谁发的妹子图综合评价最高等等。这里懒得难受就不获取上传者了。

    获取内容

    这一步是基础,首先要能拿到页面文本内容才能爬取,能够自动去下一页才能翻页爬取。就是根据链接拿内容和根据下一页的节点位置获取下一页的链接。不多说,看代码看注释,这里顺便把一些基础的东西贴上。

    mian函数主要是调用了Crawler的action函数,剩下的是算算时间。

    public class JsoupTest {
        public static void main(String[] args) {
    
            SimpleDateFormat dfs = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
            Date start = new Date();
    
            //开始运行
            Crawler crawler = new Crawler();
            crawler.action();
    
            Date end = new Date();
            System.out.println("开始时间:" + dfs.format(start));
            System.out.println("结束时间:" + dfs.format(end));
            long msec = end.getTime() - start.getTime();
            if ((msec / (1000 * 60)) > 60) {
                long hour = msec / (1000 * 60 * 60);
                long min = msec % (1000 * 60 * 60) / 1000 / 60;
                System.out.println("单线程运行共花费时间:" + hour + "小时" + min + "分钟");
            }
            else {
                long min = msec / (1000 * 60);
                System.out.println("单线程运行共花费时间:" + min + "分钟");
            }
        }
    }
    

    Crawler的属性和构造函数

        //可以多放几个链接,多线程爬取
        private static String[] originUrlArr = {
                "http://jandan.net/ooxx"
        };
    
        //结果列表
        private List<XXOOEntity> xxooList;
        //要爬取的链接
        private List<String> urlList;
        //爬过的链接
        private List<String> oldUrlList;
        //当前链接
        private String indexUrl;
        
        public Crawler() {
            xxooList = new ArrayList<XXOOEntity>();
            urlList = new ArrayList<String>();
            oldUrlList = new ArrayList<String>();
            urlList.addAll(Arrays.asList(originUrlArr));
        }
    

    然后把XXOOEntity贴一下。

    public class XXOOEntity {
    
    
        private String imageUrl;
        private int xx;
        private int oo;
    
        public XXOOEntity() {
    
        }
    
        public XXOOEntity(String imageUrl, int xx, int oo) {
            this.imageUrl = imageUrl;
            this.xx = xx;
            this.oo = oo;
        }
    
        public String getImageUrl() {
            return imageUrl;
        }
    
        public void setImageUrl(String imageUrl) {
            this.imageUrl = imageUrl;
        }
    
        public int getXx() {
            return xx;
        }
    
        public void setXx(int xx) {
            this.xx = xx;
        }
    
        public int getOo() {
            return oo;
        }
    
        public void setOo(int oo) {
            this.oo = oo;
        }
    }
    

    然后就是爬取入口action函数了。

    public void action() {
            if (urlList.size() > 0) {
                indexUrl = urlList.get(urlList.size()-1);
                urlList.remove(urlList.size()-1);
                oldUrlList.add(indexUrl);
                
                System.out.println("index!!!!" + indexUrl);
    
    
                try {
                    Thread.sleep(1000 * 10);
                } catch (InterruptedException e) {
                    e.printStackTrace();
                }
                crawl(indexUrl);
            }
            else {
                System.out.println("结束");
                System.out.println("数据:" + xxooList.size());
                System.out.println("页面:" + oldUrlList.size());
                save();
            }
        }
    

    然后是爬取函数,这里注意一下,HtmlInputStream这个类和http://www.jianshu.com/p/5962728dd5b6 这篇文章最后的类是同一个,不过加了一些抵御反爬虫的代码。下面再细说。

    private void crawl(String indexUrl) {
            Document doc = null;
    
            //这个地方用了自己写的根据链接获取本文内容的类
            String contentStr = HtmlInputStream.getContent(indexUrl, "utf-8");
            Document content = Jsoup.parse(contentStr);
    
            //这里是类容爬取
            contentCrawl(content);
            //这里是获取下一个连接的函数
            urlCrawl(content);
            System.out.println("\n\n");
            //这里接着爬取
            action();
        }
    

    完成的时候别忘了保存一下

    private void save() {
            Gson gson = new Gson();
            String aviString = gson.toJson(xxooList);
            
            FileOutputStream fis;
            try {
                fis = new FileOutputStream("jiandanxxoo.txt");
                fis.write(aviString.getBytes());
                fis.close();
                
            } catch (FileNotFoundException e) {
                e.printStackTrace();
            } catch (IOException e) {
                // TODO Auto-generated catch block
                e.printStackTrace();
            }
            
            System.out.println("保存成功");
        }
    

    分析规律

    首先看一下一张妹子图条目的样式,左边有上传者、时间。主体部分有一个查看原文的链接,有一张图片,右上角还有一个id,右下角是xx和oo的数量,还有一个吐槽的按钮。我们需要的只有图片,xx数量和oo数量。


    妹子图条目样式

    在图片处或者[查看原图]处,右键审查元素,我用的是chrome,点击最先面的检查。就会出现html对应的代码。比如我在图片那里检查一下,就会出现下面的代码。

    审查元素结果

    看呐,图片链接有了,再在xxoo那里一审查,xxoo的数量也都有了。剩下的就是根据这些节点的关系找规律写代码了。

    经过我的分析,图片的获取可以使用[查看原图]那里的链接,直接获取class名为view_img_link节点的src属性即可。而xx和oo的数量可以用class名为vote的第二个和第四个孩子节点来获取。

    ok啦,剩下就是写代码了,下面我就直接把代码贴出来了,

    private void contentCrawl(Document content) {
            
            
            Elements elements = content.getElementsByClass("text");
            XXOOEntity xxooEntity;
            for (Element element : elements) {
                xxooEntity = new XXOOEntity();
    
                //xx
                String xx = element.getElementsByClass("vote").first().children().get(2).text();
    
                //oo
                String oo = element.getElementsByClass("vote").first().children().get(4).text();
    
    
                //图片链接
                Elements imageUrls = element.getElementsByClass("view_img_link");
                for (Element imageUrlElement : imageUrls) {
    
                    String imageUrl = imageUrlElement.attr("href");
                    xxooEntity.setImageUrl(imageUrl);
                    System.out.println(imageUrl);
    
                    xxooEntity.setXx(Integer.parseInt(xx));
                    System.out.println(xx);
    
                    xxooEntity.setOo(Integer.parseInt(oo));
                    System.out.println(oo);
    
                    xxooList.add(xxooEntity);
                }
            }
            
        }
    

    下一页的链接获取,原理同上。

    private void urlCrawl(Document content) {
            Element element = content.getElementsByClass("cp-pagenavi").first();
            if (element != null) {
                List<Node> lists = element.childNodes();
                System.out.println("num:::" + lists.size());
                for (Node node : lists) {
    
                    String url = node.attr("href");
                    if (url != null && url != "") {
                        if (!oldUrlList.contains(url) && !urlList.contains(url)) {
                            urlList.add(url);
                            System.out.println(url);
                        }
                    }
                }
            }
            else {
                urlList.add(indexUrl);
            }
        }
    

    反爬虫应对策略

    反爬虫的做法就是检测一个ip是不是过于频繁的访问自己的网站,对应的我们要做的就是不让他们认为我们频繁的访问他们的网站。

    这里的办法是爬的慢一点,然后多弄一些ip地址,然后设置代理,让这些代理ip循环的访问网站。还有就是访问失败的时候的报错都给捕获到,别让程序崩了。至于代理ip,百度上一搜一大堆,但是基本上都要付费,还是挺烦的。

    这个的设置位置在获取网页内容的地方设置,我就写在了HtmlInputStream.getContent里面,这里不再写出来一遍了。和之前的那个唯一的区别在于找了一大堆代理ip,轮换着设置代理,这里就写一下怎么设置代理。

    Proxy proxy = new Proxy(Type.HTTP, new InetSocketAddress(ipStr, port));
    URLConnection conn = url.openConnection(proxy);
    

    顺便说一下,之前我也没花钱买代理ip,只是顺便用爬虫抓取了一大堆免费的代理ip,循环着使用,遇到报错的ip就扔掉,扔到还剩1/3就不扔了,最后剩下的说明可用性还比较高。谁想写可以自己试一下。

    分析

    哇咔咔,享受成果的时候来了。

    最后的分析没啥技术含量,就把抓取的所有妹子图图片下载了一堆oo数量比较高的来欣赏啦~

    欣赏一下

    最后

    有点虎头蛇尾的感觉,打完收工。
    就写到这程度吧,有点懒得慌。如果有超过五个人要代码的话,我再把代码传上来。

    欢迎关注【Funny新青年】微信公众号~

    相关文章

      网友评论

      本文标题:爬取煎蛋网妹子图 - 好玩的代码

      本文链接:https://www.haomeiwen.com/subject/ydvlattx.html