美文网首页
简书用户动态信息爬虫

简书用户动态信息爬虫

作者: weare_b646 | 来源:发表于2019-04-24 14:54 被阅读0次

第一步 爬取简书推荐用户

爬取简书推荐用户,加入到用户信息表(第一批用户)

package com.company;
import org.jsoup.Connection;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;

import java.io.*;

public class meizi {

    public static void main(String[] args) {

        for(int i = 1; i <= 100; i++)
        {
            Connection connect = Jsoup.connect("https://www.jianshu.com/recommendations/users?page=" + i);
            try {
                // 得到Document对象
                Document document = connect.get();

                Elements elements2 = document.select(".wrap");
                for(Element element : elements2)
                {
                    Element elements3  = element.select("a").first();
//                    System.out.println(elements3.attr("abs:href"));
                    System.out.println(elements3.attr("href").replace("/users/",""));

                    System.out.println();
                }

            } catch (IOException e) {
                e.printStackTrace();
            }
        }

    }
}

第二步 从推荐用户出发,爬取每个推荐用户的全部粉丝,加入到用户信息表(第二批用户)

package com.company;

import org.jsoup.Connection;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;

import java.io.IOException;

public class meizi2 {

    public static void main(String[] args) {

//        https://www.jianshu.com/users/757b5f9f910b/followers?page=5
        //每页9条
        // 利用Jsoup获得连接
        Connection connect = Jsoup.connect("https://www.jianshu.com/users/5ddd9dd5ced9/followers?page=1");
        try {
            // 得到Document对象
            Document document = connect.get();

//            Elements elements = document.select(".wrap");
//            System.out.println(elements.get(0).text());

            Elements elements2 = document.select(".user-list li");
            for(Element element : elements2)
            {
                Element elements3  = element.select(".info a").first();
                System.out.println(elements3.attr("abs:href"));

                System.out.println();
//                elements3  = element.select(".answer-user-name");
//                System.out.println(elements3.text());
//
//                elements3  = element.select(".answer-user-tag");
//                System.out.println(elements3.text());
//
//                elements3  = element.select(".answer-text");
//                System.out.println(elements3.text());
            }

        } catch (IOException e) {
            e.printStackTrace();
        }
    }
}

第三步,爬取每个简书用户的全部动态信息

package com.company;

import org.jsoup.Connection;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;

import java.io.IOException;

public class meizi3 {

    public static void getDync(int maxid,int pageno)
    {
        //        https://www.jianshu.com/users/757b5f9f910b/followers?page=5
        //每页9条
        // 利用Jsoup获得连接
        String query = "?max_id="+maxid+"&page="+pageno;

        if(maxid == 0)
        {
            query = "";
        }
        Connection connect = Jsoup.connect("http://www.jianshu.com/users/c4165d16d0ad/timeline"+query);
        try {
            // 得到Document对象
            Document document = connect.get();

//            Elements elements = document.select(".wrap");
//            System.out.println(elements.get(0).text());

            Elements elements2 = document.select(".note-list li");
            if(elements2.last() == null) {
                System.out.println(pageno);
                return;
            }
            String id = elements2.last().id();
            maxid = Integer.parseInt(id.split("-")[1]) - 1;

            System.out.println(id);
            for(Element element : elements2)
            {

                Elements elements3  = element.select("span[data-type=like_comment]");
                if(elements3.size() > 0)
                {
                    System.out.println("喜欢了评论");

                    System.out.println(elements3.attr("data-datetime"));
                }

                elements3  = element.select("span[data-type=comment_note]");
                if(elements3.size() > 0)
                {
                    System.out.println("发表评论");
                    System.out.println(element.select(".comment").first().ownText());
                    System.out.println(element.select("a.title").first().attr("href").replace("/p/",""));
                    System.out.println(elements3.attr("data-datetime"));
                }
                elements3  = element.select("span[data-type=like_note]");
                if(elements3.size() > 0)
                {
                    System.out.println("喜欢文章");
                    System.out.println(elements3.attr("data-datetime"));
                }
                elements3  = element.select("span[data-type=reward_note]");
                if(elements3.size() > 0)
                {
                    System.out.println("赞赏文章");
                    System.out.println(elements3.attr("data-datetime"));
                }

                elements3  = element.select("span[data-type=share_note]");
                if(elements3.size() > 0)
                {
                    System.out.println("发表文章");
                    System.out.println(elements3.attr("data-datetime"));
                }
                elements3  = element.select("span[data-type=like_user]");
                if(elements3.size() > 0)
                {
                    System.out.println("关注作者");
                    System.out.println(elements3.attr("data-datetime"));
                }
                elements3  = element.select("span[data-type=like_collection]");
                if(elements3.size() > 0)
                {
                    System.out.println("关注专题");
                    System.out.println(elements3.attr("data-datetime"));
                }
                elements3  = element.select("span[data-type=like_notebook]");
                if(elements3.size() > 0)
                {
                    System.out.println("关注文集");
                    System.out.println(elements3.attr("data-datetime"));
                }
            }

        } catch (IOException e) {
            e.printStackTrace();
        }

        getDync(maxid,++pageno);
    }

    public static void main(String[] args) {
        getDync(0,1);

    }
}

相关文章

  • 简书用户动态信息爬虫

    第一步 爬取简书推荐用户 爬取简书推荐用户,加入到用户信息表(第一批用户) 第二步 从推荐用户出发,爬取每个推荐用...

  • 简书用户动态信息爬虫

    第一步 爬取简书推荐用户 爬取简书推荐用户,加入到用户信息表(第一批用户) 第二步 从推荐用户出发,爬取每个推荐用...

  • Python实践与学习索引

    爬虫小专栏—爬取广州二手房信息小专栏—爬虫模块化小专栏—广度优先爬虫小专栏—爬取某个用户的所有微博包简书—pandas

  • Spark项目之简书百万用户动态分析与查询展示

    一、项目框架 二、代码实现 1、数据库建表 1)、创建动态信息表 2)、创建用户信息表 2、jsoup爬虫以及数据...

  • 用Ruby简书爬虫统计用户文章信息

    思沃大讲堂培训,要求我们把自己学习的心得感悟输出在简书上,公司还会统计大家的文章,包括文章数量、评论量、被喜欢量等...

  • 使用Redis实现实时排名

    Redis用途很广泛,分布式用户Session缓存、爬虫URL队列、活动页面的动态列表信息等。使用Redis实现排...

  • 信息用户体验

    简书的信息用户体验

  • Scrapy的下载中间件

    防止爬虫被反的几个策略: 1、动态设置User-Agent 随机切换User-Agent,模拟不同用户的浏览器信息...

  • Python爬虫—简书用户信息抓取

    简书用户的抓取也持续了几天,由于是单线程所以跑起来太慢了,到现在也只有40万+数据,本想做一个web使简书的小伙伴...

  • 爬虫

    1、反反爬虫相关机制 1、动态设置User-Agent(随机切换User-Agent,模拟不同用户的浏览器信息)2...

网友评论

      本文标题:简书用户动态信息爬虫

      本文链接:https://www.haomeiwen.com/subject/ypgjwqtx.html