美文网首页IT行业 程序员 编程经验java学习
Java爬虫获取招聘信息生成Excel表格

Java爬虫获取招聘信息生成Excel表格

作者: lemonTreeTop | 来源:发表于2017-06-16 19:55 被阅读651次
    抓取的结果 Java_应届毕业生_深圳

    项目地址
    https://github.com/ishare20/JobInformation

    思路:

    • 明确需要爬取的信息
    • 分析网页结构
    • 分析爬取流程
    • 优化

    明确需要爬取的信息

    职位名称
    工资
    职位描述
    公司名称
    公司主页
    详情网页

    分析网页结构

    目标网站 拉勾网

    json

    网站使用json作为交互数据,分析json数据,需要的json关键数据

    totalCount :查询总数,用来算页数,每个页面显示15条,总数/15得到页数,大于30只能显示30页
    positionId :位置id,用来进入详情页,详情页网址结构为https://www.lagou.com/jobs/positionId.html

    详情页网页分析:查看需要的信息所在的位置,使用Jsoup来解析网页

    分析爬取流程

    1.获取所有的positionId生成详情页,存放在一个存放网址列表中List<String> joburls
    2.获取每个详情页并解析为Job类,得到一个存放Job类的列表List<Job> jobList
    3.把List<Job> jobList存进Excel表格中

    Java操作Excel需要用到jxl

    关键代码实现

    public List<String> getJobUrls(String gj,String city,String kd){
    
            String pre_url="https://www.lagou.com/jobs/";
            String end_url=".html";
            String url;
            if (gj.equals("")){
    
                url="http://www.lagou.com/jobs/positionAjax.json?px=default&city="+city+"&needAddtionalResult=false&first=false&pn="+pn+"&kd="+kd;
    
            }else {
    
                url="https://www.lagou.com/jobs/positionAjax.json?gj="+gj+"&px=default&city="+city+"&needAddtionalResult=false&first=false&pn="+pn+"&kd="+kd;
    
            }
    
    
            String rs=getJson(url);
            System.out.println(rs);
            int total= JsonPath.read(rs,"$.content.positionResult.totalCount");//获取总数
            int pagesize=total/15;
            if (pagesize>=30){
                pagesize=30;
            }
    
            System.out.println(total);
           // System.out.println(rs);
    
            List<Integer> posid=JsonPath.read(rs,"$.content.positionResult.result[*].positionId");//获取网页id
    
            for (int j=1;j<=pagesize;j++){  //获取所有的网页id
                pn++;  //更新页数
                url="https://www.lagou.com/jobs/positionAjax.json?gj="+gj+"&px=default&city="+city+"&needAddtionalResult=false&first=false&pn="+pn+"&kd="+kd;
                String rs2=getJson(url);
                List<Integer> posid2=JsonPath.read(rs2,"$.content.positionResult.result[*].positionId");
                posid.addAll(posid2); //添加解析的id到第一个list
            }
    
            List<String> joburls=new ArrayList<>();
            //生成网页列表
            for (int id:posid){
                String url3=pre_url+id+end_url;
                joburls.add(url3);
            }
            return joburls;
    
        }
    
    
        public Job getJob(String url){  //获取工作信息
            Job job=new Job();
            Document document= null;
            document = Jsoup.parse(getJson(url));
    
            job.setJobname(document.select(".name").text());
            job.setSalary(document.select(".salary").text());
            String joball=HtmlTool.tag(document.select(".job_bt").select("div").html());//清除html标签
            job.setJobdesc(joball);//职位描述包含要求
            job.setCompany(document.select(".b2").attr("alt"));
            Elements elements=document.select(".c_feature");
            //System.out.println(document.select(".name").text());
            job.setCompanysite(elements.select("a").attr("href")); //获取公司主页
            job.setJobdsite(url);
            return job;
        }
    
    void insertExcel(List<Job> jobList) throws IOException, BiffException, WriteException {
           int row=1;
            Workbook wb = Workbook.getWorkbook(new File(JobCondition.filename));
            WritableWorkbook book = Workbook.createWorkbook(new File(JobCondition.filename), wb);
            WritableSheet sheet=book.getSheet(0);
            for (int i=0;i<jobList.size();i++){   //遍历工作列表,一行行插入到表格中
                sheet.addCell(new Label(0,row,jobList.get(i).getJobname()));
                sheet.addCell(new Label(1,row,jobList.get(i).getSalary()));
                sheet.addCell(new Label(2,row,jobList.get(i).getJobdesc()));
                sheet.addCell(new Label(3,row,jobList.get(i).getCompany()));
                sheet.addCell(new Label(4,row,jobList.get(i).getCompanysite()));
                sheet.addCell(new Label(5,row,jobList.get(i).getJobdsite()));
                row++;
            }
            book.write();
            book.close();
        }
    

    优化

    在爬取比较多数据的时候,很慢,分析整个流程:
    从网址详情页列表List<String> joburls中获取第一个网址————>获取网页并解析————>添加到工作列表List<Job> jobList中;

    从网址详情页列表List<String> joburls中获取第二个网址————>获取网页并解析————>添加到工作列表List<Job> jobList中;

    ......循环到网页列表结束,每次执行都需要等待前一个执行完才可以重新发起请求获取网页,这时可以使用多线程来优化,开启多线程获取网页,主线程等下获取网页的子线程结束后,再执行写入Excel表格操作。

    遇到的问题

    有时候抓取太快,直接返回错误信息
    抓取次数太多,被禁止访问,隔了一段时间才可以
    网站有反爬虫机制
    忘了一个重要的问题,还要分析这些数据

    参考资料:

    https://jsoup.org/
    http://www.cnblogs.com/raymond19840709/archive/2008/06/26/1230289.html
    https://github.com/json-path/JsonPath

    相关文章

      网友评论

      本文标题:Java爬虫获取招聘信息生成Excel表格

      本文链接:https://www.haomeiwen.com/subject/ltcmqxtx.html