美文网首页
node爬虫(三)

node爬虫(三)

作者: silentsvv | 来源:发表于2017-09-10 06:34 被阅读0次

成功获取数据,接下来我们试着将数据放在服务器,然后我们在页面请求数据

  • 使用node的koa框架
  • 涉及es6的async 函数

start


首先npm install koa --save
我的packjson目录如下

{
  "name": "tuku",
  "scripts": {
    "test": "echo \"Error: no test specified\" && exit 1",
    "start": "node koa.js"
  },
  "engines": {
    "node": "7.10.0"
  },
  "author": "silentsvv",
  "license": "ISC",
  "devDependencies": {
  },
  "dependencies": {
    "koa": "^2.3.0",
    "cheerio": "^0.22.0",
    "chromedriver": "^2.29.0",
    "selenium-webdriver": "^3.4.0"
  }
}


新建一个koa.js文件,进行简单的测试

const Koa = require('koa');
const app = new Koa();

app.use(async (ctx) => {
  ctx.body = 'hello world'
});

app.listen(3000);

输入node koa.js 然后打开http://localhost:3000来查看是否显示成功。

输出成功

输出成功!

接下来,我们要试着返回我们刚刚获取的爬虫信息。


  • index.js

将原来的内容,变成promise函数导出

function Spider() {
  return new Promise((resolve) => {
    require('chromedriver'); //chrome浏览器驱动
    let webdriver = require('selenium-webdriver'); //浏览器自动操作
    let cheerio = require('cheerio'); //获取页面数据
    let fs = require('fs');

    let driver = new webdriver.Builder().forBrowser('chrome').build()

    let data = new Map()
    driver.get('http://tu.duowan.com/tu')
    let PageSource = driver.getPageSource().then((val) => {
      const $ = cheerio.load(val);  //解析网站
      let result = $('.masonry-brick:not(.tags) a').find('img') //寻找有图片的节点
      let parent,textNode,title,link,imgSrc;
      result.each((i,elem) => {
        let obj = {};
        parent = $(elem).closest('li') //图片所在li父节点
        textNode = parent.find('em a')
        title = textNode.text()
        link = textNode.attr('href')
        imgSrc = $(elem).attr('src')

        obj = {
          imgSrc,
          link
        }
        data.set(title,obj)
      })

      driver.close(); // 关闭浏览器
      resolve(data); //返回data
      return data;
    })
  })
}


module.exports = Spider;
  • koa.js

返回信息

const Koa = require('koa');
const app = new Koa();
const Spider = require('./index.js')  //引用spider函数

app.use(async (ctx) => {
  let data = await Spider();
  let text = [...data] //将返回的map对象转成数组
  ctx.body = JSON.stringify(text) //将数组转成文本
});

app.listen(3000);

接下来试一下运行node koa.js,打开http://localhost:3000地址,待爬虫完毕后会出现以下数据。

image.png

后台返回数据成功!


相关文章信息:
node爬虫一
node爬虫二
node爬虫三

相关文章

  • node爬虫(三)

    成功获取数据,接下来我们试着将数据放在服务器,然后我们在页面请求数据 使用node的koa框架 涉及es6的asy...

  • node爬虫之路(一)

    最近对爬虫很感兴趣,我们node.js也是可以写爬虫。所以写一个node爬虫系列,记录我的爬虫之路,感兴趣的同学可...

  • node爬虫快速入门

    node爬虫 初入前端,刚刚接触node,对于耳闻已久的node爬虫非常神往,所以有了这篇文章,项目代码在文章末尾...

  • node入门场景之——爬虫

    边做边学效率更高,爬虫是node的适用场景之一,关于爬虫的另一篇文章node爬虫进阶之——登录为了验证“经验总结、...

  • node爬虫

    node爬虫用到的第三方模块 Cheerio 服务端的jQueryhttps://segmentfault.c...

  • node 爬虫

    clawer.js

  • Node爬虫

    使用cheerio爬虫模块抓取页面后获取元素信息跟jQuery基本一样

  • node爬虫

    /** 教程:https://blog.csdn.net/Qc1998/article/details/83154...

  • node 爬虫

  • node爬虫

    声明:所有文章都是转载整理的,只是为了自己学习,方便自己观看,如有侵权,请立即联系我,谢谢~ Node.js的学习...

网友评论

      本文标题:node爬虫(三)

      本文链接:https://www.haomeiwen.com/subject/thkzjxtx.html