NodeJS网络爬虫

  原文地址:NodeJS网络爬虫
  网上有多其他语言平台版本的网络爬虫,比如Python,Java。这怎么可以少得矣俺们无所不可以的javascript呢?这些跟事先给产品狗开发之批量图片下载配置工具,原理相当相像,主题就是调用Node的http模块。

网络爬虫基本就是由于如下一些构成:

  1. 先后入口
  2. 要模块
  3. 数码表达

美学原理,  程序入口可以据此web页面实现,还得当网页上亮抓取的数码和分析结果;可是这自家只想管精力花在主旨模块,页面及体裁不牵挂花尽多精力去搞。所以呢,我虽支出个node的命令行工具,这么些于成熟的尽管是commander了。

  请求模块方面,我光想拘捕到手百度的页面,还有天涯论坛的页面,它们的求都是https协议的,好当Node的https和http模块效能几乎是如出一辙的,这里用做的饶是熟稔她的api就吓了,也是easy。

  数据表明模块,因为抓取出来的页面内容是字符串,所以可以据此正则表明式去匹配,不过如此最好费事了。有没爆发再好之计?抓到手回来但仍然html内容,用jQuery以操作dom的艺术去分析数据未是雅便宜嘛,恰好有只劳务端的jquery库cheerio。

  页面抓到手完,数据吧剖析出了,那便异常简单了,你得择存入数据库或者写副文件保留。接下来就开头实现地方的功用模块。

先后入口

  初叶安排和最先花commander,具体的使办法参考官方的文档:https://www.npmjs.com/package/commander,那里不再详细分解之所以法了,上面起始安排commander。
  首先要在package.json添加如下节点,表示注册了一个命行 “grab”。

  "bin": {
    "grab": "bin/grab.js"
  },

  就在grab.js先导定义commander,末了大家就足以那样执行命令行:”grab
baidu
“,当然可以为此bd简写代替baidu,微博的概念及百度是一模一样,那里不再重复介绍了。

    program
        // .allowUnknownOption()//不报错误
        .version('0.0.1')
        .usage('这是我的网络爬虫程序😎'
          +'\n  grap [option]'
          +'\n    bd baidu: baidu search'
          +'\n    zh zhihu: zhihu search');

    program
        .command('baidu <cmd>')
        .alias('bd')
        .description('baidu search baidu')
        .option("-t, --tieba", "baidu tieba")
        .action(function(cmd, options){
          console.log('baidu search "%s":', cmd);
          request.baiduSearch(cmd);
        }).on('--help', function() {
          console.log('  Examples:');
          console.log();
          console.log('    grab bd    <cmd>');
          console.log('    grab baidu <cmd>');
          console.log();
        });

    program.parse(process.argv);

要模块

  https模块发起呼吁紧要有些许种方法,这里小封装了产:

  1. get情势,重要针对的凡大概的乞请,只待传递url发起get请求。果壳网的调用这些就是可了。

    function get(url,callback) {
        return https.get(url,function(response) {
            var body = '';
    
            response.on('data', function(data) {
                body += data;
            });
    
            response.on('end', function() {
                callback(body);
            });
        });
    }
    
  2. requerst模式,不但可以倡导get请求,也得发起post请求,还可改端口,请求header。这几个重大是指向限制于多之百度爬虫。百度必须安装header,同时百度请求参数为相比复杂,需要特别安排,具体而参照网上的素材。

    function request(options,callback){
        // var postData = qs.stringify({});
        var body,
        req = https.request(options, (res) => {
            console.log('STATUS: ' + res.statusCode);
            // console.log('HEADERS: ' + JSON.stringify(res.headers));
            res.setEncoding('utf8');
            res.on('data', function (chunk) {
                body+=chunk;
            });
            res.on('end',function(){
                callback(body)
            });
        });
    
        req.on('error', function(e) {
            console.log('problem with request: ' + e.message);
        });
    
        // write data to request body
        // req.write(postData);
        req.end();
    }
    
    function baiduRequset(pageNo,pageSize,keyword){
        var path='/s?'+qs.stringify({
            ie:'utf-8',
            f:8,
            rsv_bp:1,
            tn:'baidu',
            rn:pageSize,
            pn:pageNo*pageSize,
            wd:keyword
        }),
        options = {
            hostname: 'www.baidu.com',
            port: 443,
            path: path,
            method: 'GET',
            headers: {
                'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36'
            }
        };
    
        request(options,function(body){
            saveFile(pageNo,keyword,body);
            showBaiduResult(pageNo,body);
        });
    }
    

数量表达

  抓取数据将来,大家需要进行的虽是调用cheerio,以jquery获取dom内容之法门拿到结果,并出示出,当然也得保留文件要数据库。

  /**
   * 显示结果
   * @param  {[type]} pageNo [description]
   * @param  {[type]} body   [description]
   * @return {[type]}        [description]
   */
  function showBaiduResult(pageNo,body){
    var title,summary,link,
        reg=/<[^<>]+>/g,
        $ = cheerio.load(body,{decodeEntities: false});

    $('#content_left .result').each(function(i,item){
      var $a = $(item).find('h3 a');
      title = $a.html();
      link = $a.attr('href');
      summary=$(item).find('.c-abstract').html();
      if(title){
        console.log(`第${pageNo+1}页 第${i+1}条`);
        console.log(`link: ${link}`.green);
        // console.log(`title: ${title}`);
        console.log('title: ');
        ouputColor(title);
        if(summary){
          // console.log(`summary: ${summary}`);
          console.log('summary: ');
          ouputColor(summary);
        }
      }
      console.log('------------------------------');
      console.log('');
    });
  }

  // 知乎
  exports.zhihuSearch=function(keyword,cb){
    get('https://www.zhihu.com/search?type=content&q='+keyword,function(content){
      var title,summary;
      var $ = cheerio.load(content,{decodeEntities: false});
      saveFile(0,keyword,content);
      $('.list .item').each(function(i,item){
        title=$(item).find('.js-title-link').html();
        summary=$(item).find('.summary').html();
        if(title){
          // title=(''+title).replace(/<[^<>]+>/g,'');
          // summary=(''+summary).replace(/<.+>/g,'');
          console.log('title: ');
          ouputColor(title);
          if(summary){
            console.log('summary: ');
            ouputColor(summary);
          }
        }
        console.log('------------------------------');
        console.log('');
      });
    });
  };

执行爬虫

意义就后,先试验刹那间抓取今日头条的始末

grab zh webgl

抓取到之html文件保留在download文件夹,同时于命令行呈现抓取结果。
美学原理 1

要是假定实施百度的爬虫,运行而下命令行即可

grab bd webgl

总结

  这里就的是太大旨的爬虫成效,代码请看net_grab