跳至主要內容

【nest】数据爬取

holic-x...大约 9 分钟项目itc

【nest】数据爬取

项目介绍

​ 基于nest构建爬虫项目,用于自动爬取数据。

项目源码

项目构建

  • npm、nest
  • 数据存储:mysql数据库

jd-spider-demo:jd数据爬取

1.项目基础构建

创建项目并初始化

mkdir jd-spider-demo
cd jd-spider-demo
npm init -y

导入puppeteer

npm install --save puppteer

编写爬取逻辑

import puppeteer from 'puppeteer';
const browser = await puppeteer.launch({
    headless: false,
    defaultViewport:{
        width: 0,
        height: 0
    }
});
const page = await browser.newPage();

await page.goto('https://www.zhipin.com/web/geek/job');

await page.waitForSelector('.job-list-box');

await page.click('.city-label', {
    delay: 500
});
await page.click('.city-list-hot li:first-child', {
    delay: 500
});

await page.focus('.search-input-box input');
await page.keyboard.type('后端',{
    delay: 200
});
await page.click('.search-btn',{
    delay: 1000
});

测试

# 执行指令
node ./test.js

​ 跑代码之前先将package.json设置type为module,支持es module的import,否则会提示下列错误

import puppeteer from 'puppeteer';
^^^^^^

SyntaxError: Cannot use import statement outside a module
    at wrapSafe (node:internal/modules/cjs/loader:1389:18)
    at Module._compile (node:internal/modules/cjs/loader:1425:20)

​ 参考修改package.json

{
  "name": "jd-spider-demo",
  "version": "1.0.0",
  "main": "index.js",
  "type":"module",
  "scripts": {
    "test": "echo \"Error: no test specified\" && exit 1"
  },
  "keywords": [],
  "author": "",
  "license": "ISC",
  "description": "",
  "dependencies": {
    "puppeteer": "^22.8.0"
  }
}

测试效果

​ 这段代码执行会自动打开一个页面,执行自动化脚本文件,然后访问boss内容,通过输入指定参数类型,进行自动检索,例如此处输入【后端】

image-20240507085826746

优化:查看检索的url,其实只要url带有type参数、city参数即可打开页面,不需要默认人工去进行检索,因此可以优化为直接访问指定配置的url

# 访问URL
https://www.zhipin.com/web/geek/job?query=后端&city=100010000

# testV2.js
import puppeteer from  'puppeteer';
const browser = await puppeteer.launch({
    headless: false,
    defaultViewport:{
        width: 0,
        height: 0
    }
});
const page = await browser.newPage();
// 打开指定URL
await page.goto('https://www.zhipin.com/web/geek/job?query=后端&city=100010000');
await page.waitForSelector('.job-list-box');

2.解析爬取数据

​ 经过上述步骤,获取到页面信息,随后根据捕获的页面信息,解析每个Elements参数,拿到数据记录

获取页数:options-pages 的倒数的第二个a标签信息

image-20240507091106584

# 进一步完善代码,获取到结果信息

// 获取页数信息
const res = await page.$eval('.options-pages a:nth-last-child(2)',el =>{
    return parseInt(el.textContent)
});
// 打印数据到控制台
console.log(res);

image-20240507092956363

遍历数据列表:从每个dom中解析数据

image-20240507093559635

// 1.获取页数信息
const totalPage = await page.$eval('.options-pages a:nth-last-child(2)', el => {
    return parseInt(el.textContent)
});
console.log('检索页数:',totalPage);

// 2.遍历岗位信息数据列表
const allJobs = []; for (let i = 1; i <= totalPage; i++) {
    // 依次打开每一页的内容
    await page.goto('https://www.zhipin.com/web/geek/job?query=后端&city=100010000&page=' + i);
    await page.waitForSelector('.job-list-box');
    // 解析每个节点的数据
    const jobs = await page.$eval('.job-list-box', el => {

        return [...el.querySelectorAll('.job-card-wrapper')].map(item => {
            return {
                job: {
                    name: item.querySelector('.job-name').textContent,
                    area: item.querySelector('.job-area').textContent,
                    salary: item.querySelector('.salary').textContent
                },
                link: item.querySelector('a').href,
                company: {
                    name: item.querySelector('.company-name').textContent
                }
            }
        })
    });
    // 存储所有的数据信息
    allJobs.push(...jobs);
}
console.log('检索结果:',allJobs);

image-20240507093207793

​ 执行结果进行测试,可以拿到每个节点的岗位信息,程序执行会自动打开每一页并爬取岗位数据的基本信息。

岗位详情获取:基于上述,可以拿到每个列表子项信息,需要进一步点击链接进入详情页面拿到岗位详情信息

​ 点击链接,查看岗位详情,确认岗位详情数据节点内容

image-20240507094248780

// 3.获取所有列表数据的详情信息
for(let i=0; i< allJobs.length;i ++){
    await page.goto(allJobs[i].link);
    try{
        await page.waitForSelector('.job-sec-text');
        const jd= await page.$eval('.job-sec-text', el => {
            return el.textContent
        });
        allJobs[i].desc = jd;
        console.log(allJobs[i]);
    }catch(e){
        // 捕获异常处理(例如页面打开可能会超时导致终止,直接跳过即可)
        console.log('捕获异常....');
    }
}

​ 执行测试,页面在获取到所有的岗位信息之后,会根据当前捕获到的岗位详情,随后依次打开所有的数据列表详情信息,进一步解析岗位详情

image-20240507094833338

3.数据入库

项目初始化

​ 基于上述解析完成的内容,则可构建后台进行数据入库,此处新建一个nest项目(boss-jd-spider),进行数据入库

# 如果没有安装nest需要手动安装(手动全局安装),否则提示zsh: command not found: nest
npm i -g @nestjs/cli

# 创建一个nest项目
nest new boss-jd-spider
- 会提示package管理器,按需选择(npm、yarn、pnpm)

image-20240507100028814

# 切换到对应项目,启动
cd boss-jd-spider
npm run start

# 浏览器输入http://localhost:3000/访问,则可以看到Hello World

数据库环境配置

mysql数据库配置

​ 配置数据库环境,此处使用mysql数据库。

项目配置数据库连接

​ 在nest项目中使用TypeORM连接mysql数据库,先安装所需依赖

​ mysql2:数据库驱动,typeorm:orm框架、nestjs/typeorm是nest集成typeorm框架所需

npm install --save @nestjs/typeorm typeorm mysql2

1)在AppModule中引入TypeORM,指定数据库连接配置,src/app.module.ts参考源码文件如下

image-20240507101036607

import { Module } from '@nestjs/common';
import { AppController } from './app.controller';
import { AppService } from './app.service';
import { TypeOrmModule } from '@nestjs/typeorm';

@Module({
  imports: [
    TypeOrmModule.forRoot({
      type: "mysql",
      host: "localhost",
      port: 3306,
      username: "root",
      password: "root",
      database: "boss-js-spider",
      synchronize: true,
      logging: true,
      entities: [],
      poolSize: 10,
      connectorPackage: 'mysql2',
      extra: {
        authPlugin: 'sha256 password',
      }
    }),
  ],
  controllers: [AppController],
  providers: [AppService],
})
export class AppModule { }

2)创建entites/Job.ts(实体类构建):定义岗位信息(链接和描述可能会比较长,设置为text类型大文本存储)

import { Column, Entity, PrimaryGeneratedColumn } from "typeorm";

@Entity()
export class Job {

    @PrimaryGeneratedColumn()
    id: number;

    @Column({
        length: 30,
        comment: '职位名称'
    })
    name: string;

    @Column({
        length: 20,
        comment: '区域'
    })
    area: string;

    @Column({
        length: 10,
        comment: '薪资范围'
    })
    salary: string;

    @Column({
        length: 600,
        comment: '详情页链接'
    })
    link: string;

    @Column({
        length: 30,
        comment: '公司名'
    })
    company: string;

    @Column({
        type: 'text',
        comment: '职位描述'
    })
    desc: string;
}

3)然后在AppModule中引入实体定义

import { Job } from './entites/Job';
@Module({
  imports: [
    TypeOrmModule.forRoot({
      ...... 其他定义 ......
      entities: [Job],
      ...... 其他定义 ......
    }),
  ],
})
export class AppModule { }

4)启动项目,TypeORM会自动建表

​ 如果数据库连接失败,则需检查AppModule的数据库连接配置

npm run start

image-20240507102605635

​ 此时可以查看mysql数据库确认数据表是否构建完成

数据解析入库

安装puppeteer依赖

npm install --save puppeteer

1)在AppController(src/app.controller.ts)中添加一个启动爬虫的接口(startSpider)

import { Controller, Get } from '@nestjs/common';
import { AppService } from './app.service';

@Controller()
export class AppController {
  constructor(private readonly appService: AppService) {}

  @Get()
  getHello(): string {
    return this.appService.getHello();
  }

  // 启动爬虫接口
  @Get('start-spider')
  startSpider(){
    this.appService.startSpider();
    return "爬虫已启动";
  }
}

2)在AppService中实现爬虫接口(src/app.service.ts),并将上述步骤1、2中的爬虫实现搬过来

​ 此处唯一需要变动的地方是需要将headless设置为true,此处不需要界面

import { Injectable } from '@nestjs/common';
import puppeteer from 'puppeteer';

@Injectable()
export class AppService {
  getHello(): string {
    return 'Hello World!';
  }

  // 实现爬虫
  async startSpider() {
    const browser = await puppeteer.launch({
      headless: true, // 将headless设置为true,此处不需要界面
      defaultViewport: {
        width: 0,
        height: 0
      }
    });
    const page = await browser.newPage();
    // 打开指定URL
    await page.goto('https://www.zhipin.com/web/geek/job?query=后端&city=100010000');
    await page.waitForSelector('.job-list-box');

    // 1.获取页数信息
    const totalPage = await page.$eval('.options-pages a:nth-last-child(2)', el => {
      return parseInt(el.textContent)
    });
    console.log('检索页数:', totalPage);

    // 2.遍历岗位信息数据列表
    const allJobs = []; for (let i = 1; i <= totalPage; i++) {
      // 依次打开每一页的内容
      await page.goto('https://www.zhipin.com/web/geek/job?query=后端&city=100010000&page=' + i);
      await page.waitForSelector('.job-list-box');
      // 解析每个节点的数据
      const jobs = await page.$eval('.job-list-box', el => {

        return [...el.querySelectorAll('.job-card-wrapper')].map(item => {
          return {
            job: {
              name: item.querySelector('.job-name').textContent,
              area: item.querySelector('.job-area').textContent,
              salary: item.querySelector('.salary').textContent
            },
            link: item.querySelector('a').href,
            company: {
              name: item.querySelector('.company-name').textContent
            }
          }
        })
      });
      // 存储所有的数据信息
      allJobs.push(...jobs);
    }
    console.log('检索结果:', allJobs);

    // 3.获取所有列表数据的详情信息
    for (let i = 0; i < allJobs.length; i++) {
      await page.goto(allJobs[i].link);
      try {
        await page.waitForSelector('.job-sec-text');
        const jd = await page.$eval('.job-sec-text', el => {
          return el.textContent
        });
        allJobs[i].desc = jd;
        console.log(allJobs[i]);
      } catch (e) {
        // 捕获异常处理(例如页面打开可能会超时导致终止,直接跳过即可)
        console.log('捕获异常....');
      }
    }
  }

}

3)启动程序,访问爬虫接口确认是否可以正常爬取数据

​ 访问http://localhost:3000/start-spider

​ 访问成功页面返回:爬虫已启动,检查控制台信息

image-20240507113720874

​ 出现上述问题是因为爬虫响应超时,需要调整代码。TimeoutError: Waiting for selector .job-list-box failed: Waiting failed: 3 这个错误通常发生在使用像是 Puppeteer 这样的浏览器自动化工具时,当试图等待页面上的一个选择器(在这个例子中是 .job-list-box 类)出现并且可以操作时。错误表明工具在指定的时间内没有能够找到或者交互(操作)这个选择器,因此触发了超时。

解决方法:

【1】增加等待时间:你可以增加等待选择器的时间来解决这个问题。在 Puppeteer 中,可以使用 page.waitForSelector(selector[, options]) 方法,通过传递一个带有更长 timeout 值的 options 对象来实现。

await page.waitForSelector('.job-list-box', { timeout: 60000 }); // 增加到60秒

【2】检查选择器是否正确:确保 .job-list-box 是正确的类名或其他选择器,并且它确实存在于页面上(这点可以通过前面的testV2.js进行排查)

【3】检查页面加载情况:确保在尝试等待选择器之前页面已经完全加载。可以使用 page.goto(url[, options]) 方法,并等待其 'load' 事件来确保页面加载完成

await page.goto(url, { waitUntil: 'load' });
await page.waitForSelector('.job-list-box');

【4】使用异步等待:如果是在循环中等待,可以考虑使用异步等待,以避免无限期阻塞事件循环

while (!document.querySelector('.job-list-box')) {
  await new Promise(resolve => setTimeout(resolve, 100));
}

​ 根据上述【1】、【2】方案调整均还是出现超时问题

​ 此处将 需要将headless设置为false,让页面正常加载才能拿到数据(有待考究:测试下win、mac版本),控制台正常打印,爬取数据

​ 或者大概预测爬取时间,增加等待选择器时间

4)数据库存储

​ 在AppService中,定义实体将爬取到的数据封装好并存入数据库中

import { Job } from './entites/Job';
import { EntityManager } from 'typeorm';

@Injectable()
export class AppService {

  @Inject(EntityManager)
  private entityManager: EntityManager;
  
  async startSpider() {
  	// ...... 数据爬取并解析 ......
  	
  	// 数据入库(单条依次插入)
    		const job = new Job();
        job.name = allJobs[i].job.name;
        job.area = allJobs[i].job.area;
        job.salary = allJobs[i].job.salary;
        job.link = allJobs[i].link;
        job.company = allJobs[i].company.name;
        job.desc = allJobs[i].desc;
        await this.entityManager.save(Job, job);
  }
}

5)检查数据是否入库

image-20240507131412283

如果想要在前端实时查看爬取到的数据,可以通过sse来实时返回

// 实时查看爬取的数据
  @Sse('stream')
  stream() {
    return new Observable((observer) => {
      observer.next({ data: { msg: 'aaa' } });

      /*
      setTimeout(() => {
        observer.next({ data: { msg: 'bbb' } });
      }, 2000);

      setTimeout(() => {
        observer.next({ data: { msg: 'ccc' } });
      }, 5000);
      */

    });
评论
  • 按正序
  • 按倒序
  • 按热度
Powered by Waline v3.1.3