翼度科技»论坛 编程开发 JavaScript 查看内容

js玩儿爬虫

8

主题

8

帖子

24

积分

新手上路

Rank: 1

积分
24
前言

提到爬虫可能大多都会想到python,其实爬虫的实现并不限制任何语言。
下面我们就使用js来实现,后端为express,前端为vue3。
实现功能

话不多说,先看结果:

这是项目链接:https://gitee.com/xi1213/worm
项目用到的库有:vue、axios、cheerio、cron、express、node-dev
计划功能有:

  • 微博热榜爬取。
  • 知乎热榜爬取。
  • B站排行榜爬取。
  • 三个壁纸网站爬取。
  • 随机生成人脸。
  • 爬取指定页面所有图片。
  • 删除爬取的数据。
  • 定时任务(开发中)。
使用形式为:
双击打包出的exe(最好右键管理员运行,以防权限不足)。

双击exe后会弹出node后端启动的黑框。

自动在浏览器中打开操作界面(用户界面)。

爬取出的数据在exe同级目录下的exportData中。

具体实现

微博热榜


打开微博官网,f12分析后台请求,会发现它的热榜数据列表在请求接口:https://weibo.com/ajax/side/hotSearch 中,无参。

在接口列表realtime中根据页面信息,推测其字段含义:
既然数据是现成的,那我们直接使用axios即可。
获取到数据列表后将其遍历拼接成指定格式的字符串,写入txt,下面是具体方法:
weibo.js
  1. let axios = require('axios'),
  2.     writeTxt = require("../utils/writeTxt"),
  3.     { addMsg } = require("../store/index");
  4. //抓取weibo
  5. async function weiboWorm(dir, time) {
  6.     let com = 'https://weibo.com';
  7.     addMsg(`${com} 爬取中...`)
  8.     let res = await axios.get(`${com}/ajax/side/hotSearch`);
  9.     //拼接数据
  10.     let strData = `微博热榜\r\n爬取时间:${time}\r\n`
  11.     await res.data.data.realtime.forEach((l, index) => {
  12.         strData = strData +
  13.             '\r\n序号:' + (index + 1) + '\r\n' +
  14.             '关键字:' + l.word + '\r\n' +
  15.             '类别:' + l.category + '\r\n' +
  16.             '链接:https://s.weibo.com/weibo?q=%23' + l.word.replace(/\s+/g, "") + '\r\n' +
  17.             '热度:' + l.num + '\r\n' +
  18.             '\r\n\r\n=================================================================================================================='
  19.     })
  20.     writeTxt(`${dir}/weibo_${Date.now()}.txt`, strData);//写入txt
  21.     addMsg('$END');
  22. }
  23. module.exports = weiboWorm;
复制代码
writeTxt.js
  1. let fs = require('fs');
  2. //写入txt
  3. function writeTxt(filePath, data) {
  4.     fs.writeFile(filePath, data, (err) => {
  5.     })
  6. }
  7. module.exports = writeTxt;
复制代码
需要注意的是在windows中换行使用的是\r\n,在链接中需要去掉空格。
知乎热榜


打开知乎官网,会发现它是需要登录的。
f12后点击左上角第二个按钮,在浏览器中切换为手机布局,刷新后即可不登录显示文章信息。
分析请求发现文章数据在请求接口:https://www.zhihu.com/api/v3/explore/guest/feeds 中,参数为limit,限制文章数。

根据页面信息推测接口字段含义:

  • target.question.title为问题标题,
  • https://www.zhihu.com/question/ + target.question.id为问题链接,
  • target.question.answer_count为问答数,
  • target.question.author.name为提问的用户名,
  • https://www.zhihu.com/org/ + target.question.author.url_token为提问的用户链接,
  • target.content为高赞回答的内容。
需要注意的是高赞回答的内容中有html的标签,需要自己str.replace(/xxx/g,'')去除。
数据的具体获取方法同微博类似。
B站排行榜


打开B站官网,找到排行榜,f12后发现数据在接口请求:https://api.bilibili.com/x/web-interface/ranking/v2 中,无参。

推测接口字段含义:

  • title为视频标题,
  • short_link_v2为视频短链,
  • stat.view为视频浏览量,
  • desc为视频描述,
  • pic为视频封面,
  • owner.name为视频作者,
  • pub_location为发布地址,
  • https://space.bilibili.com/ + owner.mid为作者链接。
数据的具体获取方法同微博类似。
壁纸网站爬取

项目使用了下面三个网站作为例子:
http://www.netbian.com/

https://www.logosc.cn/so/

https://bing.ioliu.cn/

具体思路如下:

  • 用axios请求页面。
  • 将请求到的数据使用cheerio.load解析(cheerio为node中的jq,语法同jq)。
  • f12分析需要的数据在什么元素中,使用cheerio获取到该目标元素。
  • 获取到元素中img的src内容。
  • axios请求src(需要encodeURI转码,防止中文报错),记得设置responseType为stream。
  • 有分页的需要考虑到动态改变url中的页码。
  • 需要保证下载顺序,一张图片下载完成后才能下载另一张,否则下载量过大会有下载失败的可能,使用for配合async与await即可。
具体实现代码如下:
bian.js
  1. let fs = require('fs'),
  2.     cheerio = require('cheerio'),
  3.     axios = require('axios'),
  4.     downloadImg = require("../utils/downloadImg.js"),
  5.     { addMsg } = require("../store/index");
  6. //抓取彼岸图片
  7. async function bianWorm(dir, pageNum) {
  8.     let page = pageNum,//抓取页数
  9.         pagUrlList = [],
  10.         imgList = [],
  11.         index = 0,
  12.         com = 'https://pic.netbian.com';
  13.     addMsg(`${com} 爬取中...`)
  14.     for (let i = 1; i <= page; i++) {
  15.         let url = i == 1 ? `${com}/index.html` : `${com}/index_${i}.html`;
  16.         let res = await axios.get(url);
  17.         let $ = cheerio.load(res.data);//解析页面
  18.         let slistEl = $('.slist');//找到元素列表
  19.         slistEl.find('a').each(async (j, e) => {
  20.             pagUrlList.push(`${com}${$(e).attr('href')}`);//获取到页面url列表
  21.         })
  22.     }
  23.     pagUrlList.forEach(async (p, i) => {
  24.         let pRes = await axios.get(p);
  25.         let p$ = cheerio.load(pRes.data);//解析页面
  26.         let imgEl = p$('.photo-pic').find('img');//找到元素列表
  27.         let imgUrl = `${com}${imgEl.attr('src')}`;//获取图片url
  28.         imgList.push(imgUrl);
  29.         index++;
  30.         //循环的次数等于列表长度时获取图片
  31.         if (index == pagUrlList.length) {
  32.             let dirStr = `${dir}/bian_${Date.now()}`;
  33.             fs.mkdir(dirStr, (err) => { })
  34.             downloadImg(imgList, dirStr);//下载图片
  35.         }
  36.     })
  37. }
  38. module.exports = bianWorm;
复制代码
downloadImg.js
  1. let fs = require('fs'),
  2.     axios = require('axios'),
  3.     { addMsg } = require("../store/index");
  4. //下载图片
  5. async function downloadImg(list, path) {
  6.     if (list.length == 0) {
  7.         addMsg('$END');
  8.         return;
  9.     }
  10.     // console.log(list.length);
  11.     for (let i = 0; i < list.length; i++) {
  12.         let url = encodeURI(list[i]);//转码,防止url中文报错
  13.         try {
  14.             //计算下载的百分比
  15.             let percent = ((i + 1) / list.length * 100).toFixed(2);
  16.             let msgStr = `${percent}% 爬取中... ${url}`;
  17.             addMsg(msgStr);
  18.             if (i == list.length - 1) {
  19.                 msgStr = `图片爬取完成,共${list.length}项。`
  20.                 addMsg(msgStr);
  21.                 addMsg('$END');
  22.             }
  23.             let typeList = ['jpg', 'png', 'jpeg', 'gif', 'webp', 'svg', 'psd', 'bmp', 'tif', 'tiff', 'ico'];
  24.             let type = typeList.find((item) => {
  25.                 return url.includes(item);
  26.             });//获取图片类型
  27.             (type == undefined) && (type = 'jpg');//判断type是否为undefined
  28.             const imgPath = `${path}/${i + 1}.${type}`;//拼接本地路径
  29.             const writer = fs.createWriteStream(imgPath);
  30.             const response = await axios
  31.                 .get(url, { responseType: 'stream', timeout: 5000 }).catch(err => { });
  32.             response.data.pipe(writer);
  33.             await new Promise((resolve, reject) => {
  34.                 writer.on('finish', resolve);
  35.                 writer.on('error', reject);
  36.             });
  37.         } catch (error) { }
  38.     }
  39. }
  40. module.exports = downloadImg;
复制代码
值得注意的是需要保证准确获取图片资源的不同后缀。
随机生成人脸

这里可没有人脸算法之类的,调用的是https://thispersondoesnotexist.com/ 站点的接口,此接口每次刷新可生成不同人脸。
axios请求接口后,使用fs的createWriteStream创建可写流,将数据流写入文件中,下面是具体实现方法:
randomFace.js
  1. let fs = require('fs'),
  2.     axios = require('axios'),
  3.     { addMsg } = require("../store/index");
  4. //生成随机人脸
  5. async function randomFace(dir, faceNum) {
  6.     let com = 'https://thispersondoesnotexist.com';
  7.     addMsg(`人脸生成中...`);
  8.     let dirStr = `${dir}/randomFace_${Date.now()}`;
  9.     fs.mkdir(dirStr, (err) => { })
  10.     for (let i = 1; i <= faceNum; i++) {
  11.         await axios.get(com, { responseType: 'stream' })
  12.             .then((resp) => {
  13.                 const writer = fs.createWriteStream(`${dirStr}/${i}.jpg`);// 创建可写流
  14.                 resp.data.pipe(writer);// 将响应的数据流写入文件
  15.                 writer.on('finish', () => {
  16.                     //计算下载的百分比
  17.                     let percent = ((i) / faceNum * 100).toFixed(2);
  18.                     let msgStr = `${percent}% 人脸生成中... ${dirStr}/${i}.jpg`;
  19.                     addMsg(msgStr);
  20.                     if (i == faceNum) {
  21.                         msgStr = `人脸生成完成,共${faceNum}张。`
  22.                         addMsg(msgStr);
  23.                         addMsg('$END');
  24.                     }
  25.                 });
  26.                 writer.on('error', (err) => { addMsg('$END'); });
  27.             })
  28.     }
  29. }
  30. module.exports = randomFace;
复制代码
爬取指定页面所有图片

思路同上面获取壁纸类似,只不过这次是获取页面所有的img标签的src。
由于范围扩大到所有页面了,所以需要考虑的情况就会比较多。
有的src中是没有http或者https的,有的src使用的是相对路径,有的可能有中文字符,还有很多我没考虑到的情况。
所以并不能爬取任意页面的所有图片,比如页面加载过慢,或者用了懒加载、防盗链等技术。
下面是我实现的方法:
allWebImg.js
  1. let fs = require('fs'),
  2.     cheerio = require('cheerio'),
  3.     axios = require('axios'),
  4.     downloadImg = require("../utils/downloadImg.js"),
  5.     { addMsg } = require("../store/index");
  6. //网站所有图片
  7. async function allWebImgWorm(dir, com) {
  8.     let imgList = [];
  9.     addMsg(`${com} 爬取中...`);
  10.     let res = await axios.get(com).catch(err => { });
  11.     if (!res) {
  12.         addMsg('$END');
  13.         return
  14.     }
  15.     let $ = cheerio.load(res.data);//解析页面
  16.     //获取到页面所有图片标签组成的列表
  17.     $('img').each(async (j, e) => {
  18.         let imgUrl = e.attribs.src;//获取图片链接
  19.         if (imgUrl) {
  20.             !imgUrl.includes('https') && (imgUrl = `https:${imgUrl}`);//判断是否有https,没有则加上
  21.             imgList.push(imgUrl);
  22.         }
  23.     })
  24.     let dirStr = `${dir}/allWebImg_${Date.now()}`;
  25.     fs.mkdir(dirStr, (err) => { })
  26.     downloadImg(imgList, dirStr);//下载图片
  27. }
  28. module.exports = allWebImgWorm;
复制代码
删除爬取的数据

使用fs.unlinkSync删除文件,fs.rmdirSync删除目录。
需要提前判断文件夹是否存在。
需要遍历文件,判断是否为文件。为文件则删除,否则递归遍历。
下面是我的方法:
deleteFiles.js
  1. let fs = require('fs'),
  2.     path = require('path');
  3. //删除文件夹及文件夹下所有文件
  4. const deleteFiles = (directory) => {
  5.     if (fs.existsSync(directory)) {
  6.         fs.readdirSync(directory).forEach((file) => {
  7.             const filePath = path.join(directory, file);
  8.             const stat = fs.statSync(filePath);
  9.             if (stat.isFile()) {
  10.                 fs.unlinkSync(filePath);
  11.             } else if (stat.isDirectory()) {
  12.                 deleteFiles(filePath);
  13.             }
  14.         });
  15.         if (fs.readdirSync(directory).length === 0) {
  16.             fs.rmdirSync(directory);
  17.         }
  18.     }
  19.     fs.mkdir('./exportData', (err) => { })
  20. };
  21. module.exports = deleteFiles;
复制代码
定时任务

项目中该功能正在开发中,只放了一个按钮,但思路已有了。
在node中的定时操作可用cron实现。
下面是一个小例子,每隔10秒打印一次1:
  1. const cron = require('cron');
  2. async function startTask() {
  3.      let cronJob = new cron.CronJob(
  4.     //秒、分、时、天、月、周
  5.     //通配符:,(时间点)-(时间域)*(所有值)/(周期性,/之前的0与*等效)?(不确定)
  6.      '0/10 * * * * *',
  7.      async () => {
  8.      console.log(1);
  9.          },
  10.          null,
  11.          true,
  12.          'Asia/Shanghai'//时区标识符
  13.      );
  14. };
复制代码
注意事项

Server-Sent Events(SSE)


该项目中前后端数据交互接口大多使用的是get请求,但有一个除外,反显爬取进度的接口:/getTaskState。
该接口使用的是SSE,爬取的进度与链接是实时显示的。
最近火热的ChatGPT的流式输出(像人打字一样一个字一个字的显示)使用的便是这个。
SSE虽然与WebSocket一样都是长链接,但不同的是,WebSocket为双工通信(服务器与客户端双向通信),SSE为单工通信(只能服务器向客户端单向通信)。
项目中node服务端发送数据是这样的:
  1. // 事件流获取任务状态
  2.     app.get('/getTaskState', async (req, res, next) => {
  3.         res.writeHead(200, {
  4.             'Content-Type': 'text/event-stream',
  5.             'Cache-Control': 'no-cache',
  6.             'Connection': 'keep-alive',
  7.         });
  8.         let sendStr = ''//发送的消息
  9.         let id = setInterval(() => {
  10.             msgList = getMsg();
  11.             //消息列表不为空且最后一条消息不等于上一次发送的消息才能执行
  12.             if (msgList.length != 0 && msgList[msgList.length - 1] != sendStr) {
  13.                 sendStr = msgList[msgList.length - 1];
  14.                 console.log('\x1B[32m%s\x1B[0m', sendStr)
  15.                 res.write(`data: ${sendStr}\n\n`);//发送消息
  16.             }
  17.         }, 10);
  18.         req.on('close', () => {
  19.             clearMsg();//清空消息
  20.             res.end();//结束响应
  21.             clearInterval(id);//清除定时器(否则内存泄漏)
  22.         });
  23.     });
复制代码
需要在res.writeHead中Content-Type设置为text/event-stream即表示使用SSE发送数据。
res.write('data: test\n\n')即表示发送消息:test,每次发送消息需要以data:开头,\n\n结尾。
使用setInterval控制消息发送频率。
需要在服务端监听何时关闭,使用req.on('close',()=>{})。
监听到关闭时执行响应结束res.end()与清除定时器clearInterval(id)。
在vue客户端接收数据是这样的:
  1. //事件流获取任务状态
  2. const getTaskState = () => {
  3.   stateMsg.value = "";
  4.   isState.value = true;
  5.   let eventSource = new EventSource(origin.value + '/getTaskState');
  6.   eventSource.onmessage = (event) => {
  7.     if (event.data != '$END') {
  8.       stateMsg.value = event.data;
  9.     } else {
  10.       eventSource.close();//关闭连接(防止浏览器3秒重连)
  11.       stateMsg.value = '执行完成!是否打开数据文件夹?';
  12.       isState.value = false;
  13.       setTimeout(() => {
  14.         confirm(stateMsg.value) &&
  15.           axios.get(origin.value + '/openDir').then(res => { })//打开数据文件夹
  16.       }, 100);
  17.     }
  18.   };
  19.   //处理错误
  20.   eventSource.onerror = (err) => {
  21.     eventSource.close();//关闭连接
  22.     stateMsg.value = ''
  23.     isState.value = false;
  24.   };
  25. };
复制代码
直接在方法中new一个EventSource(url),这是H5中新提出的对象,可用于接收服务器发送的事件流数据。
使用EventSource接收数据,直接在onmessage中获取event.data即可。
关闭连接记得使用eventSource.close()方法,因为服务器单方面关闭连接会触发浏览器3秒重连。
处理错误使用eventSource.onerror方法。
关于关闭SSE连接的时机,这是由node服务端决定的。
我在后端有一个store专门用于存储消息数据:
store/index.js
  1. let msgList = [];//消息列表
  2. function addMsg(msg) {
  3.     msgList.push(msg);
  4. }
  5. function getMsg() {
  6.     return msgList;
  7. }
  8. function clearMsg() {
  9.     //清空msgList中元素
  10.     msgList = [];
  11. }
  12. module.exports = {
  13.     addMsg,
  14.     getMsg,
  15.     clearMsg
  16. };
复制代码

  • 在爬取数据时,后端会计算爬取的进度,将生成的消息字符串push到msgList列表中,每隔10ms发送给前端msgList列表中的最后一个元素。
  • 当后端数据爬取完成时会向msgList中push存入指定字符串:$END,表示获取完成。
  • 当前端识别到获取的消息为$END时,关闭连接。
  • 后端监听到前端连接被关闭,则后端也关闭连接。
pkg打包

全局安装pkg时最好网络环境为可访问github的环境,否则你只能手动下载那个失败的包再扔到指定路径。
pkg安装完成后需要在package.json中配置一番(主要是配置assets,将public与需要的依赖包打包进exe中)。
这是我的package.json配置:
  1. {
  2.   "name": "worm",
  3.   "version": "0.1.3",
  4.   "description": "",
  5.   "bin": "./index.js",
  6.   "scripts": {
  7.     "start": "node-dev ./index.js",
  8.     "dist": "node pkg-build.js"
  9.   },
  10.   "pkg": {
  11.     "icon": "./public/img/icon.ico",
  12.     "assets": [
  13.       "public/**/*",
  14.       "node_modules/axios/**/*.*",
  15.       "node_modules/cheerio/**/*.*",
  16.       "node_modules/cron/**/*.*",
  17.       "node_modules/express/**/*.*"
  18.     ]
  19.   },
  20.   "author": "",
  21.   "license": "ISC",
  22.   "dependencies": {
  23.     "axios": "^0.27.2",
  24.     "cheerio": "^1.0.0-rc.12",
  25.     "cron": "^2.3.1",
  26.     "express": "^4.18.2",
  27.     "node-dev": "^8.0.0"
  28.   }
  29. }
复制代码
我的打包命令是通过scripts中的dist在pkg-build.js中引入的,因为我需要将版本号输出在打包出的exe文件名中。
若打包命令直接写在package.json的scripts中会无法读取打包进程中项目的version。
这是我的pkg-build.js:
  1. //只有通过node xxx.js方式执行的命令才能获取到package.json的version
  2. const pkg = require('./package.json'),
  3.     { execSync } = require('child_process');
  4. const outputName = `dist/worm_v${pkg.version}.exe`;//拼接文件路径
  5. const pkgCommand = `pkg . --output=${outputName} --target=win --compress=GZip`;//打包命令
  6. execSync(pkgCommand);//执行打包命令
复制代码
上面命令中的output表示输出路径(包含exe文件名),target表示打包的平台,compress表示压缩格式。
需要注意的是使用pkg打包时,项目中axios的版本不能太高。
否则即使你将axios写在pkg的打包配置里也无济于事,我使用的axios版本为0.27.2。
解决跨域

我node使用的是express,直接在header中配置Access-Control-Allow-Origin为* 即可。
  1. app.all('*', (req, res, next) => {
  2.         res.header("Access-Control-Allow-Origin", "*");//允许所有来源访问(设置跨域)
  3.         res.header("Access-Control-Allow-Headers", "X-Requested-With,Content-Type");//允许访问的响应头
  4.         res.header("Access-Control-Allow-Methods", "PUT,POST,GET,DELETE,OPTIONS");//允许访问的方法
  5.         res.header("X-Powered-By", ' 3.2.1');//响应头
  6.         res.header("Content-Type", "application/json;charset=utf-8");//响应类型
  7.         next();
  8.     });
复制代码
child_process模块

众所周知,node是单线程运行的,在主线程中执行大量计算任务时会产生无响应的问题。
但node内置的child_process模块却可以创建新的进程,在新进程中执行操作不会影响到主进程的运行。
在此项目中自动打开浏览器、打开指定文件夹、执行打包命令用的就是它。
  1. // 打开数据文件夹
  2. app.get('/openDir', (req, res) => {
  3.     res.send('ok');
  4.    //打开文件夹,exe环境下需要使用exe所在目录
  5.     let filePath = isPkg ?
  6.         `${path.dirname(process.execPath)}${dir.replace('./', '\\')}` :
  7.         path.resolve(__dirname, dir);
  8.     exec(`start ${filePath}`);
  9. });
  10. //监听端口
  11. app.listen(port, () => {
  12.     let url = `http://${ipStr}:${port}`;
  13.     isPkg && exec(`start ${url}`);//打包环境下自动打开浏览器
  14.     //判断是否存在exportData文件夹,没有则创建
  15.     fs.exists(dir, async (exists) => {
  16.         !exists && fs.mkdir(dir, (err) => { });
  17.     })
  18.     console.log(
  19.         '\x1B[31m%s\x1B[0m',
  20.         `\n
  21. ${time} 爬虫服务开启!\n
  22. 运行过程中禁止点击此窗口!\n
  23. 如需关闭爬虫关闭此窗口即可!\n`
  24.     );
  25. });
复制代码
设置静态资源

前端使用vue开发时,需要将vue.config.js中的publicPath配置设置为./之后再打包。
将vue打包后dist内的文件拷贝到node项目的public目录下。
需要在express设置请求头之前使用static(path.join(__dirname, './public'))设置静态资源:
  1. const app = express();
  2. const isPkg = process.pkg;//判断是否为打包环境
  3. const port = isPkg ? 2222 : 1111;//端口
  4. const ipStr = getLocalIp();//获取本机ip
  5. let time = getFormatTime();//获取格式化时间
  6. let dir = './exportData';
  7. app.use(express.json());//解析json格式
  8. app.use(express.static(path.join(__dirname, './public')));//设置静态资源
  9. app.all('*', (req, res, next) => {
  10.     res.header("Access-Control-Allow-Origin", "*");//允许所有来源访问(设置跨域)
  11.     res.header("Access-Control-Allow-Headers", "X-Requested-With,Content-Type");//允许访问的响应头
  12.     res.header("Access-Control-Allow-Methods", "PUT,POST,GET,DELETE,OPTIONS");//允许访问的方法
  13.     res.header("X-Powered-By", ' 3.2.1');//响应头
  14.     res.header("Content-Type", "application/json;charset=utf-8");//响应类型
  15.     next();
  16. });
复制代码
关于运行时的黑框

双击exe时,不仅会弹出浏览器用户页面,还会弹出黑框,点击黑框内部还会暂停程序运行。
我有想过使用pm2守护进程干掉黑框,但想到关闭爬虫时只需关闭黑框即可,便留下了黑框。

限制爬取次数

做人,特别是做开发,你得有道德,你把人家网站给玩儿崩了这好吗(′⌒`)?
没有任何东西是无限制的,我的限制是放在前端的(可能不太严谨),以爬取壁纸为例,调用inputLimit(num),入参为执行次数,方法是这样的:
  1. //输入限制
  2. const inputLimit = (pageNum) => {
  3.   let val = prompt(`输入执行次数(小于等于${pageNum})`, "");
  4.   if (val == null || isNaN(val) || parseInt(val) < 1 || parseInt(val) > pageNum) {
  5.     return false;
  6.   }
  7.   return parseInt(val);
  8. };
  9. //彼岸壁纸
  10. const bianWorm = () => {
  11.   let val = inputLimit(10);
  12.   if (val) {
  13.     axios.get(origin.value + '/bianWorm?pageNum=' + val).then(res => { });
  14.     getTaskState();
  15.   }
  16. };
复制代码
后端获取到pageNum参数后,以此作为执行爬虫逻辑的循环依据。
结语

这是我第一次用js玩儿爬虫,很多地方可能不太完善,还请大佬们指出,谢谢啦!
此项目仅供学习研究,勿作他用。
原文链接:https://xiblogs.top/?id=60

来源:https://www.cnblogs.com/xi12/p/17621682.html
免责声明:由于采集信息均来自互联网,如果侵犯了您的权益,请联系我们【E-Mail:cb@itdo.tech】 我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x

上一篇: js玩儿爬虫

下一篇: js玩儿爬虫

举报 回复 使用道具