翼度科技»论坛 编程开发 python 查看内容

【Python爬虫实战项目】Python爬虫批量下载相亲网站数据并保存本地(附源码

6

主题

6

帖子

18

积分

新手上路

Rank: 1

积分
18
前言

今天给大家介绍的是Python爬虫批量下载相亲网站图片数据,在这里给需要的小伙伴们代码,并且给出一点小心得。
首先是爬取之前应该尽可能伪装成浏览器而不被识别出来是爬虫,基本的是加请求头,但是这样的纯文本数据爬取的人会很多,所以我们需要考虑更换代理IP和随机更换请求头的方式来对相亲网站图片数据进行爬取。
在每次进行爬虫代码的编写之前,我们的第一步也是最重要的一步就是分析我们的网页。
通过分析我们发现在爬取过程中速度比较慢,所以我们还可以通过禁用谷歌浏览器图片、JavaScript等方式提升爬虫爬取速度。
开发工具

Python版本: 3.6
相关模块:
requests模块
parsel模块
re模块
环境搭建

安装Python并添加到环境变量,pip安装需要的相关模块即可。
文中完整代码及文件,评论留言获取
数据来源查询分析

浏览器中打开我们要爬取的页面
按F12进入开发者工具,查看我们想要的相亲网站图片数据在哪里
这里我们需要页面数据就可以了

代码实现
  1. for page in range(1, 11):
  2.     # 请求链接
  3.     url = f'https://love.19lou.com/valueApp/api/love/searchLoveUser?page={page}&perPage=12&sex=0'
  4.     # 伪装模拟
  5.     headers = {
  6.         # User-Agent 用户代理, 表示浏览器基本信息
  7.         'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'
  8.         'Cookie':'你的Cookie'
  9.     }
  10.     # 发送请求
  11.     response = requests.get(url=url, headers=headers)
  12.     print(response)
  13.         #for循环遍历, 把列表里面元素一个一个提取出来
  14.     for index in response.json()['data']['items']:
  15.         #  https://love.19lou.com/detail/51593564  format 字符串格式化方法
  16.         link = f'https://love.19lou.com/detail/{index["uid"]}'
  17.         html_data = requests.get(url=link, headers=headers).text
  18.         # 把获取下来 html字符串数据<html_data>, 转成可解析对象
  19.         selector = parsel.Selector(html_data)
  20.         name = selector.css('.username::text').get()
  21.         info_list = selector.css('.info-tag::text').getall()
  22.         # . 表示调用方法属性
  23.         gender = info_list[0].split(':')[-1]
  24.         age = info_list[1].split(':')[-1]
  25.         height = info_list[2].split(':')[-1]
  26.         date = info_list[-1].split(':')[-1]
  27.         # 判断info_list元素个数  当元素个数4个 说明没有体重一栏
  28.         if len(info_list) == 4:
  29.             weight = '0kg'
  30.         else:
  31.             weight = info_list[3].split(':')[-1]
  32.         info_list_1 = selector.css('.basic-item span::text').getall()[2:]
  33.         zodiac = info_list_1[0].split(':')[-1]
  34.         constellation = info_list_1[1].split(':')[-1]
  35.         nativePlace = info_list_1[2].split(':')[-1]
  36.         location = info_list_1[3].split(':')[-1]
  37.         edu = info_list_1[4].split(':')[-1]
  38.         maritalStatus = info_list_1[5].split(':')[-1]
  39.         job = info_list_1[6].split(':')[-1]
  40.         money = info_list_1[7].split(':')[-1]
  41.         house = info_list_1[8].split(':')[-1]
  42.         car = info_list_1[9].split(':')[-1]
  43.         img_url = selector.css('.page .left-detail .abstract .avatar img::attr(src)').get()
  44.         # 把获取下来的数据 保存字典里面  字典数据容器
  45.         dit = {
  46.             '昵称': name,
  47.             '性别': gender,
  48.             '年龄': age,
  49.             '身高': height,
  50.             '体重': weight,
  51.             '出生日期': date,
  52.             '生肖': zodiac,
  53.             '星座': constellation,
  54.             '籍贯': nativePlace,
  55.             '所在地': location,
  56.             '学历': edu,
  57.             '婚姻状况': maritalStatus,
  58.             '职业': job,
  59.             '年收入': money,
  60.             '住房': house,
  61.             '车辆': car,
  62.             '照片': img_url,
  63.             '详情页': link,
  64.         }
  65.         csv_writer.writerow(dit)
  66.         new_name = re.sub(r'[\/"*?<>|]', '', name)
复制代码
获取Cookie


效果展示



最后

今天的分享到这里就结束了 ,感兴趣的朋友也可以去试试哈
对文章有问题的,或者有其他关于python的问题,可以在评论区留言或者私信我哦
觉得我分享的文章不错的话,可以关注一下我,或者给文章点赞(/≧▽≦)/

来源:https://www.cnblogs.com/guzichuan/p/17040519.html
免责声明:由于采集信息均来自互联网,如果侵犯了您的权益,请联系我们【E-Mail:cb@itdo.tech】 我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x

举报 回复 使用道具