翼度科技»论坛 编程开发 python 查看内容

【Python爬虫实战项目】Python爬虫批量下载喜马拉雅评书音频并保存本地(附

4

主题

4

帖子

12

积分

新手上路

Rank: 1

积分
12
前言

今天给大家介绍的是Python爬虫批量下载评书音频并保存本地,在这里给需要的小伙伴们代码,并且给出一点小心得。
首先是爬取之前应该尽可能伪装成浏览器而不被识别出来是爬虫,基本的是加请求头,但是这样的纯文本数据爬取的人会很多,所以我们需要考虑更换代理IP和随机更换请求头的方式来对评书精选音频进行爬取。
在每次进行爬虫代码的编写之前,我们的第一步也是最重要的一步就是分析我们的网页。
通过分析我们发现在爬取过程中速度比较慢,所以我们还可以通过禁用谷歌浏览器图片、JavaScript等方式提升爬虫爬取速度。

开发工具

Python版本: 3.6
相关模块:
requests模块
re模块
环境搭建

安装Python并添加到环境变量,pip安装需要的相关模块即可。
文中完整代码及文件,评论留言获取
数据来源查询分析

浏览器中打开我们要爬取的页面
按F12进入开发者工具,查看我们想要的相声评书精选音频在哪里
这里我们需要页面数据就可以了

代码实现
  1. # 音频列表页面
  2. url = 'https://www.ximalaya.com/album/9723091'
  3. # 伪装模拟 headers 请求头<字典数据类型>
  4. headers = {
  5.     # user-agent 用户代理, 表示浏览器基本身份信息
  6.     'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.0.0 Safari/537.36',
  7.     'cookie': '你的Cookie'
  8. }
  9. # 发送请求:
  10. # 调用requests模块里面get请求方法, 对于url地址发送请求, 并且携带上headers请求头伪装, 最后用自定义变量response接受返回数据
  11. response = requests.get(url=url, headers=headers)
  12. # <Response [200]> response响应<>对象  200 状态码 表示请求成功
  13. print(response)
  14. # 音频名字
  15. titles = re.findall('"tag":0,"title":"(.*?)","playCount"', response.text)
  16. # 音频ID
  17. audio_id_list = re.findall('"url":"/sound/(\d+)","duration"', response.text)
  18. # for循环遍历, 把列表里面元素一个一个提取出来
  19. for title, audio_id in zip(titles, audio_id_list):
  20. # 字符串格式化方法 format 把 audio_id 传到 这个链接里面
  21.     link = f'https://www.ximalaya.com/revision/play/v1/audio?id={audio_id}&ptype=1'
  22.     # 发送请求
  23.     response_1 = requests.get(url=link, headers=headers)
  24.     # 获取数据 response.json() 获取响应json字典数据
  25.     # print(response_1.json())
复制代码
Cookie获取


效果展示


最后

今天的分享到这里就结束了 ,感兴趣的朋友也可以去试试哈
对文章有问题的,或者有其他关于python的问题,可以在评论区留言或者私信我哦
觉得我分享的文章不错的话,可以关注一下我,或者给文章点赞(/≧▽≦)/

来源:https://www.cnblogs.com/guzichuan/p/17037662.html
免责声明:由于采集信息均来自互联网,如果侵犯了您的权益,请联系我们【E-Mail:cb@itdo.tech】 我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x

举报 回复 使用道具