翼度科技»论坛 编程开发 python 查看内容

Python爬虫:实现爬取、下载网站数据的几种方法

6

主题

6

帖子

18

积分

新手上路

Rank: 1

积分
18
使用脚本进行下载的需求很常见,可以是常规文件、web页面、Amazon S3和其他资源。Python 提供了很多模块从 web 下载文件。下面介绍
一、使用 requests

requests 模块是模仿网页请求的形式从一个URL下载文件
示例代码:
  1. import requests
  2. url = 'xxxxxxxx'  # 目标下载链接
  3. r = requests.get(url)  # 发送请求
  4. # 保存
  5. with open ('r.txt', 'rb') as f:
  6.     f.write(r.content)
  7.     f.close
复制代码
二、使用 wget

安装 wget 库
  1. pip install wget
复制代码
示例代码
  1. import wget
  2. url = 'https://pic.cnblogs.com/avatar/1197773/20170712160655.png'  # 目标路由,下载的资源是图片
  3. path = 'D:/x.png'  # 保存的路径
  4. wget.download(url, path)  # 下载
复制代码
三、下载重定向资源

有些 URL 会被重定向到另一个 URL,后者是真正的下载链接。很多软件的下载其实都是这样的形式。URL看起来如下
  1. https://readthedocs.org/projects/python-guide/downloads/pdf/latest
复制代码
重定向的 URL 也可以用 requests 库进行下载,只需加一个参数就可以
  1. import requests
  2. url = 'https://readthedocs.org/projects/python-guide/downloads/pdf/latest'
  3. # allow_redirect参数True表示允许重定向
  4. r = requests.get(url, allow_redirect=True)
  5. with open('r.txt', 'wb') as f:
  6.     f.write(r)
  7.     f.close()
复制代码
四、大文件分块下载

有些文件非常的大,如果我们直接下载,可能会因为事件原因或者网络原因造成下载失败,这时候我可以使用分块下载的形式进行下载。
requests 支持分块下载,只需要将 stream 设为True 即可
  1. import requests
  2. url = 'https://readthedocs.org/projects/python-guide/downloads/pdf/latest'
  3. # stream参数True表示分块下载
  4. r = requests.get(url, stream=True)
  5. with open('r.txt', 'wb') as f:
  6.     for ch in r:
  7.         f.write(r)
  8.     f.close()
复制代码
五、并行下载

多线程、多进程并发下载,大大提高下载速度
  1. import requests
  2. from multiprocessing.poll import Pool
  3. # 定义下载函数
  4. def url_response(url):
  5.     path, url = url
  6.     r = requests.get(url, stream=True)
  7.     with open(path, 'wb') as f:
  8.         for ch in r:
  9.             f.write(ch)
  10.         f.close()
  11. urls = ['aaa', 'bbb', 'ccc']  # 假设有好多个下载链接
  12. # 排队下载的方式
  13. for x in urls:
  14.     url_response(x)
  15. # 并行下载的方式
  16. ThreadPool(3).imap_unordered(url_response, urls)
复制代码
六、下载中加入进度条

使用进度条更直观的查看下载进度,这里使用 clint 模块实现进度条功能
  1. pip install clint
复制代码
下载
  1. import requests
  2. from clint.textui import progess
  3. url = 'xxxxxxxxxxx'
  4. r = requests.get(url, stream=True)
  5. with open('x.txt', 'wb') as f
  6.     total_length = int(r.headers.get('content-length'))
  7.     for ch in progress.bar(r.iter_content(chunk_size=2391975, expected)size=(total_length/1024)+1)):
  8.         if ch:
  9.             f.write(ch)
  10.     f.close()
复制代码
七、使用 urllib 模块下载

urllib库是Python的标准库,因此不需要安装它。
下载代码
  1. urllib.request.urlretrieve(URL, PATH)
复制代码
八、通过代理下载

因为一些众所周知的原因我们下载国外的资源会非常的慢,这时候可以使用代理的方式进行下载
requests 模块使用代理
  1. import requests
  2. # 定义代理,假设本机上有个梯子的服务,代理端口是2258
  3. proxy = {'http': 'http://127.0.0.1:2258'}
  4. url = 'xxxxxx'
  5. r = requests.get(url, proxies=proxy )
  6. .......
复制代码
urllib 模块使用代理
  1. import urllib.request
  2. #Python小白学习交流群:153708845
  3. url = 'xxxxxxxxxx'
  4. proxy = urllib.request.ProxyHandler({'http': '127.0.0.1'})
  5. open_proxy = urllib.request.build_opener(proxy )  # 打开代理
  6. urllib.request.urlretrieve(url)
复制代码
九、使用 urllib3

urllib3 是 urllib 模块的改进版本。使用pip下载并安装
  1. pip install urllib3
复制代码
来源:https://www.cnblogs.com/python1111/p/17817780.html
免责声明:由于采集信息均来自互联网,如果侵犯了您的权益,请联系我们【E-Mail:cb@itdo.tech】 我们会及时删除侵权内容,谢谢合作!

举报 回复 使用道具