咧咧咧 发表于 2024-1-13 20:29:09

十行python代码实现文件去重,去除重复文件的脚本

1.导入依赖

'''导入依赖'''

from pathlib import Path

import filecmp2.函数说明

filecmp.cmp(path1, path2, shallow=True)path1/path2:待比较的两个文件路径。
shallow :默认为True,即只比较os.stat()获取的元数据(创建时间,大小等信息)是否相同,
设置为False的话,在对比文件的时候还要比较文件内容。
3.提取待去重文件路径

# 初始化文件路径列表
path_files_list = []

# 遍历
for path in Path(r'/usr/load/data').iterdir():

    # 校验是否为文件
    if path.is_file():
      # 加入到待去重文件列表
      path_files_list.append(path)
#学习中遇到问题没人解答?小编创建了一个Python学习交流群:711312441
# 遍历待去重文件
for file_index in range(len(path_files_list) - 1):

    # 遍历,两辆比对
    for later in range(file_index + 1, len(path_files_list)):

      # 校验内容是否相同
      if filecmp.cmp(path_files_list,
path_files_list, shallow=False):

            # 内容相同、则删除
            path_files_list.unlink()
            break
来源:https://www.cnblogs.com/djdjdj123/p/17962516
免责声明:由于采集信息均来自互联网,如果侵犯了您的权益,请联系我们【E-Mail:cb@itdo.tech】 我们会及时删除侵权内容,谢谢合作!
页: [1]
查看完整版本: 十行python代码实现文件去重,去除重复文件的脚本