本文介绍批量下载大量多时相的遥感影像文件后,基于Python语言与每一景遥感影像文件的文件名,对这些已下载的影像文件加以缺失情况的核对,并自动统计、列出未下载影像所对应的时相的方法。
批量下载大量遥感影像文件对于RS学生与从业人员可谓十分常见。在我们之前的文章批量下载大量遥感影像时基于Python核对下载情况的方法(https://www.jianshu.com/p/b56711505944)中,就介绍过同样基于文件名称,对未成功下载的遥感影像加以统计,并自动筛选出未下载成功的遥感影像的下载链接的方法;在本文中,我们同样基于Python与栅格文件的文件名称,对类似的需求加以实现。
首先,本文的需求和前述提及的文章略有不同。在这里,我们已经下载好了大量的、以遥感数据成像时间为文件名的栅格文件,如下图所示。
其中,不难发现我们这里的遥感影像数据是从每一年的001
天开始,每隔8
天生成一景影像,每一景影像的名称后3
位数字就是001
、009
、017
这样表示天数的格式;此外,前4
位数字表示年份,我们这里有从2020
开始到2022
结束、一共3
年的遥感影像数据。
现在,我们希望对于上述文件加以核对,看看在这3
年中,是否有未下载成功的遥感影像文件;如果有的话,还希望输出下载失败的文件个数和对应的文件名称(也就是对应文件的成像时间)。
明确了需求后,我们就可以开始具体的操作。首先,本文所需用到的代码如下。
# -*- coding: utf-8 -*-
"""
Created on Sat Dec 30 23:32:54 2023
@author: fkxxgis
"""
import os
def check_missing_dates(folder_path):
start_year = 2020
end_year = 2022
days_per_file = 8
missing_dates = []
for year in range(start_year, end_year + 1):
for day in range(1, 366, days_per_file):
file_name = str(year) + "{:03d}".format(day) + ".tif"
file_path = os.path.join(folder_path, file_name)
if not os.path.exists(file_path):
missing_dates.append(file_name[:-4])
return missing_dates
folder_path = "F:/Data_Reflectance_Rec/NDVI"
missing_dates = check_missing_dates(folder_path)
print("Total missing dates:", len(missing_dates))
print("Missing dates:")
for date in missing_dates:
print(date)
这段代码整体思路也很明确。
首先,我们导入所需的模块。在这里,os
模块用于文件路径操作。
接下来,我们定义一个名为check_missing_dates
的函数,其接收一个文件夹路径作为参数;这个函数用于检查遗漏的日期。在这个函数中,我们定义了起始年份start_year
和结束年份end_year
,以及每个文件之间的日期间隔 days_per_file
;随后,创建一个空列表missing_dates
,用于存储遗漏的日期。
随后,我们使用嵌套的循环遍历每一年和每一天。在每一天的循环中,构建文件名,如"2020017.tif"
,并构建文件的完整路径。接下来,使用os.path.exists()
函数检查文件路径是否存在——如果文件不存在,则将日期添加到遗漏日期列表missing_dates
中。在循环结束后,返回遗漏日期列表missing_dates
。
在函数外部,我们定义要检查的文件夹路径folder_path
,然后就可以调用check_missing_dates
函数,传入文件夹路径参数,执行日期检查,将返回的遗漏日期列表赋值给missing_dates
。
最后,我们打印遗漏日期的总数len(missing_dates)
,并打印每个具体的遗漏日期。
执行上述代码,即可出现如下图所示的结果。即在我这里,目前有8
个日期的遥感影像文件没有下载成功,我们再对照这8
个遥感影像的日期,重新到相关网站中下载即可。
至此,大功告成。