Je démarre une étude avec des fichiers netcdf bruts très lourds, avec énormément de dimensions et variables.
Pour mes questions scientifiques, j'ai besoin de les "nettoyer" pour ne garder qu'une version allégée de ces derniers, avec seulement la structure suivante si je fais un ncdump (je travaille sous Linux)
Code : Tout sélectionner
ncdump -h nom_fichier.nc
netcdf nom_fichier {
dimensions:
Longitude =
Latitude =
Depth =
Time =
variables:
double Longitude(Longitude) ;
Longitude:units = "degrees_east" ;
Longitude:long_name = "Longitude" ;
double Latitude(Latitude) ;
Latitude:units = "degrees_north" ;
Latitude:long_name = "Latitude" ;
int Depth(Depth) ;
Depth:units = "meters" ;
Depth:long_name = "Depth" ;
double Time(Time) ;
Time:units = "seconds since 1900-01-01T00:00:00Z" ;
Time:long_name = "Time" ;
Time:calendar = "standard" ;
float zu(Time, Depth, Latitude, Longitude) ;
zu:units = "m.s-1" ;
zu:_FillValue = 1.267651e+30f ;
float zv(Time, Depth, Latitude, Longitude) ;
zv:units = "m.s-1" ;
zv:_FillValue = 1.267651e+30f ;
float sal(Time, Depth, Latitude, Longitude) ;
sal:units = "psu" ;
sal:_FillValue = 99.f ;
float temp(Time, Depth, Latitude, Longitude) ;
temp:units = "degrees_Celsius" ;
temp:_FillValue = 99.f ;
}
Ce que j'aimerais faire avec R - et les packages suivants : Rcpp, ncdf4, stringr, plyr - c'est isoler seulement les variables que je mentionnais ci-dessus d'un gros fichier netcdf de base.
Avez-vous des idées ou des conseils de scripts qui font cela ?
Merci beaucoup pour votre aide,