Merci pour cette première réponse. Je vais regarder tout ça d'un peu plus près. L'optimisation est nécessaire car le script est trop gourmand en temps.
Bonjour à tous, Je suis à la recherche de conseils ou d'avis pour rendre le plus efficace possible le script R qui consiste à réaliser les différentes étapes décrites ci-dessous. 1) Sélection aléatoire de N de relevés écologiques voisins dans un cercle de diamètre Dmax (méthode near neighbour search...
Bonjour, En fait après prise d'information auprès de personnes compétentes, je sais maintenant que le problème vient du fait que sur une distribution normale les quantiles à 0 et 1 sont -Inf et Inf. Or ces quantiles sont échantillonnés par la méthode FAST. Du coup il y a des valeurs -Inf et Inf dans...
Bonjour à tous, Je souhaiterais utiliser la fonction fast99 du paquet sensitivity (ie une technique d'analyse de sensibilité) pour des distributions de mes facteurs d'entrée qui soient normales. Or la fonction ne me donne aucun résultat en sortie quand je mets qnorm en entrée alors qu'elle fonctionn...
Justement c'est pour éviter l'utilisation de dist trop couteux en temps de calcul / stockage (j'ai plus de 120 000 relevés....). Apparemment il existe des algorithmes de recherche spatiale efficaces qui ne nécessitent pas le cacul des distances mais qui, semble-t-il, fonctionnent sur un tri des coor...
Bonjour à tous, Savez-vous s'il est possible de faire une sélection spatiale avec R. Je m'explique. J'ai une table "Releves" qui contient les identifiants de points de relevés ainsi que les coordonnées géographiques x et y. J'ai également les coordonnées x et Y d'un point de référence. Je ...
Perso j'aurais fait les étapes suivantes : - fonction aggregate pour calculer mes moyennes par value moy<-with(DF,aggregate(x=value,by=list(variables=variable),FUN="mean")) names(moy)[c(2)]<-c("value") , - puis on crée une table int...
Une commande merge avec en option all=TRUE et serait peut-être plus simple et plus efficace. Avec éventuellement une fonction aggregate auparavant pour calculer les moyennes s'il y a besoin.
Youpi ! Linux l'a fait ! Sur un PC à 2 Go RAM (au lieu de 3 Go sous Windows XP Professionnel), j'ai réussi à faire tourner la fonction designdist pour 8058 points en 837 s. Bon vu le temps pris je ne vais pas faire 1000 ré-échantillonnages dans mon bootstrapping parce que sinon j'en ai pour 10 j de ...
Bonsoir, Oui cela fait bien plusieurs milliards de distances. J'ai la possibilité, dans mon algorithme, de faire mes calculs pour moins de points (en l'occurrence 8058 pour le plus grand ensemble) mais dans ce cas je vais devoir multiplier le nombre d'appels aux fonctions de calcul des distances (ma...
Merci pour vos réponses. J'ai essayé de jouer avec l'allocation de la mémoire sous R [memory.limit(size=4000)] ça fait quelques progrès apparemment (difficile de cerner quelle est réellement la limite de taille car une même commande passe à un instant mais ne passe plus l'instant d'après...) mais ce...
Bonjour à tous, Je souhaiterais évaluer les distances euclidiennes (commande dist) ainsi que les distances de Sorensen (paquet vegan, commande designdist) pour un grand nombre de points de relevés (> 120 000). Malheureusement, il y a une limitation de taille sur les matrices d'entrée de ces commande...