Bonjour, si tu fais affciher le code de la fonction box.cox tu veras que le log sert d'où le message d'erreur. Le problème vient du format de distance. Je suppose que c'est un data frame or c'est ce qui fait planter la fonction box.cox mais pas box.cox.powers. x <- runif(100) box.cox.powers&...
Bonjour, Pourrais-tu nous montrer ton modèle et les sorties de celui-ci afin de mieux comprendre d'ou sortent les résultats que tu nous montres. Je ne pense pas encore une fois que ta conclusion soit juste. Même si tu réduis le pourcentage avec lequel ta probabilité devrait augmenter en une année, t...
Bonjour, Ton interprétation n'est pas correcte, la linéarité de l'âge n'est vrai que sur le lien, donc c'est ta valeur de probit qui augmente de 0.065 (0.037 dans l'exemple ci dessous) en une année mais pas ta probabilité : x <- 1:100 y <- rbinom(100,1,1/(1+exp(-0.065*x+2.5)))...
Bonjour, En rajoutant ça dans ton code tcltk tu laisses la fenêtre tcltk ouverte tant que l'utilisateur n'a pas cliqué sur Exit : quit <- function() { .Tcl("set exit_to_quit 1") tkdestroy(tt) } require(tcltk) tt <<- tktoplevel() Exit.but <-...
Bonjour, Il y a quand même une différence entre un graph avec ylim=range(y)/2 et sans ce paramètre. Dans le premier cas tu vas avoir tes lignes verticales qui vont intersecter la bôite autour du graph, alors que dans le deuxième cas tes lignes verticales s'arrêtent avant la boîte. Pour t'en convainc...
Bonjour, en regardant ton graph "incorrect", je suis surpris car si les valeurs depassaient la zone du graph tu n'aurais pas le même genre de graphiques mais des lignes qui s'arrêteraient au niveau de la bôite qui entoure le graph. Ca fait plus penser à des valeurs de y répétées (ou très p...
Bonjour, Pas il te manquait juste une virgule et une indexation : obs_sim[obs_sim$obs.V5!=-999,] ou encore obs_sim[obs_sim[,2]!=-999,] ou tu peux aussi utiliser la fonction subset(obs_sim,obs.V5!=-999). Maxime P.S : tu trouveras pas mal d'information concernant les indexations dans les documents d'i...
Bonjour, On peut envisager comme solution de passer par des chaînes de caractères (ce que fait duplicated.data.frame) et de les dénombrer : duplicated2 <- function(x){ auxi <- do.call("paste",c(x,sep="_")) y <- table(auxi) y <- y>1 res <- y[ma...
Bonjour, JPour l'instant, la p-value de Fisher me parait fausse. La p-value de Fischer est bonne c'est ton calcul qui est erroné, il est toujours un peu dangereux de critiquer les sorties d'un logiciel avant d'avoir controler ces calculs, en général c'est plutôt l'utilisateur qui se trompe que les c...
Bonjour, Une des solutions est le fichier texte ou bien de passer ta feuille excel dans une base de données access et de l'importer avec RODBC la ça marche pas mal et pas de problème de colonnes de NA. Une autre solution est de donner un format de nombre avec décimale (dans le cas de valeurs numériq...
Bonjour, Pour répondre à ta question, ce n'est pas parce que n va diminue que la valeur de t va forcément diminuer, t dépend aussi des moyennes et des ecarts types. Un exemple pour te convaincre : # 100 valeurs simulées x <- rnorm(100) # un facteur y <- gl(2,50) # valeur de t observé...
un autre problème possible serait que tu es plus de valeurs manquantes que de valeurs remplies et apparement ça peut engendrer des NA de partout aussi. En fait je n'observe pas ca avec query() : 'var1' a 3 cellules vides pour 1 cellule pleine. Je n'observe pas non plus le pb de melange caractere/nu...
Re, Chez moi pas de soucis, tout dépend de ce que variable représente chez toi. # si grp est un facteur indépendant gfx<- function (x,grp) { xyplot(a ~ b, groups=grp, data=x) } z <- data.frame(list(a=rnorm(100),b=rnorm(100))) variable <- gl...