Por si te fuera de utilidad, esta es la respuesta de chat GPT 4.0
Parece que tienes un par de problemas y preguntas aquí. Intentaré ayudarte
paso a paso.
### Problema 1: Error en la Separación de Medias HSD por Tratamiento
Sobre el código que estás utilizando para la separación de medias, el
Esta es la respuesta que me da chatgpt 4.0. Yo llevo unos meses
utilizándolo y me ha ahorrado muchos días de trabajo. Le podéis hacer
cualquier pregunta sobre códigos, errores, métodos, cómo hacer algo, cómo
enfocar un problema, etc. Es como tener a un experto (que también se
equivoca) a tu
Muy buenas, ¿alguien conoce algún paquete que permita calcular drop-column
importance para distintos tipos de algoritmos, como RF o GBM? Programarlo
yo sé, pero busco algún paquete que ya lo haga.
Gracias,
Manuel
[[alternative HTML version deleted]]
No tuve tiempo de mirarlo, pero, ¿es coherente lo que dice?
El vie, 11 ago 2023 a las 21:02, Griera-yandex ()
escribió:
> Muchas gracias, Manuel:
>
> Que bueno! No se me había ocurrido lo de GPT!
>
> Lo pruebo.
>
> Saludos.
>
> On Fri, 11 Aug 2023 18:15:18 +0
Esta es la respuesta que te da ChatGPT-4:
Entiendo tu pregunta y, aunque no hay una función nativa en R que te
permita hacer exactamente lo que estás pidiendo, puedes lograr el mismo
resultado utilizando una función. Una función te permitiría encapsular la
lógica de la expresión que quieres
otra alternativa cuando tienes problemas de memoria, es usar H2O
> Gestiona muy bien la memoria.
>
> Gracias,
> Carlos.
>
> El dom, 28 may 2023 a las 13:29, Manuel Mendoza (<
> mmend...@fulbrightmail.org>) escribió:
>
>> Muy buenas, estoy aplicando random fore
Muy buenas, estoy aplicando random forest a una df de 256 filas y 54973
columnas y me quedo sin memoria. He probado con randomForest y con ranger,
y con los dos pasa. ¿Tenéis alguna solución para esto (que no sea comprarse
un ordenador más potente:-) ?. Pude aplicar XgBoost, incluso cerca de 2000
Muy buenas, he decidido aplicar Deep learning en mi trabajo y me he
encontrado con que hay numerosos paquetes, que utilizan, además, distintos
algoritmos de optimización. Encontré ejemplos muy sencillos de aplicar con
los paquetes deepnet y neuralnet, pero pienso que quizás haya paquetes
Buenos días, con el código de abajo obtengo un agregate que empieza por
abajo con la categoría C7 y termina arriba por la C1. Me gustaría que
fuera al revés, que la C1 estuviera abajo y ascendiera hasta tener la C7
arriba.
Gracias,
Manuel
year<-c(rep(1990, times=7),rep(2018, times=7),rep(2040,
El 19/03/2023 a las 7:51, gri...@yandex.com escribió:
> > Hola:
> >
> > No se muy bien si es esto lo que preguntas, pero el código de todos los
> scripts está en el fichero:
> >
> > https://cran.r-project.org/src/contrib/randomForest_4.7-1.1.tar.gz
> >
Buenos días, ¿cómo podría ver el código con el que el paquete randomForest
hace el random forest?
Gracias,
Manuel
[[alternative HTML version deleted]]
___
R-help-es mailing list
R-help-es@r-project.org
Muy fácil: as.numeric(table(data$Clst)
No salía porque la tabla era de otros datos.
Un saludo,
Manuel
[[alternative HTML version deleted]]
___
R-help-es mailing list
R-help-es@r-project.org
https://stat.ethz.ch/mailman/listinfo/r-help-es
Muy buenas, necesito crear un vector a partir de los valores de una tabla
como la de abajo. Debe ser algo muy fácil pero no lo encuentro en la web.
Gracias,
Manuel
246, 345, 401, 131,125, 69 a partir de:
TS1 TS2 TS3 TS4 TS5 TS6
246 345 401 131 12569
[[alternative HTML
O5”,”BIO6”,”BIO7”,”BIO8","BIO9”,”BIO10”)
> for (j in BIOs) {
>excel <- paste(j,".xlsx", sep="")
>data <- read_excel(excel)
> ...
>
>
> Un saludo,
> Marcelino
>
> El 14/02/2023 a las 6:07, Manuel Mendoza escribió:
>
Perdonad que se me olvidó el asunto. Repito:
Buenos días, tengo un conjunto de 10 bases de datos en excel cuyos nombres
van de BIO1 a BIO10. Quiero hacer un loop en el que me coja una cada vez.
He probado lo que os pongo abajo (y otras cosas parecidas) y obviamente no
funciona. ¿Conocéis alguna
Buenos días, tengo un conjunto de 10 bases de datos en excel cuyos nombres
van de BIO1 a BIO10. Quiero hacer un loop en el que me coja una cada vez.
He probado lo que os pongo abajo (y otras cosas parecidas) y obviamente no
funciona. ¿Conocéis alguna forma?
Gracias como siempre,
Manuel
BIOs<-
()
> > pos <-c(rep(0, nrow(data)))
> > neg <- c(rep(0, nrow(data)))
> >
> > for (i in 1:nrow(data)) {
> + x<-data[i,]
> + pos[i]<-sum(x[x>0])
> + neg[i]<-sum(x[x<0])
> + }
> > toc()
> *0.609 sec elapsed*
> > head(pos)
> [1] 9.96328 4.16949 11.5
> + negativos = suma_neg(c_across()))
> > # A tibble: 10 × 5
> > # Rowwise:
> >a b c positivos negativos
> >
> > 1 -0.1 0.3 -0.4 0.3 -0.5
> > 2 -1-0.4 -0.3 0-1.7
> > 3 -1.9
positivos negativos
> >
> > 1 -0.1 0.3 -0.4 0.3 -0.5
> > 2 -1-0.4 -0.3 0-1.7
> > 3 -1.9 0.6 1.2 1.8 -1.9
> > 4 -0.2 0.7 0.2 0.9 -0.2
> > 5 -0.6 -0.6 -0.4 0
Buenos días, de un conjunto de variables, quiero obtener la suma de los
valores positivos de cada fila, por una parte, y la de los negativos por
otra. Qué variables toman valores positivos y negativos varía de una fila a
otra, claro.
Gracias por vuestra ayuda,
Manuel
[[alternative HTML
Buenos días, he empezado a utilizar bivariate.map. El código aparece aquí:
https://rfunctions.blogspot.com/2015/03/bivariate-maps-bivariatemap-function.html
Hice algunas pruebas y funcionó perfectamente. Al aplicarlo a las
variables que me interesa representar me dio este error:
Error in
bado, 3 de diciembre de 2022, 09:15:28 CET, Manuel Mendoza <
> mmend...@fulbrightmail.org> escribió:
>
>
> Buenos días, utilizo:
>
> max <- tapply (Data$varnum, Data$varcat, max)
>
> para obtener el máximo de varnum en cada una de las categorías de varcat
>
&
9.564050 7.947991 #> [22] 8.542218 8.749921 6.626613 11.675574 10.306746
> 7.723726 12.507630|
>
> ^Created on 2022-12-05 with reprex v2.0.2 <https://reprex.tidyverse.org>
>
>
>
> ^
>
> On 3/12/22 9:14, Manuel Mendoza wrote:
> > Buenos días, utilizo:
Buenos días, utilizo:
max <- tapply (Data$varnum, Data$varcat, max)
para obtener el máximo de varnum en cada una de las categorías de varcat
¿cómo podría obtener los máximos, pero sin los outliers (Q75 + 1.5*IQR)?
Es fácil quitar los outliers superiores de varnum, pero no es eso lo que
poder cargarlos.
>
>
>
> Un saludo.
>
>
>
>
> ------
> *De:* R-help-es en nombre de Manuel
> Mendoza
> *Enviado:* sábado, 22 de octubre de 2022 14:19
> *Para:* Lista R
> *Asunto:* [R-es] Bases de datos de paquetes
>
> Muy buenas, si
Muy buenas, si no estoy equivocado, muchos paquetes contienen bases de
datos. ¿Cómo puedo averiguar cuáles? y sobre todo, ¿cómo puedo cargarlas?
Si me ponéis el código de un ejemplo me vendría de perlas.
Gracias por vuestro tiempo,
Manuel
[[alternative HTML version deleted]]
project.org/web/packages/SHAPforxgboost/index.html
>
>
>- https://cloud.r-project.org/web/packages/EIX/index.html
>
>
> Gracias,
> Carlos Ortega
> www.qualityexcellence.es
>
> El dom, 24 abr 2022 a las 6:14, Manuel Mendoza (<
> mmend...@fulbrightmail.org>) escr
ular la función accuracy
>
> library(Metrics)
>
> accuracy(actual, predicted)
>
> Saludos
>
> El sáb, 26 feb 2022 a las 1:19, Manuel Mendoza (<
> mmend...@fulbrightmail.org>) escribió:
>
>> Buenos días, obtengo una Tabla de contingencia con:
>> tabrp&l
Solucionado. La solución no es de R sino de la configuración del PC. En
accesibilidad, "Hacer todo más grande".
Simple ¿no?
Un saludo,
Manuel
[[alternative HTML version deleted]]
___
R-help-es mailing list
R-help-es@r-project.org
s las herramientas de desarrollo, entonces no
>> puede instalarla. Si te hace esa pregunta, mejor responde No y así no te
>> dará error al instalar paquetes.
>>
>> Un saludo,
>> Emilio
>>
>> Emilio L. Cano
>> http://emilio.lcano.com
>>
>>
>
Buenos días, después de reinstalar R y Rstudio me da este error:
Error: package or namespace load failed for ‘ggplot2’ in library.dynam(lib,
package, package.lib):
DLL ‘rlang’ not found: maybe not installed for this architecture?
In addition: Warning message:
package ‘ggplot2’ was built under R
Muy buenas, tengo una base de datos descompensada, en la que las ausencias
(0) de ptyrup (una especie) son unas 3.5 veces más frecuentes que las
presencias (1). De acuerdo a la documentación de gbm, weights es un vector
opcional de pesos a utilizar en el proceso de ajuste. Utilizo:
data$weights
Buenos tardes, tengo una df, datarem, resultado de un remuestreo de data,
que lógicamente tiene muestras repetidas muchas veces. Para hacer un
leave-one-out, cada vez que quito una muestra tengo que quitar también las
que son iguales a ella. Se me ocurrió hacer lo de abajo, pero no funciona
porque
Buenos días, tengo una df, resultado de un remuestreo de data (data.rem),
que lógicamente tiene muestras repetidas muchas veces. Para hacer un
leave-one-out, cada vez que quito una muestra tengo que quitar también las
que son iguales. Se me ocurrió hacer lo de abajo, pero no funciona porque
size=1.5)
>
> puedes mirar los detalles de la funcion pdp con ?pdp.
>
> Ojalá te sirva,
>
> Saludos !!
>
> Eric.
>
>
>
>
> On Wed, 14 Apr 2021 21:03:39 +0200
> Manuel Mendoza wrote:
>
> > Buenas, ¿alguien ha calculado alguna vez partial dependence
file-caf8b2ad1c9d
>
> Saludos,
> Carlos.
>
> El mié, 14 abr 2021 a las 21:04, Manuel Mendoza (<
> mmend...@fulbrightmail.org>) escribió:
>
>> Buenas, ¿alguien ha calculado alguna vez partial dependence plots con
>> XgBoost? Yo lo he conseguido con el paquete PDP
Buenas, ¿alguien ha calculado alguna vez partial dependence plots con
XgBoost? Yo lo he conseguido con el paquete PDP y clasificación binaria,
pero llevo horas intentándolo con regresión y no hay forma. Apenas hay
ejemplos en la red, y utilizan caret o h2o, que de momento no me sirven.
Gracias,
t; Manuel,
> Quizás los ejemplos en
> www.sthda.com/english/wiki/wiki.php?id_contents=7930 te ayuden.
> Saludos,
> Jorge.-
>
>
> El El mar, 6 de abr. de 2021 a la(s) 1:30 p. m., Manuel Mendoza <
> mmend...@fulbrightmail.org> escribió:
>
>> Muy buenas, trato de
Muy buenas, trato de poner 5 ggplots juntos con grid.arrange y me da este
error:
> grid.arrange(pdpPL, pdpPs, pdpCl, pdpUr, pdpHP, nrow = 1)
Error in `$<-.data.frame`(`*tmp*`, "wrapvp", value = list(x = 0.5, y = 0.5,
:
replacement has 17 rows, data has 30
Algunas pistas (todo igual para
igo que desaparecen con el tiempo es un problema grave en ciencia
> (https://doi.org/10.1371/journal.pone.0115253)
>
> Saludos
>
> Paco
>
>
> On 26/3/21 5:50, Manuel Mendoza wrote:
> > Gracias Eric y Xavier. Finalmente utilicé pastebin porque es más
> sencillo.
> >
o esto te servirá:
>
> # máximo por fila
> apply(probs, 1, max, na.rm = TRUE)
>
> # probabilidades promedio por columna
> colMeans(probs, na.rm = TRUE)
>
> # probabilidad promedio para todos
> mean(c(probs), na.rm = TRUE)
>
> Saludos,
> Jorge.-
>
> El El vie, 26
Muy buenas, tengo una matriz (probs) de 100 x 2, que son probabilidades.
> head(probs, 3)
1 2
[1,] 0.8282016 0.1717984
[2,] 0.1288460 0.8711540
[3,] 0.8830735 0.1169265
A partir de ella obtengo un vector de 100 elementos que incluye el valor
máximo de los dos.
Muy buenas, tengo una matriz (probs) de 100 x 2, que son probabilidades.
> head(probs, 3)
1 2
[1,] 0.8282016 0.1717984
[2,] 0.1288460 0.8711540
[3,] 0.8830735 0.1169265
A partir de ella obtengo un vector de 100 elementos que incluye el valor
máximo de los dos.
>
> On 25-03-21 17:07, Manuel Mendoza wrote:
> > Buenas tardes (de nuevo), ¿sabéis si hay alguna forma sencilla de poner
> un
> > código en Internet, al que pueda acceder cualquiera desde un link?
> > Gracias,
> > Manuel
> &
Buenas tardes (de nuevo), ¿sabéis si hay alguna forma sencilla de poner un
código en Internet, al que pueda acceder cualquiera desde un link?
Gracias,
Manuel
[[alternative HTML version deleted]]
___
R-help-es mailing list
tenimiento.
>
> Espero que puedas solucionarlo
>
> Saludos
>
> Jorge
>
>
>
>
> El 25.03.2021 18:12, Manuel Mendoza escribió:
> > Buenas tardes, hay algo que me tiene desconcertado (prueba de mi
> > desconocimiento):
> > ¿cómo puede obtener estas dos
Buenas tardes, hay algo que me tiene desconcertado (prueba de mi
desconocimiento):
¿cómo puede obtener estas dos cosas de una misma df con 1484 filas?
> table(data$Clase)
CYT ERL EXC ME1 ME2 ME3 MIT NUC POX VAC
4635 35 44 51163 244 429 20 30
>
Buenos días. He utilizado fit$cv.fitted en gbm para obtener las
predicciones OOF (por CV), para regresión, y funciona perfectamente. Sin
embargo, cuando lo aplico con clasificación multiclase me sale una matriz
con tantas columnas como clases tiene la variable objetivo. Primero pensé
que serían
Buenos días, como veis en el código que os copio abajo, represento la
distribución de la frecuencia de muestras de las 6 categorías presentes en
la variable Clst, a lo largo de la variable NPP. Me representa los 6
gráficos ordenados de arriba a abajo. Dos cuestiones:
1. ¿Cómo le puedo indicar el
-- Forwarded message -
De: Manuel Mendoza
Date: mié, 24 feb 2021 a las 18:59
Subject: Dos cuestiones relacionadas con rpart y printcp
To: Lista R
Muy buenas, tengo dos cuestiones relacionadas con rpart para regresión y
printcp.
Entreno el algoritmo con fitrp <- rpart(n
Muy buenas, tengo dos cuestiones relacionadas con rpart para regresión y
printcp.
Entreno el algoritmo con fitrp <- rpart(nspp ~ ., data=data, cp=0)
y obtengo el error relativo, xerror, del mejor árbol con
min(fitrp$cptable[,"xerror"]).
Hasta ahí muy fácil.
1. Para calcular mse, multiplico ese
¿Conoce alguien un método de optimización de parámetros al azar que no
utilice caret? Algo parecido a grid search sería ideal.
for-loops anidados serviría, aunque si no son pocos parámetros puede ser
engorroso.
Gracias,
Manuel
[[alternative HTML version deleted]]
Sabe alguien por qué kappa da distinto con *confusionMatrix *y *kappa2*.
Gracias,
Manuel
[[alternative HTML version deleted]]
___
R-help-es mailing list
R-help-es@r-project.org
https://stat.ethz.ch/mailman/listinfo/r-help-es
(mutate) que es el valor de la columna nonde
>se produce el máximo (de "pred", el "." indica eso).
> - Y en mutate(), crea una segunda variable que la llama "label" que
> es el valor de "trainy + 1".
>- Y todo esto lo guardo e
¿Alguien podría leerme esto? Si además me lo pone sin %>% y sin mutate, me
hace un rey, pues llevo horas y no lo consigo.
OOF_prediction <- data.frame(cv_model$pred) %>%
mutate(max_prob = max.col(., ties.method = "last"),
label = trainy + 1)
Gracias mil,
Manuel
[[alternative
sabés cómo hacerlo en
> R.
> ¿Qué es lo que necesitas hacer?
>
> Saludos,
>
> El dom, 7 feb 2021 a las 10:46, Manuel Mendoza (<
> mmend...@fulbrightmail.org>) escribió:
>
>> En la respuesta de la página:
>>
>> https://stats.stackexchange.com/quest
En la respuesta de la página:
https://stats.stackexchange.com/questions/183984/how-to-use-xgboost-cv-with-hyperparameters-optimization
empieza diciendo:
from scipy import statsfrom xgboost import XGBClassifierfrom
sklearn.model_selection import RandomizedSearchCV, KFoldfrom
sklearn.metrics import
>> agaricus.train$label)
>>
>> Dicho todo lo cual, creo que te vendría bien echarle un buen vistazo a los
>> capítulos 2, 3 y 5 de esto <https://datanalytics.com/libro_r/> antes de
>> meterte con XGBoost o sufrirás mucho.
>>
>> Un saludo,
>>
>>
Buenos días, estoy tratando de implementar el código que veis abajo, de la
documentación del paquete xgboost. Me desconcierta que al cargar las bases
de datos aparezcan como listas. Cuando la llama directamente al aplicar la
función xgboost (data = train$data) me desconcierta todavía más. Entiendo
Muy buenas, llevo un par de días tratando de familiarizarme con XGBoost
para regresión. En todos los tutoriales y ejemplos que encuentro empiezan
dividiendo los datos en train y test. Cuando utilizan xgb.cv, esto, para
mi, no tiene mucho sentido porque la validación cruzada ya te da un valor
Marcelino de la Cruz Rot escribió:
> >
> > preds <- col.names(probs)[apply(probs, 1, which.max)]
> >
> >
> >
> > El 27/01/2021 a las 4:27, Manuel Mendoza escribió:
> >> Buenos días, de un gbm multinomial obtengo los resultados en
> >> probabili
Buenos días, de un gbm multinomial obtengo los resultados en
probabilidades, como veis abajo.
Con preds <- apply(probs, 1, which.max) obtengo la categoría más
probable, pero me la da como 1,1,1,3,2,5,... indicando la posición de la
categoría en vez de su nombre. Con ifelse se puede transformar
Muy buenas, tengo algunas dudas sobre gradient boosting que quizás alguien
pueda resolverme.
gbm.step, del paquete dismo, tarda mucho más que gbm, del paquete gbm.
Yo había asumido que es porque busca el número óptimo de árboles por
validación cruzada. He visto, sin embargo, que gbm también te da
Muy buenas, tengo algunas dudas sobre gradient boosting que quizás alguien
pueda resolverme.
gbm.step, del paquete dismo, tarda mucho más que gbm, del paquete gbm.
Yo había asumido que es porque busca el número óptimo de árboles por
validación cruzada. He visto, sin embargo, que gbm también te da
tualizado.
>
> Probablemente tengas que desconectarlo primero, es decir:
>
> detach("package:vctrs")
> install.packages("vctrs")
>
>
>
> El 23/01/2021 a las 21:59, Manuel Mendoza escribió:
> > Lo he actualizado, pero me sigue dando el mismo error.
https://aka.ms/ghei36>
> --
> *From:* R-help-es on behalf of Manuel
> Mendoza
> *Sent:* Saturday, January 23, 2021 2:45:40 PM
> *To:* Lista R
> *Subject:* [R-es] Error al cargar el paquete tidyr
>
> Lo había utilizado hasta ahora sin proble
Muy buenas, utilizo el comando gbm.step (paquete dismo) para entrenar un
gradient boosting, directamente con el nº óptimo de árboles obtenido
mediante validación cruzada.
gbm.predict me permite obtener las predicciones para nuevos datos, pero yo
querría las que se obtuvieron en la VC (para las
Lo había utilizado hasta ahora sin problemas.
Error: package or namespace load failed for ‘tidyr’ in loadNamespace(i,
c(lib.loc, .libPaths()), versionCheck = vI[[i]]):
namespace ‘vctrs’ 0.2.4 is already loaded, but >= 0.3.0 is required.
Gracias,
Manuel
[[alternative HTML version
t;) escribió:
> Has probado en usar en vez de algoritmos sensibles al coste, usar técnicas
> de remuestreo? Hay un paquete de la UGR llamado imbalance que funciona muy
> bien.
>
>
> ----------
> *De:* R-help-es en nombre de Manuel
> Mendoza
>
t;
>
> https://stackoverflow.com/questions/57076570/how-to-calculate-class-weights-for-random-forests
>
> Gracias,
> Carlos Ortega
> www.qualityexcellence.es
>
> El vie, 22 ene 2021 a las 11:43, Manuel Mendoza (<
> mmend...@fulbrightmail.org>) escribió:
>
>> Buenos días, t
Buenos días, tengo una base de datos desequilibrados (unbalanced) en la que
las ausencias son 9 veces más abundantes que las presencias (*ratio *= 9).
Para árboles de clasificación utilizo una matriz de pérdidas
parms=list(loss=matrix(c(0,
FP, *ratio *,0)))o un vector de ponderación que le da 9
Muy buenas, supongo que ya hay cientos de bases de datos en formato csv,
incluidas en paquetes de r. ¿Sabéis si hay alguna forma de acceder a ellas
directamente? ver previamente el tipo de datos que tienen, o alguna forma
de cribar por temas. Me hacen falta bases de datos de ciencias naturales.
egue bien a ver los paths de Java. Como todo este camino es más
> largo, por eso te recomendaba usar esas otras librerías.
>
> Gracias,
> Carlos Ortega
> www.qualityexcellence.es
>
> El vie, 15 ene 2021 a las 7:20, Manuel Mendoza (<
> mmend...@fulbrightmail.org>) es
Buenos días, he instalado xlsx pero, al cargar la librería me da este error:
Error: package or namespace load failed for ‘xlsx’:
.onLoad failed in loadNamespace() for 'rJava', details:
call: inDL(x, as.logical(local), as.logical(now), ...)
error: unable to load shared object 'C:/Users/Manuel
h(vars), num_vars)]
>>fmla <- as.formula(paste(target, " ~ ", paste(vars_samp, collapse=
>> "+")))
>>fit <- rpart(fmla, data = car90)
>>print(fit)
>> }
>>
>> #-
>>
>> Se puede sofisticar esto, para cap
Muy buenas, hago un árbol de regresión (aunque podría ser cualquier otro
análisis) dentro de un loop y quiero que en cada vuelta coja un conjunto
distinto de variables. En la df hay 19 predictores pero quiero que utilice
solo 6 de ellos, al azar, cada vez. ¿Qué debería poner donde hay un
Buenas tardes, tengo una variable bimodal (*var)*, de presencias y
ausencias (1s y 0s) y otra variable, *prob*, con las probabilidades que le
asigna un modelo (entre 0 y 1).
Con: *ggplot(Preds, aes(x=prob, fill= var )) + geom_density(alpha=.3)*
obtengo la distribución de las presencias y de las
Buenas tardes, tengo una variable bimodal (*var)*, de presencias y
ausencias (1s y 0s) y otra variable, *prob*, con las probabilidades (entre
0 y 1) que le asigna un modelo.
Con: *ggplot(Preds, aes(x=prob, fill= var )) + geom_density(alpha=.3)*
obtengo la distribución de las presencias y de las
io tiene un grupo de soporte (más bien es una Community) donde
>> podrías
>> comentarlo por si es un bug.
>>
>> Saludos,
>> Carlos Ortega
>> www.qualityexcellence.es
>>
>>
>> El mié., 19 ago. 2020 a las 19:52, Manuel Mendoza (<
>> mmend..
Buenas tardes. Más bien una curiosidad.
Echaba de menos poder rehacer con *Ctrl y* lo deshecho con *Ctrl z*. Lo
curioso es que RStudio, desde hace un tiempo, en la pestaña *Edit*, al lado
de *Redo *pone "*Ctrl y", *pero *Ctrl y* no funciona. ¿sabe alguien por
qué?
Gracias,
Manuel
uan Diego Alcaraz-Hernández (<
jdalca...@gmail.com>) escribió:
> Quizás lo tienes solucionado con el argumento alfa (para fijar un nivel de
> transparencia en el gráfico).
>
> Te mando un ejemplo:
>
> https://rpubs.com/daniballari/ggplot
>
>
>
>
>
> El mar., 28 jul.
Buenos días. Tengo dos mapas que hago con ggplot (abajo) y necesito
superponer el 2º al 1º. En el 1º se representa la variable PA, binomial (0,
1), en gris, y en el 2º la variable ExtTG7085, que es numérica y va de 0 a
200. La 2ª es un gradiente en rojo. Lo ideal sería que donde coinciden el
rojo
pequeño añadirle nuevas columnas, pero solo en las que
> coincida con long/lat con el grande. Y el resto de filas del "grande"
> ignorarlas.
>
> El sáb., 27 jun. 2020 a las 13:08, Manuel Mendoza (<
> mmend...@fulbrightmail.org>) escribió:
>
>> Hola Carlos,
Buenas tardes, quedarme con las muestras de una BD (data) que están
presentes en otra (datax), cuando se tiene una variable que nunca se repite
(Key) es fácil: data <- subset(data,data$Key %in% datax$Key).
Mi problema es cuando la exclusividad viene dada por dos variables. P.e.,
las coordenadas de
;gg","fg","mf","br","hc")
for(i in 1:length(predictores)){
windows()
print(partial(RFfit, pred.var = predictores[i], which.class = "Ard",
plot = T,
prob = T, chull=T, type="classification",plot.engine =
"ggplot2&
Vuelvo al ataque, pues ya os lo pregunté. Javier Rubén me dió una posible
explicación, pero finalmente no me resolvió el problema. Así que lo vuelvo
a intentar, a ver si hay más suerte.
Si hago, p.e., i = 1 y corro las 2 filas de dentro del loop que pongo
abajo, me abre una ventana y me hace el
Muy buenas, ¿a ver si hay alguien que sepa por qué en este loop, si hago,
p.e., i = 1 y corro las 2 filas de dentro, me abre una ventana y me hace el
PDP de frg, es decir, lo hace bien, pero si corro todo el loop me abre las
ventanas pero las deja vacías?
predictores <-
Un par de preguntas sencillas ¿cómo puedo saber las bases de datos que
incluye un paquete de r? ¿cómo se abren: data(nombre)?
Gracias,
Manuel
[[alternative HTML version deleted]]
___
R-help-es mailing list
R-help-es@r-project.org
. Cano
> http://emilio.lcano.com
>
>
>
> El 5 jun 2020, a las 17:48, Manuel Mendoza
> escribió:
>
> Gracias Emilio y Jorge. Tengo que explicarlo mejor. Mostrando a una
> audiencia cómo hacer un tipo de análisis, se hace un loop (abajo) que
> analiza un mapa por regiones
data)
}
El vie., 5 jun. 2020 a las 16:18, Emilio L. Cano ()
escribió:
> Hola Manuel,
> Al ser ggplot supongo que será como en cualquier gráfico en ejes
> coordenados, añade una capa:
>
> ggplot(…..) + geom_vline(xintercept = vector_de_valores_x)
>
> Un saludo,
>
> Emilio L.
Buenos días ¿Alguien sabe por qué en este loop, si hago, p.e., i = 1 y
corro las dos últimas filas me lo hace bien (con "frg"), pero si corro todo
el loop me abre 12 ventanas, en vez de 10 (la dimensión del vector
predictores) y además vacías?
predictores <-
Buenas tardes. Hago varios mapas con ggplot y scale_colour_gradient2. Los
colores dependen de una variable que tiene distintos rangos. Eso hace que
no sean comparables. Pretendo que me haga todos con los límites del que
tiene un rango mayor. Este es el código:
ggplot(legend=FALSE)+
Esta vez no es un problema, pero quizás podáis aconsejarme sobre qué
gráfico elegir, pues hice algunas pruebas y no queda muy bien.
Quiero comparar 9 rectas (o lo que sea) hechas de tan solo dos puntos.
Para 9 grupos de especies distintos tengo un dato para 2050 y otro para
2070, y pretendo que se
Muy buenas tardes, llevo un rato con una chorrada que casi me da vergüenza
preguntar, pero no doy con la tecla. Creo un vector con las medias de
algunas columnas de una df:
distmeans<-colMeans(df[,1:6])
Son 6 elementos, pero siguen manteniendo el nombre de las variables
originales, incluso
Buenos días, no sé por qué no encuentra la función "%>%"
Error in data %>% gather(x, y, distmar:ice) %>% ggplot(aes(x = y, y =
ptyrup, :
no se pudo encontrar la función "%>%"
p1 = data %>%
ggplot(aes(x = ptyrup, fill = ptyrup)) +
geom_bar(alpha = 0.8) +
scale_fill_tableau() +
Alguien sabe lo que significa?
[image: image.png]
___
R-help-es mailing list
R-help-es@r-project.org
https://stat.ethz.ch/mailman/listinfo/r-help-es
Alguien sabe lo que significa?
[image: image.png]
___
R-help-es mailing list
R-help-es@r-project.org
https://stat.ethz.ch/mailman/listinfo/r-help-es
Hola de nuevo. Al aplicar el comando FeatureImp del paquete iml me daba
este error:
Error in as.double(y) :
cannot coerce type 'environment' to vector of type 'double'
Me fui al ejemplo original con la base de datos Boston, para ver las
diferencias con mi script, y para mi sorpresa, da el mismo
) y ten en
> cuenta que la opción "repos" puede ser una url de internet o de tu
> ordenador local (ruta completa hasta el archivo fuente).
>
> Y después necesitarás mucha suerte para resolver todas las dependencias
> que te irán apareciendo durante la compilación.
>
&g
s dependencias
> que te irán apareciendo durante la compilación.
>
> No es una solución segura, pero a veces funciona.
>
> Saludos.
>
>
> El 30/4/20 a las 18:15, Manuel Mendoza escribió:
> > Buenas tardes. Tenía la versión 3.6.0 de R. Quería instalar el paquete
> >
1 - 100 of 195 matches
Mail list logo