Advertisement
kukis03

Formato Taller 1 Multivariane

Nov 11th, 2023
172
0
Never
Not a member of Pastebin yet? Sign Up, it unlocks many cool features!
R 2.46 KB | None | 0 0
  1. ---
  2. title: "R Notebook"
  3. output: html_notebook
  4. ---
  5.  
  6. # Problemas de práctica para PCA con respuestas parciales
  7.  
  8. 1.  El propósito de este problema es examinar el efecto que tienen diferentes correlaciones en el resultado del `PDA`. Para hacerlo más fácil, suponga que `X` tiene una distribucion normal bivariante con $\mu=(0,0)',\sigma_{11}=1$ y $\sigma_{22}=1$. Para $\sigma_{12}=-0.99,-0.9,-0.5,0,0.5,0.9,0.99$ (recuerde que $\sigma_{12}=\rho_{21}$ porque las varianzas son iguales a 1), complete lo siguiente:
  9.  
  10. a.  Simule `1000` observaciones de la normal bivariante donde se establece un número de semilla de `8128` justo antes de cada simulación de datos.
  11.  
  12. Examine parte de este problema empleando solo $\rho_{12}=0.99$
  13.  
  14. ```{r}
  15. suppressWarnings(library(mvtnorm))
  16.  
  17. #Parámetros para una distribución normal bivariante
  18. mu=c(0,0)
  19. rho12=0.99
  20. sigma=matrix(data=c(1,rho12,rho12,1),nrow=2,byrow=TRUE) #Matriz de covarianzas
  21. (P= cov2cor(V=sigma))
  22. N=1000
  23. set.seed(8128)
  24. X=rmvnorm(N,mu,sigma)
  25. head(X)
  26. ```
  27.  
  28. b.  Utilice `princomp()` con `cor=TRUE` para encontrar los valores propios y vectores propios estimados a partir de la matriz de correlación.
  29.  
  30. ```{r}
  31. pca.save=princomp(x=X,cor=TRUE,scores=FALSE)
  32. summary(pca.save,loadings=TRUE,cutoff=0.0)
  33. ```
  34. c.  Interprete las componentes principales.
  35.  
  36. d.  ¿Cuántas PC son necesarias?
  37.  
  38. Solo una: ¡asegúrese de comprender por qué esto tendría sentido en el contexto de PCA!
  39.  
  40. e.  Cree diagramas de dispresión separados de los datos y las puntuaciones de PC, pero utilice un conjunto de límites generales para los ejes X y Y. Describe la relación entre estos gráficos para cada $\rho_{12}$.
  41.  
  42. ```{r}
  43. pca.save$scale=apply(X=X,MARGIN=2,FUN=sd)
  44. score.save=predict(pca.save,newdata=X)
  45. head(score.save)
  46. #dev.new(width=12)
  47. par(mfrow=c(1,2)) #una fila dos columnas
  48. par(pty="s")
  49. common.limits=c(min(score.save,X),max(score.save,X))
  50. plot(x=X[,1],y=X[,2],xlab=expression(x[1]),ylab=expression(x[2]),main="Datos Originales",xlim=common.limits,ylim=common.limits,panel.first=grid(col="lightgreen"))
  51. abline(h=0)
  52. abline(v=0)
  53.  
  54. plot(x=score.save[,1],y=score.save[,2],xlab="PC #1",ylab="PC #2",main="Componentes Principales",xlim=common.limits,ylim=common.limits,panel.first=grid(col="lightgreen"))
  55. abline(h=0)
  56. abline(v=0)
  57. ```
  58.  
  59.  
  60. ¡Parece que los ejes `X` y `Y` se han rotado para que toda la variabilidad de los datos esté representada en una sola dimensión!
  61.  
  62. f.  Relacione sus respuestas en `c-e` con el valor de $\rho_{12}$
  63.  
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement