Advertisement
kukis03

Multivariante deber 3 transcript

Nov 11th, 2023
230
0
Never
Not a member of Pastebin yet? Sign Up, it unlocks many cool features!
R 21.48 KB | None | 0 0
  1. ---
  2. title: "Estadística Multivariante"
  3. subtitle: 'Deber N° 3: Análisis Factores Comunes y Únicos'
  4. output:
  5.   pdf_document: default
  6.   html_notebook: default
  7. header-includes: null
  8. ---
  9.  
  10. ------------------------------------------------------------------------
  11.  
  12. # CONCEPTUAL Y PRÁCTICO
  13.  
  14. ------------------------------------------------------------------------
  15.  
  16. ```{r}
  17. #Borra todos los objetos en la sesión de R
  18. rm(list=ls())
  19.  
  20. #Comprueba si todavía hay algún objeto en la sesión
  21. ls()
  22. ```
  23.  
  24. ###Ejercicio 1:
  25.  
  26. Muestre que la matriz de covarianza
  27.  
  28. $$
  29. \rho=\begin{bmatrix}1.0&0.63&0.45\\0.63&1.0&0.35\\0.45&0.35&1.0\end{bmatrix}
  30. $$ para las variables aleatorias estandarizadas $p=3, Z_{1},Z_{2}$ y $Z_{3}$ pueden generarse mediante el modelo factorial ($m=1$)
  31.  
  32. $$
  33. \begin{aligned}
  34. Z_{1}&=0.9F_{1}+\epsilon_{1}\\
  35. Z_{2}&=0.7F_{1}+\epsilon_{2}\\
  36. Z_{3}&=0.5F_{1}+\epsilon_{3}
  37. \end{aligned}
  38. $$ donde $Var(F_{1})=1, Cov(\varepsilon,F_{1})=0$ y
  39.  
  40. $$
  41. \mathbf{\Psi}=Cov(\epsilon)=\begin{bmatrix}0.19&0&0\\0&0.51&0\\0&0&0.75\end{bmatrix}
  42. $$ Esto es, escriba $\rho$ en la forma $\rho=LL'+\Psi$.
  43.  
  44. ###Ejercicio 2: Use la información del *ejercicio 1*:
  45.  
  46. a.  Calcule las comunalidades $h_{i}^{2}=1,2,3$, e interprete estas cantidades.
  47. b.  Calcule $Corr(Z_{i},F_{1}), i=1,2,3$. ¿Qué variable podría tener más peso a la hora de `nombrar` el factor común? ¿Por qué?
  48.  
  49. ###Ejercicio 3:
  50.  
  51. Los valores y vectores propios de la matriz de correlación $\rho$ del *ejercicio 1* son:
  52.  
  53. $$
  54. \begin{aligned}
  55. \lambda_{1}&=1.96\hspace{1cm}e_{1}'=\begin{bmatrix}0.625&0.593&0.507\end{bmatrix}\\
  56. \lambda_{2}&=0.68\hspace{1cm}e_{2}'=\begin{bmatrix}-0.219&-0.491&0.843\end{bmatrix}\\
  57. \lambda_{3}&=0.36\hspace{1cm}e_{3}'=\begin{bmatrix}0.749&-0.638&-0.177\end{bmatrix}
  58. \end{aligned}
  59. $$
  60.  
  61. a.  Asuma `m=1` para un modelo factorial. Calcule la matriz de carga **L** y la matriz de varianza específica $\Psi$ empleando la solución del método de la componente principal. Compare el resultado con el *ejercicio 1*.
  62.  
  63. b.  ¿Qué proprción de la varianza total poblacional es explicada por el pimer factor común?
  64.  
  65. ### Ejercicio 4:
  66.  
  67. Dado $\rho$ y $\Psi$ en el *ejercicio 1* y `m=1` para un modelo factorial, calcule la matriz de corrleación reducida $\hat{\rho}=\rho-\Psi$ y la matriz de carga `L` empleando el método del *factor principal*. ¿Es el resultado coherente con la información del ejercicio 1? ¿Debería serlo?
  68.  
  69. ### Ejercicio 5
  70.  
  71. Demuestre que la suma de las entradas al cuadrado de $(S-(\tilde{L}\tilde{L}'+\tilde{\Psi}))\leq\hat{\lambda}_{m+1}^{2}+\cdots+\hat{\lambda}_{p}^{2}$.En consecuencia, un valor pequeño de la suma de los cuadrados de los valores propios despreciados implica un valor pequeño de la suma de los errores cuadrados de aproximación. Idealmente, las contribuciones de los primeros factores a las varianzas muestrales de las variables deberían ser grandes.
  72.  
  73. *Hint:* Dado que $(S-(\tilde{L}\tilde{L}'+\tilde{\Psi}))$ tiene ceros en la diagonal, la suma al cuadrado de las entradas $(S-\tilde{L}\tilde{L}'+\tilde{\Psi})\leq S-\tilde{L}\tilde{L}'$
  74.  
  75. Ahora, $S-\tilde{L}\tilde{L}'=\hat{\lambda}_{m+1}\hat{e}_{m+1}\hat{e}_{m+1}'+\cdots+\hat{\lambda}_{p}\hat{e}_{p}\hat{e}_{p}'=\hat{P}_{(2)}\hat{\Lambda}_{(2)}\hat{P}_{(2)}'$, donde $\hat{P}_{(2)}=\begin{bmatrix}\hat{e}_{m+1}\vdots\cdots\vdots\hat{e}_{p}\end{bmatrix}$ y$\hat{\Lambda}_{(2)}$ es una matriz diagonal con elementos $\hat{\lambda}_{m+1},\cdots,\hat{\lambda}_{p}$. Use la suma de las entrasas al cuadrado de $\mathbf{\text{A}}=tr(AA')$ y $tr \left[\hat{P}_{(2)}\hat{\Lambda}_{(2)}\hat{\Lambda}_{(2)}'\hat{P}_{(2)}'\right]=tr\left[\hat{\Lambda}_{(2)}\hat{\Lambda}_{(2)}'\right]$
  76.  
  77. ### Ejercicio 6:
  78.  
  79. Verifique las siguientes identidades matriciales:
  80.  
  81. a.  
  82.  
  83. $$
  84. (I+L'\Psi^{-1}L)^{-1}L'\Psi^{-1}L=I-(I+L'\Psi^{-1}L)^{-1}\\
  85. $$ *Hint:* Pre-multiplique ambos lados por $(I+L'\Psi^{-1}L)$
  86.  
  87. b.  
  88.  
  89. $$
  90. (LL'+\Psi)^{-1}=\Psi^{-1}-\Psi^{-1}L(I+L'\Psi^{-1}L)^{-1}L'\Psi^{-1}
  91. $$ *Hint:* Post-multiplique ambos lados por $(LL'+\Psi)$ y use a. c.
  92.  
  93. $$
  94. L'(LL'+\Psi)^{-1}=(I+L'\Psi^{-1}L)^{-1}L'\Psi^{-1}
  95. $$
  96.  
  97. *Hint:* Post-multiplique el resultado en b. por L y use a., y tome la transpuesta. Note que $(LL'+\Psi)^{-1},\Psi^{-1}$ y $(I+L'\Psi^{-1}L)^{-1}$ son matrices simétricas.
  98.  
  99. ### Ejercicio 7:
  100.  
  101. (Solución única pero inadecuada: caso Heywood). Consideramos un modelo factorial `m=1` para una población con matriz de covarianza:
  102.  
  103. $$
  104. \Sigma=\begin{bmatrix}1&0.4&0.9\\0.4&1&0.7\\0.9&0.7&1\end{bmatrix}
  105. $$ De muestre que hay una elección única de $L$ y $\Psi$ con $\Sigma=LL'+\Psi$, pero que $\psi_{3}<0$, por lo que la elección no es admisible.
  106.  
  107. ### Ejercicio 8:
  108.  
  109. En un estudio sobre la preferencia por los licores en Francia, *Stoetzel* recogió clasificaciones de preferencia de `p=9` tipos de licores de `n=1442` individuos. Un análisis factorial de la matriz de correlaciones muestral de $9\times 9$ ordenaciones por rango dio las siguientes cargas estimadas:
  110.  
  111. ```{r, echo=FALSE}
  112. library(knitr)
  113. tabla=data.frame(c("Liquors","Kirsch","Mirabelle","Rum","Marc","Whiskey","Calvados","Cognac","Armagnac"),c(0.64,0.5,0.46,0.17,-0.29,-0.29,-0.49,-0.52,-0.60),c(0.02,-0.06,-0.24,0.74,0.66,-0.08,0.20,-0.03,-0.17),c(0.16,-0.10,-0.19,"$0.97^{*}$",-0.39,0.09,-0.04,0.42,0.14))
  114. colnames(tabla)=c("$Variable(X_{1})$","$F_{1}$","$F_{2}$","$F_{3}$")
  115. kable(tabla)
  116. ```
  117.  
  118. \*, esta cifra es demasiado elevada. Supera el valor máximo de `0.64`, como resultado de un método de aproximación para obtener las cargas factoriales estimadas utilizado por Stoetzel.
  119.  
  120. A la vista de estos resultados, Stoetzel llegó a la siguiente conclusión: El principio fundamental de la preferencia por los licores en Francia es la **distinción entre licores dulces y fuertes**. El segundo elemento motivador **es el precio**, que puede entenderse recordando que el licor es a la vez un producto caro y un artículo de consumo conspicuo. Salvo en el caso de los dos artículo más populares y menos caros (rum y marc), este segundo factor desempeña un papel mucho meno en la producción de juicios de preferencia. El tercer factor se refiere a la variabilidad sociológica, y sobre todo regional, de los juicios.
  121.  
  122. a.  Teniendo en cuenta todo lo que sabe sobre los distintos licores implicados, ¿le parece razonable la interpretación de Stoetzel?
  123.  
  124. b.  Trace los pares de carga de los dos primeros factores. Realice una rotación ortogonal gráfica de los ejes factoriales. Genere cargas rotadas aproximadas. Interprete las cargas rotadas de los dos primeros factores. ¿Coincide su interpretación con la interpretación de Stoetzel de estos factores a partir de las cargas no rotadas? Explíquelo.
  125.  
  126. ### Ejercicio 9
  127.  
  128. La matriz de correlación para las mediciones de huesos de pollo es:
  129.  
  130. $$
  131. \Sigma=\begin{bmatrix}
  132. 1.000&0.505&0.569&0.602&0.621&0.603\\
  133. 0.505&1.000&0.422&0.467&0.482&0.450\\
  134. 0.569&0.422&1.000&0.926&0.877&0.878\\
  135. 0.602&0.467&0.926&1.000&0.874&0.894\\
  136. 0.621&0.482&0.877&0.874&1.000&0.937\\
  137. 0.603&0.450&0.878&0.894&0.937&1.000
  138. \end{bmatrix}
  139. $$ Las siguientes cargas factoriales estimadas se extrajeron mediante el procedimiento de máxima verosimilitud:
  140.  
  141. ```{r,echo=FALSE}
  142. tabla2=data.frame(c("1. Longitud del cráneo","2. Anchura del cráneo","3. Longitud del fémur","4. Longitud de la tibia","5. Longitud del húmero","6. Longitud del cúbito"),c(0.602,0.467,0.926,1.000,0.874,0.894),c(0.200,0.154,0.143,0.000,0.476,0.327),c(0.484,0.375,0.603,0.519,0.861,0.744),c(0.411,0.319,0.717,0.855,0.499,0.594))
  143. colnames(tabla2)=c("Variable","$F_{1}$","$F_{2}$","$F_{1}^{*}$","$F_{2}^{*}$")
  144.  
  145. kable(tabla2)
  146. ```
  147.  
  148. \*, corresponde a las cargas estimadas por medio de la rotación varimax. Utilizando las cargas factoriales estimadas sin rotación, obtenga las estimaciones de máxima verosimilitud de lo siguiente:
  149.  
  150. a.  Las variaciones específicas.
  151. b.  Las comunales.
  152. c.  La proporción de varianza explicada por cada factor.
  153. d.  La matriz residual $R-\hat{L}_{Z}\hat{L}_{Z}'.\hat{\Psi}_{Z}$.
  154.  
  155. ### Ejercicio 10
  156.  
  157. Consulte el ejercicio 9. Calcule el valor del criterio varimax utilizando cargas factoriales estimadas y sin rotar. Comente los resultados.
  158.  
  159. *Nota:* Kaiser ha sugerido una medida analítica de estructura simple conocida como criterio varimax (o varimax normal). Define $\tilde{\ell}_{ij}^{*}=\hat{ell}_{ij}^{*}/\hat{h}_{i}$ como los coeficientes rotados escalados por la raíz cuadrada de las comunalidades. Luego, el procedimiento varimax (normal) selecciona la transformación ortogonal `T` que hace que
  160.  
  161. $$
  162. V=\dfrac{1}{p}\sum_{j=1}^{m}\left[\sum_{i=1}^{p} \tilde{\ell}_{ij}^{*4}-\left(\sum_{i=1}^{p}\tilde{\ell}_{ij}^{*2}\right)^{2}/p\right]
  163. $$ sea lo más grande posible.
  164.  
  165. Escalar los coeficientes rotados $\hat{\ell}_{ij}^{*}$ tiene el efecto de dar a las variables con comunalidades pequeñas relativamente más peso en la determinación de una estructura simple. Una vez determinada la transformación `T`, las cargas $\tilde{\ell}_{ij}^{*}$ se multiplican por $\hat{h}_{i}$ para preservar las comunalidades originales.
  166.  
  167. Aunque la relación anterior parece bastante intimidante, tiene una interpretación sencilla. En palabras,
  168.  
  169. $$
  170. V\propto\sum_{j=1}^{m}\textrm{varianza de los cuadrados de las cargas (escaladas) para el factor j}
  171. $$ Efectivamente, maximizar `V` corresponde a "dispersar" los cuadrados de las cargas en cada factor tanto como sea posible. Por lo tanto, esperamos encontrar grupos de coeficientes grandes e insignificantes en cualquier columan de la matriz de cargas rotadas $\hat{L}^{*}$.
  172.  
  173. ### Ejercicio 11
  174.  
  175. Jolicoeur y Mosimann estudiaron la relación entre el tamaño y la forma de las tortugas pintadas. En su estudio sobre las relaciones entre tamaño y forma de las tortugas pintadas, se analizaron los caparazones de 24 tortugas hembra y 24 tortugas macho (use `n=24`). Jolicoeur y Mosimann midieron la longitud, anchura y altura del caparazón. Sus datos sugieren un análisis en términos de logaritmos (Jolicoeur sugiere generalmente una transformación logarítmica en los estudios de las relaciones entre tamaño y forma). La matriz de covarianza para los logaritmos de las medidas de las tortugas es:
  176.  
  177. $$
  178. S=10^{-3}\begin{bmatrix}11.072&8.019&8.160\\8.019&6.417&6.005\\8.160&6.005&6.773\end{bmatrix}
  179. $$
  180.  
  181. Se obtuvo las siguientes estimaciones de máxima verosimilitud de las cargas factoriales para un modelo `m=1`:
  182.  
  183. ```{r, echo=F}
  184. tabla3=data.frame(c("ln(longitud)","ln(anchura)","ln(altura)"),c(0.1021632,0.0752017,0.0765267))
  185. colnames(tabla3)=c("Variable","Cargas factoriales estimadas $F_{1}$")
  186. kable(tabla3)
  187. ```
  188.  
  189. Utilizando las cargas factoriales estimadas, obtenga las estimaciones de máxima verosimilitud de cada una de las siguientes:
  190.  
  191. a.  Varianzas específicas.
  192. b.  Comunalidades.
  193. c.  Proporción de varianza explicada por el factor.
  194. d.  La matriz residual $S_{n}-\hat{L}\hat{L}'-\hat{\Psi}$.
  195.  
  196. *Hint:* Convierta $S$ en $S_{n}$. Recuerde que $\hat{\Sigma}=\dfrac{(n-1)}{n}S=S_{n}$
  197.  
  198. ### Ejercicio 12
  199.  
  200. La suposición de una población normal conduce directamente a una prueba de la adecuación del modelo. Supongamos que se cumple el modelo de m factores comunes. En este caso $\Sigma=LL'+\Psi$ y probar la adecuación del modelo de `m` factores comunes es equivalente a probar
  201.  
  202. $$
  203. H_{0}: \underset{(p\times p)}{\Sigma}=\underset{(p\times m)}{L}\underset{(m\times p)}{L'}+\underset{(p\times p)}{\Psi}
  204. $$ versus $H_{1}: \Sigma$ cualquier otra matriz definida positiva. Cuando $\Sigma$ no tiene ninguna forma especial, la función de máxima verosimilitud [véase $(4-18)\hat{\Sigma}=[((n-1)/n)S=S_{n}]$] es proporcional a:
  205.  
  206. $$
  207. |S_{n}|^{-n/2}e^{-np/2}
  208. $$ Utilizando la corrección de Barlett\^[Muchos analisis factoriales obtienen una estimación de máxima verosimilitud aproximada sustituyendo $S_{n}$ por la estimación insesgada $S=[n/(n-1)]S_{n}]$ y luego minimizando $ln|\Sigma|+tr[\Sigma^{-1}S]$, rechazamos $H_{0}$ al nivel de significación $\alpha$ si:
  209.  
  210. $$
  211. (n-1-(2p+4m+5)/6)ln\dfrac{|\hat{L}\hat{L}'+\hat{\Psi|}}{|S_{n}|}>\chi^{2}_{\left[(p-m)^{2}-p-m\right]/2}(\alpha)
  212. $$ siempre que `n` y `n-p`sean grandes. Como el número de grados de libertad, $\dfrac{1}{2}\left[(p-m)^{2}-p-m\right]$ debe ser positivo, se deduce que:
  213.  
  214. $$
  215. m<\dfrac{1}{2}\left(2p+1-\sqrt{8p+1}\right)
  216. $$
  217.  
  218. **Lo que se pide:** Consulte el *Ejercicio anterior*. Calcule el estadístico de prueba. Indique por qué no se puede realizar una prueba de $H_{0}:\Sigma+LL'+\Psi$ (con $m=1$) frente a $H_{1}:\Sigma$ sin restricciones para este ejemplo.
  219.  
  220. ### Ejercicio 13
  221.  
  222. Las estimaciones de carga del factor de máxima verosimilitud están dadas por:
  223.  
  224. $$
  225. \hat{L}=\hat{\Psi}^{1/2}\hat{E}\hat{\Delta}^{1/2}
  226. $$ Verifique, para esta elección, que:
  227.  
  228. $$
  229. \hat{L}'\hat{\Psi}^{-1}=\hat{\Delta}
  230. $$ donde $\hat{\Delta}=\hat{\Lambda}-I$ es una matriz diagonal.
  231.  
  232. -   **Nota:** Dado $\Psi$, calcule primero m valores propios distintos $\hat{\lambda}_{1}>\hat{\lambda}_{2}>\cdots>\hat{\lambda}_{m}$, y los vectores propios correspondientes $\hat{e}_{1}>\hat{e}_{2}>\cdots>\hat{e}_{m}$, de la matriz de covarianza "reescalada por las unicidades":
  233.  
  234. $$
  235. S^{*}=\hat{\Psi}^{-1/2}S_{n}\hat{\Psi}^{-1/2}
  236. $$ Sea $\hat{E}=\begin{bmatrix}\hat{e}_{1}\vdots\hat{e}_{2}\vdots\cdots\vdots\hat{e}_{m}\end{bmatrix}$ una matriz de dimensión $p \times m$ de los vectores propios normalizados y $\hat{\Lambda}=diag\begin{bmatrix}\hat{\lambda}_{1},\hat{\lambda}_{2},\cdots,\hat{\lambda}_{m}\end{bmatrix}$ una matriz diagonal de los valores propios de dimensión $m \times m$. Luego, si $\hat{\Lambda}=I+\hat{\Delta}$ y $\hat{E}=\hat{\Psi}^{-1/2}\hat{L}\hat{\Delta}^{-1/2}$. Finalmente se obtiene la estimación $L=\hat{\Psi}^{1/2}\hat{E}\hat{\Delta}^{1/2}=\hat{\Psi}^{1/2}\hat{E}(\hat{\Lambda}-I)^{1/2}$.
  237.  
  238. **Ejercicio 14:**
  239.  
  240. Hirschey y Wichern investigan la consistencia, los determinantes y los usos de las medidas de rentabilidad contables y de valor de mercado. Como parte de su estudio, se llevó a cabo un análisis factorial de las medidas de ganancias contables y estimaciones de mercado de las ganancias económicas. La matriz de correlaicón de las medidas de rentabilidad contable histórica, de reemplazo contable y de valor de mercado para una muestra de empresas que operaba en 1977 es la siguiente:
  241.  
  242. ```{r,echo=F}
  243. tabla4=data.frame(c("Rentabilidad histórica sobre activos, HRA","Rentabilidad histórica del capital, HRE","Retorno histórico de las ventas, HRS","Rendimiento de reemplazo de activos, RRA","Rendimiento de reemplazo sobre el captial, RRE","Devolución sobre ventas de reemplazo, RRS","Relación Q del mercado, Q","Exceso de valor relativo del mercado, REV"),c(1.000,0.738,0.731,0.828,0.681,0.712,0.625,0.604),c(0.738,1.000,0.520,0.688,0.831,0.543,0.322,0.303),c(0.731,0.520,1.000,0.652,0.513,0.826,0.579,0.617),c(0.828,0.688,0.652,1.000,0.887,0.867,0.639,0.563),c(0.681,0.831,0.513,0.887,1.000,0.692,0.419,0.352),c(0.712,0.543,0.826,0.867,0.692,1.000,0.608,0.610),c(0.625,0.322,0.579,0.639,0.419,0.608,1.000,0.937),c(0.604,0.303,0.617,0.563,0.352,0.610,0.937,1.000))
  244. colnames(tabla4)=c("Variable","HRA","HRE","HRS","RRA","RRE","RRS","Q","REV")
  245. kable(tabla4)
  246. ```
  247.  
  248. Se obtuvo las siguientes estimaciones rotadas de componentes principales de cargas factoriales para un modelo de `m=3` factores:
  249.  
  250. ```{r,echo=F}
  251. tabla5=data.frame(c("Rentabilidad histórica sobre activos, HRA","Rentabilidad histórica del capital, HRE","Retorno histórico de las ventas, HRS","Rendimiento de reemplazo de activos, RRA","Rendimiento de reemplazo sobre el captial, RRE","Devolución sobre ventas de reemplazo, RRS","Relación Q del mercado, Q","Exceso de valor relativo del mercado, REV","Proporción acumulada de la varianza total explicada"),c(0.433,0.125,0.296,0.406,0.198,0.331,0.928,0.910,0.287),c(0.612,0.892,0.238,0.708,0.895,0.414,0.160,0.079,0.628),c(0.499,0.234,0.887,0.483,0.283,0.789,0.294,0.355,0.908))
  252. colnames(tabla5)=c("Variable","$F_{1}$","$F_{2}$","$F_{3}$")
  253. kable(tabla5)
  254. ```
  255.  
  256. a.  Utilizando las cargas factoriales estimadas, determine las varianzas y comunalidades específicas.
  257.  
  258. b.  Determine la matriz residual $R-\hat{L}\hat{L}'-\hat{\Psi}$. Dada esta información y la proporción acumulada de la varianza total explicada en la tabla anterior, ¿parece apropiado un modelo de `m=3` factores para estos datos?
  259.  
  260. c.  Suponiendo que las cargas estimadas inferiores a 0.4 son pequeñas, interprete los tres factores. ¿Parece, por ejemplo, que las medidas del valor del mercado proporcionan evidencia de rentabilidad distinta de la proporcionada por las medidas contables? ¿Se pueden separar las medidas contables históricas de rentabilidad de las medidas contables de reemplazo?
  261.  
  262. ### Ejercicio 15
  263.  
  264. Verifique que las puntuaciones de los factores construidas según la expresión tengan un vector de media muestral `0` y covarianzas muestrales `cero`.
  265.  
  266. **Nota 1:** Puntuaciones factoriales obtenidas mediante mínimos cuadrados ponderados a partir de las estimaciones de máxima verosimilitud.
  267.  
  268. $$
  269. \begin{aligned}
  270. \hat{f}_{j}&=(\hat{L}'\Psi^{-1}\hat{L})^{-1}\hat{L}\hat{\Psi}^{-1}(x_{j}-\hat{\mu})\\
  271. &=\hat{\Delta}^{-1}\hat{L}'\hat{\Psi}^{-1}(x_{j}-\overline{x})\\
  272. &\textrm{o, si la matriz de correlación es factorizada}\\
  273. \hat{f}_{j}&=(\hat{L}_{z}'\hat{\Psi}_{z}^{-1}\hat{L}_{z})^{-1}\hat{L}_{z}'\hat{\Psi}_{z}^{-1}z_{j}\\
  274. &=\hat{\Delta}_{z}^{-1}\hat{L}_{z}'\hat{\Psi}_{z}^{-1}z_{j}\\
  275. &\textrm{donde}\\
  276. z_{j}&=D^{-1/2}(x_{j}-\overline{x})\\
  277. \hat{\rho}&=\hat{L}_{z}\hat{L}_{z}'+\hat{\Psi}_{z}
  278. \end{aligned}
  279. $$ **Nota 2:** Sea $x_{1},x_{2},\cdots,x_{n}$ un vector muestral aleatorio de una población normal. Los estimadores de máxima verosimilitud $\hat{L}$, y $\hat{Psi}$ son obtenidos maximizando la verosimilitud de una distribución normal p-varianet. Dichos estimadores satisfacen:
  280.  
  281. $$
  282. \left(\hat{\Psi}^{-1/2}S_{n}\hat{\Psi}^{-1/2}\right)\left(\hat{\Psi}^{-1/2}\hat{L}\right)=\left(\hat{\Psi}^{-1/2}\hat{L}\right)(I+\hat{\Delta})
  283. $$ **Nota 3:** Recuerde que en el ejercicio 12 se demostró que:
  284.  
  285. $$
  286. \hat{L}'\hat{\Psi}\hat{L}=\hat{\Delta}
  287. $$ y se estableció que $\hat{\Delta}=\hat{\Lambda}-I$ es una matriz diagonal.
  288.  
  289. ### Ejercicio 16
  290.  
  291. Durante un periodo de cinco años en la década de 1990, se solicitó de manera anual a los pescadores de 28 lagos de Wisconsin que informaran el tiempo que dedicaban a pescar y cuántos peces de cada tipo capturaban. Luego, sus respuestas se convirtieron en una tasa de captura por hora para:
  292.  
  293. $$
  294. \begin{aligned}
  295. x_{1}&=\textrm{Bluegill}, x_{2}=\textrm{Black crappie}, x_{3}=\textrm{Smallmouth bass}\\
  296. x_{4}&=\textrm{Largemouth bass}, x_{5}=\textrm{Walleye}, x_{6}=\textrm{Northern pike}
  297. \end{aligned}
  298. $$ La matriz de correlación estimada (cortesía de Jodi Barnet):
  299.  
  300. ```{r,echo=FALSE}
  301. tabla6=data.frame(c("$X_{1}$","$X_{2}$","$X_{3}$","$X_{4}$","$X_{5}$","$X_{6}$"),c(1.0000,0.4919,0.2635,0.4653,-0.2277,0.0652),c(0.4919,1.0000,0.3127,0.3506,-0.1917,0.2045),c(0.2636,0.3127,1.0000,0.4108,0.0647,0.2493),c(0.4653,0.3506,0.4108,1.0000,-0.2249,0.2293),c(-0.2277,-0.1917,0.0647,-0.2249,1.0000,-0.2144),c(0.0652,0.2045,0.2493,0.2293,-0.2144,1.0000))
  302. colnames(tabla6)=c("Variable","$X_{1}$","$X_{2}$","$X_{3}$","$X_{4}$","$X_{5}$","$X_{6}$")
  303. kable(tabla6)
  304. ```
  305.  
  306. se basa en una muestra de aproximadamente 120 (faltaban algunos valores). Los peces capturados por el mismo pescador viven uno al lado del otro, por lo que los datos deberían proporcionar alguna evidencia sobre cómo se agrupan los peces. Los primeros cuatro peces pertenecen a los centrar-chids, la familia más abundante. La clase `walleye` es el pescado más popular para comer.
  307.  
  308. -   Usando solo las medidas $x_{1}-x_{4}$, obtenga la solución del componente principal para modelos de factores con `m=1` y `m=2`
  309.  
  310. **Ejercicio 17**
  311. Una empresa intenta evaluar la calidad de su personal de ventas y trata de encontrar un examen o serie de pruebas que puedan revelar el potencial de un buen rendimiento en ventas. La empresa ha seleccionado una muestra aleatoria de _50_ vendedores y ha evaluado a cada uno de ellos en función de _3 medidas de rendimiento:_ `crecimiento de las ventas-CV, rentabilidad de las ventas-RV y ventas de nuevas cuentas-VNC`. Estas medidas se han convertido en una escala, en la que _100_ indica un rendimiento "medio". Cada uno de los _50_ individuos se sometió a _4_ pruebas que pretendían media la **creatividad-cre, el razonamiento mecánico-razme, el razonamiento abstracto-razab** y la **capacidad matemática-capma**, respectivamente. Las n=50 observaciones sobre p=7 variables se enumeran en el archivo entregado en el aula virtual.
  312.  
  313. a.  Suponga un modelo factorial ortogonal para las variables estandarizadas $Z_{i}=(X_{i}-\mu_{i})/\sqrt{\sigma_{ii}},i=1,2,\cdots,7$. Obtenga la solución de componentes principales o la solución de máxima verosimilitud para m=2 y m=3 factor común.
  314.  
  315. b.  Dada su solución en (a), obtenga las cargas rotadas para m=2 y m=3. Compare los dos conjuntos de cargas rotadas. Interprete las soluciones factoriales para m=2 y m=3.
  316. c.  Enumere las comunalidades estimadas, las varianzas específicas y $\hat{L}\hat{L}'+\hat{\Psi}$ para las soluciones m=2 y m=3. Compare los resultados. ¿Qué elección de `m` prefiere en este momento? ¿Por qué?
  317.  
  318. d.  Realice una prueba de $H_{0}:\Sigma-LL'+\Psi$ frente a $H_{1}:\Sigma\neq LL'+\Psi$ para m=2 y m=3 al nivel $\alpha=0.01$. Con estos resultados y los de las partes b y c. ¿Qué elección de m parece ser la mejor?
  319.  
  320. e.  Supongamos que un nuevo vendedor, seleccionado al azar, obtiene las puntuaciones $x'=[x_{1},x_{2},\cdots,x_{7}]=[110,98,105,15,18,12,35]$ en la prueba, Calclue el factor `salesperson's` utilizando el método de los mínimos cuadrados ponderados y el método de regresión. _Nota:_ los componentes de $x$ deben estandarizarse utilizando las medias y varianzas muestrales calculadas a partir de los datos originales.
Advertisement
Add Comment
Please, Sign In to add comment
Advertisement