Modelos con efectos aleatorios
dudas: GLMM FAQ
(gracias Ben Bolker et al.!) o aquí: A brief introduction to…
(gracias Harrison et al.!)
(slides en verde claro pueden obviarse)
dudas: GLMM FAQ
(gracias Ben Bolker et al.!) o aquí: A brief introduction to…
(gracias Harrison et al.!)
(slides en verde claro pueden obviarse)
Para incluir efectos alatorios extendemos el modelo lineal… \[y_i = \beta_0 + \beta_1x_{1i} + ... \beta_kx_{ki} + \epsilon_i \quad \epsilon_i\sim N(0, I\sigma^2)\]
\[Y_i = X_i\beta + \epsilon_i \quad \epsilon_i\sim N(0, I\sigma^2)\]
\[Y{i} = X_{i}\beta + Z_{i}b_{i} + \epsilon_{i}\] Los efectos aleatorios se distribuyen con media 0 \[b_i \sim N(0, D)\] Los errores se distribuyen con media cero y matriz \(\sum^2\) de varianza-covarianza. \[\epsilon_i \sim N(0, \Sigma^2)\]
La variable respuesta entonces…
\[Y_{i} \sim N(X_i\beta, V_i)\]
Para un vector \(y\) existe una función de densidad de probabilidad \(f_{\theta}(y)\) donde \(\theta\) son parámetros desconocidos.
Aquellos valores de \(\theta\) que hacen que \(f_{\theta}(y)\) sea mayor para los valores observados de \(y\) es más verosímil que sean correctos que aquellos que hacen menores los valores de \(f_{\theta}(y)\).
Así que
\[l(\theta) = log(f_{\theta}(y))\] Con la agradable propiedad de
\[2(l(\hat\theta_1)-l(\hat\theta_0)) \sim \chi_{p1-p0}^2\] Y que el respaldo (comparativo) del modelo puede ser
\[AIC = -2(l(\hat\theta)) + 2p\]
si tengo que estimar \(V\) a partir de \[Y_{i} \sim N(X_i\beta, V_i)\] requiere que \(\beta\) sea estimado!
REML evita esta estimación, removiendo \(\beta\) al ecnontrar una matriz \(A'\) que
\[A'X\beta = 0\] \[A'Y \sim N(0, A'VA)\]
(Modificado de GLMM FAQ)
- Modelos lineales mixtos (LMM): aov(), nlme::lme1, lme4::lmer
- Modelos lineales generalizados mixtos (GLMM):
+ frecuentistas: MASS::glmmPQL, lme4::glmer
+ Bayesianos: MCMCglmm::MCMCglmm
- Modelos mixtos no lineales: nlme::nlme, lme4::nlmer
- Modelos aditivos generalizados mixtos: mgcv::gamm