Modelos para la media
Invalid Date
Variable respuesta
- En lo que sigue consideramos que hay una variable importante.
- La variable importante (para el experimentador) se le llama variable respuesta.
- En denominaciones más clásicas, variable dependiente.
- El resto de variables del estudio (las que recogemos en \(\mathbf x_i\)) son las variables predictoras o independientes.
- Nuestra información está formada por \((\mathbf x_i, y_i)\) con \(i=1,\ldots,n\).
¿Qué problema queremos resolver?
- Una respuesta fácil es decir que queremos conocer el valor de la variable respuesta utilizando las variables predictoras.
- La respuesta anterior es falsamente simple.
- ¿Solamente queremos conocer el valor de la respuesta?
- Quizás estamos pensando en un futuro en donde conozcamos las variables predictoras y nos interese saber cuál será la respuesta correspondiente.
- ¿El valor exacto de la respuesta?
- ¿La media de la respuesta?
- ¿Un valor numérico que aproxime cada una de estas cantidades o bien un intervalo que las contenga?
Datos de Galton
- Históricamente podemos considerar el origen de este tipo de modelos.
- El problema que se plantea Galton es estudiar la posible relación que puede tener la estatura de un hijo o hija en edad adulta con las estaturas de sus padres.
Datos de Galton\(\ldots\)
¿Qué tipos de dependencia vamos a considerar?
- En la mayor parte de los casos dependencias de tipo lineal.
- Suponemos dos predictores \(\mathbf x = (x_1,x_2)^T\) tales que \(x_1\) es numérico y el segundo es una variable categórica binaria codificada con 1 y 0.
- ¿Cómo modelizamos la dependencia de la media condicionada respecto de \(x_1\)?
- Una dependencia lineal vendría dada como \[
\mu_i = \beta_0 + \beta_1 x_{i1}.
\]
\(\ldots\)
¿Y la dependencia de las \(\mu_i\) respecto de la variable binaria?
- Obviamente simplemente tenemos dos valores.
- Un modo simple es \[
\mu_i = \beta_0 + \beta_2 x_{i2}.
\]
- Cuando \(x_{i2}=0\) \[\mu_i =\beta_0.\]
- Cuando \(x_{i2}=1\) \[\mu_i =\beta_0 + \beta_2.\]
¿Y las dos variables predictoras conjuntamente consideradas?
- El modelo más sencillo sería: \[
\mu_i = \beta_0 + \beta_1 x_{i1} + \beta_2 x_{i2}.
\]
- Cuando \(x_{i2} = 0\) entonces \[\mu_i =\beta_0 + \beta_1 x_{i1}. \]
- Cuando \(x_{i2} = 1\) entonces \[\mu_i =\beta_0 + \beta_2 + \beta_1 x_{i1}.\]
¿Como podemos expresar la dependencia de ambas covariables?
- Otra vez recurrimos a la opción de expresarlo de un modo lineal. \[
\mu_i = \beta_0 + \beta_1 x_{i1} + \beta_2 x_{i2} + \beta_3 x_{i1}x_{i2}
\]
- Cuando \(x_{i2} = 0\) tenemos \[
\mu_i = \beta_0 + \beta_1 x_{i1}.
\] Cuando \(x_{i2} = 1\) tenemos \[
\mu_i = (\beta_0 + \beta_2) + (\beta_1 + \beta_3) x_{i1}.
\]
Predictor categórico y variables dummy
- Cuando consideramos una variable predictora categórica con más de dos categorías entonces es habitual codificarla utilizando variables tontas.
- Si la variable predictora categórica tiene \(I\) categorías entonces se elige una categoría de referencia (por ejemplo, la primera).
- Las variables binarias asociadas a la variable original \(x\) serían: \(v_1 =1\) si \(x=2\) y cero en otro caso; \(v_2 =1\) si \(x=3\) y cero en otro caso; \(\ldots\); \(v_{I-1} =1\) si \(x=I\) y cero en otro caso.
- Obviamente cuando todas las variables \(v\) son nulas estamos en la primera categoría.
\(\ldots\)
- Si solamente tenemos la variable categórica como predictora entonces la media sería función lineal de \(x\) del siguiente modo: \[
\mu_i = \beta_0 + \beta_1 v_1 + \ldots + \beta_{I-1} v_{I-1}.
\]
\(\ldots\)
- Por ejemplo, supongamos una numérica \(x\) y una categórica \(v\) con \(I\) categorías. Construimos las variables tontas siendo \(I\) la de referencia. Podemos considerar modelos como \[
\mu_i = \beta_0 + \beta_1 x_{i},
\] que lo expresamos como \[
y \sim x
\]
- Un modelo que contiene solamente a \(v\) sería el dado previamente \[
\mu_i = \beta_0 + \beta_1 v_{i1} + \ldots + \beta_{I-1} v_{i,I-1}.
\] y lo expresamos como \[
y \sim v
\]
\(\ldots\)
- Un modelo que contempla ambas variables puede ser \[
\mu_i = \beta_0 + \beta_1 x_{i} +
\beta_2 v_{i1} + \ldots + \beta_{I} v_{i,I-1}
\] Este modelo lo podemos abreviar como \[
y \sim x + v
\]
- Un modelo más completo que contempla la posible interacción sería \[\begin{multline*}
\mu_i = \beta_0 + \beta_1 x_{i} +
\beta_2 v_{i1} + \ldots + \beta_{I} v_{i,I-1} + \\
\beta_{I+1} x_{i}v_{i1} + \ldots + \beta_{2I-1} x_{i}v_{i,(I-1)}
\end{multline*}\] Esto lo indicaremos como \[
y \sim x * v
\] \[
y \sim x + v + x:v
\]
Matriz modelo y espacio modelo
Matriz modelo
- Tenemos el vector de medias \[
\mathbf \mu =
\begin{bmatrix}
\mu_1 \\
\vdots \\
\mu_n
\end{bmatrix}
\]
- \[
\mathbf X =
\begin{bmatrix}
x_{11} & \ldots & x_{1p} \\
\vdots & \vdots & \vdots \\
x_{n1} & \ldots & x_{np}
\end{bmatrix}
\]
- \(\mathbf X\) es la matriz modelo.
Matriz modelo\(\ldots\)
- Asumimos \[
\mu_i = \sum_{j=1}^p \beta_j x_{ij},
\] - En modo matricial, \[
\mathbf \mu = \mathbf X \mathbf \beta,
\] siendo el vector de coeficientes \[
\mathbf \beta =
\begin{bmatrix}
\beta_1 \\
\vdots \\
\beta_p
\end{bmatrix}.
\]