DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD     Creative Commons License


FUNCIÓN DE DISTRIBUCIÓN CONJUNTA DE UN VECTOR ALEATORIO

* En vectores aleatorios discretos y continuos:

F(x,y) = P (X £ x , Y £ y ) = P [ (X,Y) Î ]-¥ ,x] ´ ]-¥ ,y] ]

F(x1, x2 ,...,xn ) = P (X1 £ x1, X2£ x2,..., Xn £ xn) =

= P [ (X1 ,X2 ,...,Xn) Î ]-¥ , x1] ´ ]-¥ , x2] ´ ...´ ]-¥ , xn]]

propiedades

1.- 0 £ F(x,y) £ 1

0 £ F(x1, x2 ,...,xn ) £ 1

2.- F(¥ ,¥ )= 1

F(¥ ,¥ ,...,¥ )=1

3.- F(-¥ ,y)= 0 ;; F(x,-¥ )=0

F( -¥ , x2 ,...,xn) = 0 ;; F(x1, -¥ ,...,xn )= 0 ;; F(x1, x2 ,..., -¥ )= 0

4.- Es siempre No decreciente para todas y cada una de las componentes

5.- Es siempre continua por la derecha : graficamente

 

FUNCIÓN DE CUANTÍA CONJUNTA  de vectores aletorios discretos

P( x,y) = P(X=x ,Y= y)

P (x1, x2 ,...,xn ) = P (X1 = x1, X2= x2,..., Xn = xn)

Propiedades

1.-

2.- P(x,y) ³ 0

P (x1, x2 ,...,xn ) ³ 0

3. -

Así su representación sería:

 

FUNCIÓN DE DENSIDAD CONJUNTA de vectores aleatorios continuos

propiedades

1.- f(x,y) ³ 0

f(x1, x2,..., xn) ³ 0

2.-

3.-

su representación sería

 

DISTRIBUCIONES MARGINALES DE PROBABILIDAD

CASO DISCRETO:

BIDIMENSIONAL MULTIDIMENSIONAL

 

 

CASO CONTINUO:

BIDIMENSIONAL MULTIDIMENSIONAL

 

DISTRIBUCIONES CONDICIONADAS

CASO DISCRETO: BIDIMENSIONAL

CASO CONTINUO : BIDIMENSIONAL

 

INDEPENDENCIA ESTOCÁSTICA

Dos variables aleatorias X e Y se dice que son estocásticamente independientes cuando las distribuciones condicionadas y las marginales coinciden :

La independencia estocástica puede caracterizarse de una forma más operativa como :

X e Y son independientes Û P(x,y)= P(x) P(y), en el caso discreto,

o bien, X e Y son independientes Û f(x,y)= f(x) f(y) , en el caso continuo

 

ESPERANZA MATEMÁTICA EN DISTRIBUCIONES n-DIMENSIONALES.

Dado un vector aleatorio n-dimensional (v.a. n-dimensional), X1,X2,...,Xn, y dada una función cualquiera g(X1,X2,...,Xn) llamaremos esperanza matemática de g(X1,X2,...,Xn) a la expresión:

E[g(x1,x2,...,xn)]=

= caso continuo

=S S ... S g(x1,x2,...,xn).P(x1,x2,...,xn) caso discreto

Si la función g( ) no es completa ( no afecta a todas las variables ) la expresión del operador sólo dependerá de las variables afectadas.Así por ejemplo:

E[x1]quedaría tan sólo como la esperanza tomada sobre la distribución marginal:

caso continuo

E[x1]=

caso discreto

E[x1]= S x1P1(x1)

INDICADORES FUNDAMENTALES DE UNA DISTRIBUCIÓN

n-DIMENSIONAL

Al igual que ocurría en el caso de distribuciones de frecuencias los indicadores fundamentales de la distribución son únicamente los que se pueden obtener a partir de las distribuciones marginales unidimensionales ( media, varianza, etc.) y de cada par de variables (covarianza y coeficiente de correlación).
COVARIANZA Y CORRELACIÓN,
VECTOR DE MEDIAS,
MATRIZ DE VARIANZAS,
REGRESIÓN

 

COVARIANZA Y CORRELACIÓN ENTRE VARIABLES ALEATORIAS

La covarianza entre dos v.a. X e Y se define como:

                                           s xy= E[(x-m x)(y-m y)] = E[x.y] - m xm y

                siendo E[x.y] el momento ordinario mixto de orden 1,1 ( a1,1):

                    E[xy]= caso continuo

                        E[xy]=S S xy P(xy) caso discreto

La covarianza nos informa de la covariación conjunta de las dos variables, análogamente a como ocurría en el caso de distribuciones de frecuencias.Sólo hay que considerar aquí que la covariación hay que entenderla en términos de probabilidad y no de frecuencia: una covariación positiva sería el que a valores altos de una de la variables le corresponden "con mayor probabilidad" valores altos de la otra y a valores bajos valores bajos.(Una covariación negativa , inversamente).

Al igual también que en el caso de las distribuciones de frecuencias puede obtenerse un indicador de la correlación
( covariación estandarizada, relativizada y que permite la comparación al estar acotada):

Se define, entonces el coeficiente de correlación como: r =r xy=

                    Indicador que viene a tener al mismo sentido que en las distribuciones de frecuencias y que igualmente está acotado entre -1 y 1.

Si dos variables aleatorias son estocásticamente independientes su coeficiente de correlación ( y su covarianza es cero).

Sin embargo el resultado recíproco no es necesariamente cierto (dos variables incorrelacionadas no tienen porqué ser independientes, por lo general)

 

VECTOR DE MEDIAS  ( centro de gravedad) de una distribución de probabilidad

vector de medias:Es el vector columna formado por las medias de las distribuciones marginales univariantes:

 

MATRIZ DE VARIANZA ( DE VARIANZAS Y COVARIANZAS; DE COVARIANZAS O DE MOMENTOS) Y DE CORRELACIÓN

matriz de varianzas:Es la matriz n´ n formada por las varianzas y covarianzas:

 

matriz de correlación:Es la matriz n´ n formada por los coeficientes de correlación:

 

REGRESION DE VARIABLES ALEATORIAS

Al igual que en estadística descriptiva se puede concebir la regresión como un procedimiento de expresar una variable como función de otra u otras.

Análogamente a como ocurría allí:

La regresión Y/X en sentido estricto se define como: E[Y/X]

La regresión X/Y en sentido estricto se define como: E[X/Y]

y la regresión en sentido estricto puede ajustarse a alguna función análitica. En el caso lineal ( y por el método de mínimos cuadrados ) resulta que:

regresión lineal Y/X: Y*=my+ (r/s2x(x-mx))

regresión lineal X/Y : X*=mx+ (r/s2y(y-my))

 

ESPERANZA DE UN VECTOR .Linealidad

El operador esperanza puede extenderse para que actúe sobre un vector aleatorio, sin más que considerar que la esperanza de un vector es el vector formado por las esperanzas.

De esta manera: dado el vector aleatorio

 

la esperanza del vector vendrá dada por:

PROPIEDADES:

Si se realiza una transformación lineal del vector X de manera que el nuevo vector aleatorio k-dimensional Z sea:

                                Z = AX + b

                donde

                            entonces E[Z]= A E[X]+b :

LA ESPERANZA DE UNA TRANSFORMACIÓN LINEAL DE UN VECTOR ALEATORIO ES LA TRANSFORMACIÓN LINEAL DE LA ESPERANZA DEL VECTOR

VARIANZA DE UN VECTOR . OPERADOR VARIANZA

El operador varianza puede generalizarse para aplicarse sobre un vector aleatorio de forma que se podrá definir como:

V(X) = E[(X-E(X)) (X-E(X)) ']

El resultado de aplicar el operador a un vector aleatorio es, obviamente la matriz de varianzas-covarianzas.

PROPIEDADES:

Si se realiza una transformación lineal del vector X de manera que el nuevo vector aleatorio k-dimensional Z sea:

Z = AX + b

donde:

 

RESULTADOS COMPLEMENTARIOS IMPORTANTES:

1)Dada dos o más variables aleatorias independientes si las sumamos obtendremos una nueva variable aleatoria cuya F.G.M.(F.C.) será el producto de las F.G.M. (F.C) de las variables originales.

2) Distribuciones reproductivas por adición .

Un modelo de probabilidad ( distribución-tipo de probabilidad) univariante se dice que es reproductivo por adición o que verifica el teorema de adición cuando se cumple la propiedad siguiente:

Dadas dos o más variables aleatorias que tengan por distribución ese modelo de probabilidad y que sean (todas) independientes, la suma de ellas es una nueva variable aleatoria que tiene ese mismo modelo de probabilidad y cuyos parámetros son la suma de los parámetros

Modelos que cumplen la reproductividad aditiva (Teorema de adición):

BINOMIAL ( para el parámetro n ): la suma de dos o más variables binomiales independientes es una binomial de parámetro n la suma de los parámetros n .

POISSON (para el parámetro l ): la suma de dos o más variables de poisson independientes es una variable de poisson con parámetro l , la suma de los parámetros l .

NORMAL ( para la media y la VARIANZA): la suma de dos o más variables normales independientes es una variable normal con media la suma de las medias y con varianza la suma de las varianzas ( con D.Típica la raíz cuadrada de la suma de los cuadrados de las desviaciones típicas).

Todas estas reproductividades pueden probarse fácilmente utilizando el resultado 1) y teniendo en cuenta el efecto caracterizador de la F.G.M ( o de la F.C.)

3) PROPIEDAD FUNDAMENTAL (TEOREMA FUNDAMENTAL) DE LAS DISTRIBUCIONES NORMALES."Una combinación lineal cualquiera de variables normales independientes es también normal y tendrá por media la misma combinación lineal de las medias y por varianza la combinación , con los coeficientes al cuadrado, de las varianzas.