| MODELOS DE
PROBABILIDAD (INTRODUCCIÓN) PROCESOS EXPERIMENTALES DISTRIBUCIÓN CAUSAL DISTRIBUCIÓN DICOTÓMICA DISTRIBUCIÓN BINOMIAL |  | 
Una distribución de probabilidad queda definida y caracterizada por:
1.- la especificación de la variable aleatoria y su campo de variación.
2.- la especificación de su asignación de probabilidades, mediante la función de distribución.(Alternativamente mediante la f.cuantía o densidad , la F.C. o la F.G.M.(si existe).(Estas son las FUNCIONES DE DEFINICIÓN)
Si un conjunto dado de distribuciones tiene sus funciones de distribución con la misma ESTRUCTURA FUNCIONAL, diremos que pertenece a la misma FAMILIA DE DISTRIBUCIONES, al mismo MODELO DE PROBABILIDAD o a la misma DISTRIBUCIÓN-TIPO.
p.ej : Todas las distribuciones que están definidas sobre una v.a. continua de modo que para x³ 0 la función de densidad es : f(x)= a e-ax siendo a un real positivo (alternativamente: F(x)= 1- e-ax ; f (t) = (1-t/a )-1 ; son equivalentes la tres caracterizaciones), pertenecen a la misma familia, modelo o tipo (el exponencial).
La estructura matemática de las funciones de definición que caracterizan un modelo de probabilidad suelen depender de uno o más parámetros.Estos parámetros son los PARÁMETROS DE LA DISTRIBUCIÓN(TIPO), y tienen un importancia fundamental, en Estadística matemática y sobre todo en INFERENCIA ESTADÍSTICA.
Muchos modelos de probabilidad pueden establecerse teóricamente sin necesidad de recurrir a un sistema de aleatorización racional .Sin embargo , en muchos casos resulta conveniente definir los modelos de probabilidad recurriendo a un claro sistema de aleatorización sobre determinado tipo de fenómeno aleatorio .Procediendo de esta manera podremos disponer de un sistema para identificar el modelo a aplicar en un gran número de situaciones prácticas semejantes.
El procedimiento es sencillo : primero haremos una clasificación de los fenómenos aleatorios de más fácil determinación (procesos experimentales), después determinaremos algunas aleatorizaciones que nos generan variables aleatorias cargadas de gran significado práctico y , por último , obtendremos la estructura funcional de las funciones de definición de su distribución , partiendo , para ello, de la probabilidad inducida para la variable por el fenómeno aleatorio.
Nos apoyamos , por tanto ,en el concepto de proceso experimental para definir muchos de los modelos de probabilidad que vamos a estudiar.
Un proceso experimental es el conjunto de características que rigen la realización de un determinado fenómeno aleatorio. Un proceso quedará definido por una serie de características o hipótesis que puedan aplicarse a cierta categoría de experimentos o experiencias en las que participa el azar. Cada proceso dará cuenta de un conjunto de fenómenos similares que se producen con las mismas características o bajo las mismas hipótesis.
A partir de las características del fenómeno que analicemos (partiendo del proceso experimental del que se trate) podremos , identificando la variable aleatoria que nos interesa , estudiar y determinar la estructura matemática de su distribución .Podremos agrupar los modelos de probabilidad a aplicar.
CLASIFICACIÓN DE LOS PROCESOS EXPERIMENTALES
        De una manera un exhaustiva
podemos clasificar los procesos experimentales en tres grandes grupos:
- Procesos experimentales puros
- Procesos experimentales de observación
- Procesos experimentales de selección o extracción aleatoria.
Cabría considerar un cuarto grupo que supondrían aquellos procesos experimentales de "salto al límite" de cualquiera de los anteriores, cuando las características propias del fenómeno considerado tomen valores tan elevados que puedan considerarse tendentes a infinito , serían procesos que podemos denominar Gaussianos en honor al investigador de la distribución normal , ya que es a esta distribución o modelo al que suelen converger en su "salto al límite" los modelos o distribuciones de otros procesos .
Procesos experimentales puros son aquellos son aquellos en los que se considera la realización de una prueba o experimento una o más veces. Cada prueba realizada podrá darnos un cierto número de resultados posibles , siempre susceptibles de convertirse en dos únicos complementarios : éxito o fracaso. Cada resultado tendrá un probabilidad de ocurrir. Dependiendo de las características de estas probabilidades (constantes o no a lo largo del proceso) , del número de pruebas ( una , varias o un número indeterminado) , y sobre todo de la aleatorización que consideremos , que dependerá de las pretensiones de nuestra experimentación ,podremos derivar distintas distribuciones de probabilidad. Cuando cada prueba puede dar tan sólo uno de dos resultados posibles (éxito o fracaso) suele hablarse de que se trata de una experiencia de Bernouilli. En honor a este autor podemos llamar a todos estos procesos (tengan o no sus pruebas dos únicos resultados posibles ) procesos de Bernouilli.
De los procesos de Bernouilli podemos hacer derivar distribuciones de variable discreta muy importantes como la dicotómica, binomial , la geométrica, binomial negativa , hipergeométrica , la hipergeométrica negativa, la polinomial o la hipergeométrica de varias variables. Cada una de ellas podrá deducirse dependiendo de las características de las pruebas (dos o más resultados) de la naturaleza de. las probabilidades (constantes o no) y del número de pruebas; y por supuesto de la aleatorización considerada que dependerá de nuestros intereses prácticos.
Los procesos experimentales de observación engloban situaciones y fenómenos en los que se observa la naturaleza (o, por decir lo de una manera más amplia, la realidad) a la espera de que se produzca un hecho, durante un determinado periodo experimental o a lo largo de un determinado espacio de experimentación (durante un intervalo de tiempo o de espacio). El hecho sujeto a estudio puede o no producirse, escapándose su realización al control causal ;esto es, es aleatorio. Igualmente, puede producirse el hecho ninguna, una o más veces, durante el periodo experimental. Ejemplos de estos tipo de hechos serían el desencadenamiento de un accidente o un fallo, una llamada telefónica, un siniestro, la llegada de un cliente a una oficina etc.
Es fundamental distinguir entre los procesos experimentales puros (de Bernouilli) y los procesos de observación : En los primeros un experimentador realiza una o varias pruebas, en los segundos se limita a observa que un evento se produzca (o no).
Si el objeto de nuestro interés es el número de hechos que se producen en periodo experimental una adecuada aleatorización nos llevará a la consideración de una variable aleatoria discreta, fácilmente definible como "número de hechos ocurridos” .Bajo ciertas condiciones, podremos derivar una adecuada distribución para esta variable. La distribución más importante que puede derivarse para este tipo de casos es la distribución de Poisson.
Si, por el contrario, nos interesa determinar el tiempo (o el espacio) necesarios para que se produzca el hecho que consideramos ; el tiempo (o el espacio) para que se produzca el hecho será una variable aleatoria continua .Las distribuciones ,derivadas, serán las asociadas a los fenómenos de espera, o de fiabilidad, que estudiaremos posteriormente. (La más, importante de ellas, es la distribución exponencial).
Los procesos de selección aleatoria se caracterizan por la extracción aleatoria de uno o más individuos de entre el conjunto de los que constituyen la población estudiada. De los individuos seleccionados se podrán analizar características cuantitativas o cuantitatizables. Estas características serán variables aleatorias que dependiendo de su propia , naturaleza y de las hipótesis del proceso tendrán una u otra distribución y seguirán uno u otro modelo. Los procesos de selección aleatoria son fundamentales en la inferencia estadística ya que a partir de ellos puede deducirse toda la teoría del muestreo. Estos procesos, serán considerados con detalle en el estudio del muestreo aleatorio. Digamos ahora, que todas las distribuciones de probabilidad pueden ser derivadas de procesos de este tipo .En cualquier caso, la selección por antonomasia genera las distribuciones uniforme de variable discreta y continua, y desde el punto de vista práctico, las hipótesis de este tipo de procesos nos conducen en muchos casos a la distribución Normal o algunas de sus distribuciones derivadas.
DISTRIBUCIÓN CAUSAL
La distribución causal no es, propiamente una distribución de probabilidad .La razón es que es aplicable en aquellos casos en que la probabilidad de un único y cierto valor de la variable es 1 y, para todo el resto de valores reales la probabilidad es cero. En consecuencia esta distribución sólo puede dar cuenta de fenómenos en los que la ocurrencia de un cierto suceso es segura y la ocurrencia de cualquier otro es imposible. En estos casos, obviamente, no existe azar, pero a través de esta distribución, nos resulta fácil ver la causalidad o el determinismo como un caso particular de azar o aleatoriedad.
Proceso experimental del que se puede hacer derivar.
Esta distribución puede hacerse derivar de un proceso puro o de Bernouilli si consideramos las siguientes
·
Se realiza un número definido de pruebas, N.
·
Cada una de las pruebas puede dar dos resultados mutuamente  excluyentes :
A y   no A
·
La probabilidad en cada prueba de obtener un resultado A es siempre la misma
(constante) y es igual a 1 , lógicamente la probabilidad de obtener en
cualquier prueba un resultado  no A será cero.
·
(Derivación de la distribución) si en estas circunstancias aleatorizamos de
forma que la variable aleatoria X se defina como " el número de resultados
A obtenidos en N pruebas" la variable aleatoria X tendrá una
distribución causal (de parámetro N)
Características analíticas ,de la distribución
         
Es fácil comprobar que la 
función de cuantía de esta distribución será
:            
      
              
Siendo la función de
distribución            
         
     
           
función de cuantía función de distribución
La media del modelo causal
será            
Siendo la varianza                 
                                            
   
DISTRIBUCIÓN DICOTÓMICA.(Bernouilli).
El campo de variación de la variable es : {0,1}. y la función de cuantía es :
P(X=0) = q = 1-p
P(X=1)= p .
                       
Si una variable aleatoria X sigue o tiene una distribución dicotómica de
parámetro p 
                                
se expresará  como 

Modeliza situaciones en las que :
· Se realiza una prueba
· Que sólo puede dar dos resultados posibles: A y Ã
· La probabilidad del resultado A es P(A) = p y la del resultado A es P(Ã)= q=1-p.
· En estas circunstancias la variable aleatoria X significa "nº de resultados A que se obtienen.

                     
La media de la distribución será: 

La varianza de la distribución: s2 = a2- m2
con : a2 = S x2.P(x) = 0.q +1.p= p
s2 = a2- m2 = p - p2 = p (1-p) = p.q
Y la F.G.M.:
f (t) = E(etx) = S etx P(x) = e0 q + et p = pet +q
Es fácil comprobar que todos los momentos ordinarios de orden mayor o igual a 1 son iguales a p.
DISTRIBUCIÓN BINOMIAL.
Nos encontramos con un modelo derivado de un proceso experimental puro, en el que se plantean las siguientes circunstancias.
·
Se realiza un número n de pruebas (separadas o separables).·
Cada prueba puede dar dos únicos resultados A y ÷
La probabilidad de obtener un resultado A es p y la de obtener un resultado à es q, con q= 1-p, en todas las pruebas. Esto implica que las pruebas se realizan exactamente en las mismas condiciones y son , por tanto ,independientes en sus resultados. Si se trata de extracciones, (muestreo), las extracciones deberán ser con devolución (reemplazamiento) , o bien población grande (M.A.S). A este respecto hagamos una consideración: si el proceso consiste en extraer individuos de una población y observar si poseen cierta característica: el parámetro n será el número de extracciones (tamaño muestral) y el parámetro p la proporción de individuos de la población que poseen la característica en cuestión. Se ha comentado que para que la probabilidad, de que en cada extracción obtengamos un individuo poseedor de la característica sea constante en todas la pruebas es necesario que las proporciones poblacionales no cambien tras cada extracción es decir se reemplace cada individuo extraído .Sin embargo si la población es muy grande, aunque no reemplacemos los individuos extraídos las variaciones en las proporciones de la población restante serán muy pequeñas y, aunque de hecho las probabilidades de, obtener un éxito varíen tras cada prueba, esta variación será muy pequeña y podremos considerar que son constantes .Ilustremos con un ejemplo:

Supongamos que una ciudad hay 1000000 de habitantes de los 
cuales 450000 son varones y 550000 son mujeres . Si extraemos un individuo al 
azar la probabilidad. de que sea mujer será.

Si repetimos esta prueba varias veces y no reponemos "en el saco" al sujeto 
extraído la probabilidad de obtener una mujer en cada siguiente extracción 
variará, al variar la composición por sexos de la población restante. Sin 
embargo, al ser la población tan grande, la variación de esta probabilidad con 
cada sucesiva prueba será prácticamente despreciable y podremos considerar, en 
la práctica que las probabilidades son constantes: en efecto:
Si, en la primera prueba obtenemos una mujer y no la 
reintegramos a la población la de probabilidad de obtener una mujer en la 
segunda prueba será:
                                

Si por el contrario en la primera prueba se obtiene un varón la probabilidad de 
obtener una mujer el siguiente será:
 
                          

Por lo tanto bien podríamos considerar que la probabilidad de extraer una mujer 
en sucesivas elecciones aleatorias es constante. En consecuencia, si 
consideráramos el muestreo de 10 individuos de esa ciudad, aunque no 
reemplazáramos las extracciones, la variable aleatoria x = número de mujeres 
obtenidas en las diez extracciones, seguiría una distribución binomial de 
parámetros n = 10 Y p= 0.55.
Sin embargo, si la población es pequeña, las variaciones de la probabilidad de éxito con cada prueba serán importantes sino se devuelve a la población original cada sujeto extraído .En este caso, no podremos considerar que p y q son constantes a lo largo de todo el proceso y el número de éxitos obtenidos en n pruebas será una variable aleatoria que no seguirá una distribución binomial sino una nueva distribución que estudiaremos , más tarde llamada hipergeométrica.
·
En estas circunstancias se aleatoriza de forma que variable aleatoria signifique:X = nº de resultados A que se obtienen en las n pruebas
Se plantean dos valores con variación por lo que tendremos 
dos parámetros p y n , por lo que la distribución binomial se explicitará :

El campo de variación de la variable será {0,1,2,3,..., n}, por lo que no es 
necesario comentar que es de carácter discreto. Así tendremos que si queremos 
calcular la probabilidad de que X=1 en n pruebas , tendríamos 1 resultado A y 
n-1 resultados no A.
| Prueba 1 | Prueba 2 | Prueba 3 | ……. | Prueba n | Prueba | |
| No A | No A | No A | No A | No A | A | Resultado | 
| q | q | q | q | q | p | Probabilidad | 
Por lo que la probabilidad de conseguir un resultado A sería 
en principio , y dado que las pruebas son independientes
 . Lo que sería 
correcto si el resultado A , lo fuera en la última prueba. Dado que nos es 
indiferente en que prueba sea tendríamos que multiplicar esta probabilidad por
 . Lo que sería 
correcto si el resultado A , lo fuera en la última prueba. Dado que nos es 
indiferente en que prueba sea tendríamos que multiplicar esta probabilidad por
 . Por lo que 
tendríamos que:
 . Por lo que 
tendríamos que:
 generalizando 
para cualquier valor de X , quedaría que la función de cuantía de la binomial  
tiene como expresión
 generalizando 
para cualquier valor de X , quedaría que la función de cuantía de la binomial  
tiene como expresión          

 
 
Gráficamente la función de cuantía quedaría de la siguiente manera , siempre dependiendo de los valores que tomen los parámetros . En este caso se trata de una B(0,2;10),siendo la representación gráfica de su función de cuantía:
La función de distribución será para cada valor k de la variable  

Los indicadores-momentos (media y varianza) pueden obtenerse a partir de la función de cuantía (operador esperanza) o partiendo de F.G.M.:
Siendo la F.G.M.:  

                                    
 
 
desarrollando el Binomio de Newton obtendríamos ,
 
 
También podríamos haber obtenido la F.G.M. , partiendo del 
hecho de que la distribución o modelo binomial es la reiteración n veces del 
modelo dicotómico, Así si:
 es decir 
realizamos una prueba con probabilidad de éxito p , siendo la aleatoriación el 
número de resultados A en esa prueba . Tendremos que un serie de pruebas 
independientes (n) con probabilidad de A en cada prueba , será la agregación de 
n dicotómicas . Si X es el número de resultados A en esas n pruebas y por tanto 
una Binomial n,p. Así
 es decir 
realizamos una prueba con probabilidad de éxito p , siendo la aleatoriación el 
número de resultados A en esa prueba . Tendremos que un serie de pruebas 
independientes (n) con probabilidad de A en cada prueba , será la agregación de 
n dicotómicas . Si X es el número de resultados A en esas n pruebas y por tanto 
una Binomial n,p. Así
                             

De esta manera si conocemos que la F.G.M de la dicotómica (Y) es   
 
 
dado que  
 
 
la F.G.M. de X (binomial) será el producto , n veces , de la 
F.G.M de Y ( dicotómica) dado que las Y son independientes. Así    

Mediante la aplicación del teorema de los momentos podemos calcular las ratios del modelo.
           
La media sería 
 si hacemos t =0
             
si hacemos t =0          

                    
por lo que la media sería
 
      

Podríamos haber calculado la media partiendo de la binomial como reiteración de dicotómicas ; así
                
Si  conociendo 
que la media de Y= p
 conociendo 
que la media de Y= p
             

que lógicamente nos resulta con el mismo resultado
La varianza de la Binomial vendría dada por

Siendo
 
 
 si hacemos t =0
si hacemos t =0        
 o lo que es lo mismo
o lo que es lo mismo
                             

Así                    

           
Luego la varianza sería

Calculando la varianza de la binomial como reiteración de dicotómicas sería
Si
 conociendo que 
la varianza de Y= pq
 conociendo que 
la varianza de Y= pq
                  

Partiendo de la F.G.M obtendríamos los diversos momentos ordinarios necesarios para el cálculo de otros coeficientes como el de asimetría y curtósis. Cuyas expresiones son las siguientes.
Coeficiente de Asimetría
 en el que se 
puede comprobar que si p=q=0,5 su valor es cero, lo que nos indica simetría para 
este valor del parámetro p , siendo el que fuere n
 en el que se 
puede comprobar que si p=q=0,5 su valor es cero, lo que nos indica simetría para 
este valor del parámetro p , siendo el que fuere n
Coeficiente de Curtósis
 siendo mínimo 
para p=q=0,5
 siendo mínimo 
para p=q=0,5 
En cuanto a la Moda ,dado que es el valor de la variable con mayor probabilidad (maximiza su función de probabilidad). Tendremos que si Xo es el valor modal
P(Xo) ³ P(Xi) para cualquier valor de i , en particular se verificará que
P(Xo) ³ P(Xo +1) y P(Xo) ³ P(Xo-1) es decir que el valor de la función de cuantía para el valor modal será mayor que dicho valor para los valores anterior y posterior a la moda.
Sustituyendo por las correspondientes funciones de cuantía en ambas inecuaciones , llegaremos a la expresión :
pn - q £ Xo £ pn + p
Siendo Xo el valor modal
Generalmente será un único valor ( la parte entera de la 
media), y podrán ser dos valores modales cuando pn + p ( ó pn-q) sea un número 
entero. Como ejemplo: si lanzamos un dado 10 veces y queremos saber cúal es el 
número más probable de ases que conseguiremos tendremos que calcula la moda en 
un modelo B(1/6;10) .Aplicando la desigualdad anterior tendríamos : 1/6·10-5/6≤Mo≤1/6·10+1/6 
. Es decir 5/6≤Mo≤11/6
Sólo existe un número natural que verifique esa cota , el 1 . Para que hubiera 
más de una moda , ambos valores de la desigualdad debieran ser números naturales 
como los valores de la variable X con distribución binomial
Teorema de adición en la binomial
Se dice que una distribución verifica el Teorema de adición, para alguno de sus parámetros, o que es reproductiva, si dadas 2 o más variables aleatorias independientes que siguen todas ellas una distribución de ese tipo con parámetros distintos, la variable suma de todas ellas sigue, también una distribución de ese tipo con parámetros la suma de los parámetros de las variables originales.
Este teorema se prueba siempre a partir de la F.G.M. Se procede obteniendo la F.G.M. de la distribución de la variable suma , que por ser las variables originales independientes será el producto de las F.G.M. de las distribuciones de las variables originales. Una vez obtenida la F.G.M. comprobaremos si efectivamente se trata de F.G.M. de una distribución de ese tipo con parámetros la suma de los parámetros de las distribuciones de las variables originales .En virtud del carácter recursivo de la operación suma , para demostrar el teorema basta con demostrar que se cumple para la suma de dos variables aleatorias.
Pues bien, la distribución binomial verifica el teorema de adición para el parámetro n , aunque no lo verifica para el. parámetro p (además es necesario para que se verifique el teorema que el parámetro p de las distribuciones de las variables originales sea el mismo) :
"La variable suma de dos o más variables binomiales independientes de parámetros (n1,p) : (n2,p) : ………….... se distribuye como una distribución binomial de parámetros ( n1+n2+…, p) "
En efecto :
sean X e Y dos variables alaeatorias independientes tales que:

 
pretendemos probar que

Conocemos que la F.G.M del modelo binomial es para X   

                                                                  
siendo para Y  
 
 
Dado que X e Y son independientes la F.G.M. de la distribución de la variables suma será el producto de las dos F.G.M.
                        

que es la F.G.M. de una B( n1+n2, p).
Observesé que este teorema se utilizó para el cálculo de la F.G.M. de la Binomial como reiteración (suma) de Dicotómicas , con la salvedad de tomar a la Dicotómica como una Binomial de n = 1 , es decir adición de n binomiales B(1,p)