INTRODUCCIÓN A LA ESTIMACIÓN BAYESIANA DE PROPORCIONES

    En un gran número de fenómenos que pueden incluirse dentro de los llamados procesos de Bernouilli el parámetro p (Probabilidad de obtener un éxito en la prueba) puede entenderse como la proporción de individuos que poseen cierta característica .Pensemos en las situaciones en las que las pruebas implicadas en el proceso consistan en la extracción aleatoria (muestreo aleatorio) de individuos de una cierta población y la contemplación de si poseen o no una cierta característica

    En muchas situaciones prácticas la proporción con la que se da una característica en una población nos es desconocida y sin embargo puede resultar necesario determinarla o "estimarla ". Para ello podemos considerar la realización de una serie de ensayos consistentes en la extracción de individuos y la determinación de cuántos de ellos poseen, la característica. Si no muestreamos a la totalidad de los individuos de la población la proporción no podrá determinarse con absoluta certeza.

    Sin embargo, las técnicas estadísticas nos pueden ayudar a estimar la proporción desconocida con un cierto grado de probabilidad. Básicamente éste es un caso particular de un tipo de técnica de inferencia estadística que se conoce con el nombre de estimación .

    Podemos utilizar para la estimación únicamente la información suministrada por la muestra (Estimación clásica) o bien potemos utilizar además de la información muestral otros tipos de informaciones no muestrales , que podrían incluir experiencias anteriores, apreciaciones de expertos , ideas de tipo subjetivo, la opinión del investigador o la del "jefe" o el "cliente" .En este segundo caso es necesario utilizar métodos Bayesianos de Estimación.

    No pretendemos ahora tratar con profundidad las técnicas de la estadística Bayesiana, ni siquiera las técnicas de estimación, en general, sino sólo hacer una pequeña introducción a su utilidad.

    Los métodos Bayesianos de inferencia reciben este nombre por que son capaces de sintetizar la información muestral y la llamada "información a priori" (no muestral) utilizando el Teorema de Bayes.

    El primer presupuesto de la estimación Bayesiana es que la información inicial que se dispone sobre el parámetro que se quiere estimar (en nuestro caso el parámetro p -la proporción de una característica- puede, expresarse a través de una cierta distribución de probabilidad que se llama distribución a priori o distribución inicial.

    Puede considerarse que el parámetro puede tomar un conjunto numerable de valores posibles o bien que puede tomar valores comprendido en un cierto intervalo o en toda la recta real. En el primer caso la distribución a priori será discreta y en el segundo continua.

    Uno de los mayores problemas de la estadística bayesiana es , habitualmente , el hecho de poder construir la distribución a priori a partir de la información inicial ,pero aquí no nos platearemos el problema.

    Considerando la información disponible antes de realizar ninguna experiencia, la estimación del parámetro p deberá realizarse a partir de la distribución a priori. La manera de obtener un valor concreto para la estimación del parámetro es algo que debe plantearse, en general, considerado una cierta función de pérdida asociada al error de la estimación .Aquí consideraremos la función de pérdida más habitual: la pérdida cuadrática .La estimación que minimiza la pérdida cuadrática es la media de la distribución

    Así pues antes de hacer ninguna experiencia consideraremos la distribución a priori de p como toda la información disponible; y el mejor resumen de esta información , y por tanto la estimación inicial : la media de la distribución a priori:

    Esta primera estimación de p puede mejorarse utilizando la información muestral : utilizando los resultados obtenidos , en cierta experiencia consisten en la extracción aleatoria de algunos individuos de la población.

    Supongamos que realizamos una muestra de tamaño n (extraemos n individuos) y obtenemos x resultados del tipo que nos interesa. Dependiendo de lo que valga el parámetro p el resultado obtenido será más o menos verosímil. Esa verosimilitud de la muestra nos vendrá dada por la probabilidad de obtener x resultados éxito en n pruebas en función de los posibles valores del parámetro p desconocido: Así

                                                                             L(x}= P(x/p).

    Para cada posible valor del parámetro p esta probabilidad podrá calcularse . No será otra cosa que la función de cuantía de x en una distribución dicotómica , Binomial, geométrica ,Binomial Negativa , o Hipergeométrica (incluso Poisson ,aunque ésta sea un proceso de observación) con parámetro p el valor de cada una de las alternativas . Se tratará de una distribución dicotómica , binomial , etc según las condiciones en las que se realice el muestreo (una o varias pruebas, con reposición o no, un número fijo de extracciones, o extracciones hasta que se produzcan 1 u otro número fijo de éxitos)

    Para sintetizar la información a priori y la información muestral nos planteamos determinar las probabilidades de cada posible valor de p sabiendo que tras muestrear n individuos se han obtenido x éxitos:

                                                        que aplicando el Teorema de Bayes será:

                                                                     

        A la distribución que asigna a cada posible valor del parámetro la probabilidad de ese el valor condicionada a que la experiencia nos ha dado x éxitos en n pruebas se la conoce como distribución a posteriori o distribución final.

        Esta distribución nos da toda la información disponible acerca del parámetro desconocido p, tanto la inicial como la empírica. Y a partir de ella podremos realizar una segunda estimación mejorada del valor del parámetro que será la media de la distribución a posteriori:

                                                                     

Ejemplo: Supongamos que la proporción de personas que no tienen teléfono en su casa es desconocida. Pero que. basándonos en los datos de otras ciudades similares podemos suponer que se encuentra entre 0,05 y 0,01 con las siguientes probabilidades asociadas.

                                 en principio la estimación inicial sería  

    Para mejorar esta información realizamos una encuesta al azar preguntando a las personas si tienen teléfono . Resultando que de 20 preguntadas sólo una no tenía teléfono.

    La probabilidad de que de 20 personas 1 no tenga teléfono (como la población es muy grande no imparta que no haya reemplazamiento) nos vendrá dada por la función de cuantía (para X=l) en una B{20,p), (siendo p la proporción de personas .que no tienen teléfono):

                               

                    De manera que la verosimilitud de este resultado para cada posible valor de p será:

0,01

0,02

0,03

0,04

0,05

 

        y a partir de las probabilidades a priori y de las verosimilitudes podremos calcular las probabilidades a posteriori, aplicando el teorema de Bayes de la siguiente manera

                     

                  para el segundo valor tendríamos

                 

    Siendo , los anteriores y el resto que forman la distribución a posteriori de la probabilidad de tener teléfono en casa , los siguientes valores

0,01

0,1100425

0,02

0,1814752

0,03

0,3360217

0,04

0,1839782

0,05

0,1884826

 así la estimación mejorada, tras la realización del proceso bayesiano será la media de la distribución a posterior

                                                       

                Una vez realizado un proceso Bayesiano la distribución a posteriori obtenida puede considerarse la información disponible en ese momento y plantearse realizar otro nuevo ensayo para mejorar de nuevo la estimación no abría más que considerar la distribución final obtenida como distribución a priori del nuevo proceso y repetir el planteamiento con una nueva información muestral.

ir a modelos de probabilidad