guiasjuridicas.es - Documento
El documento tardará unos segundos en cargarse. Espere, por favor.
Estadística bayesiana

Estadística bayesiana

Conjunto de técnicas estadísticas que se fundamentan en una concepción subjetiva de la probabilidad, la consideración de los parámetros como variables aleatorias y la utilización del teorema de Bayes como método de actualización de la incertidumbre y toma de decisiones.

Contabilidad y finanzas

Concepto

El uso de métodos estadísticos está fundamentado en una serie de conceptos básicos que determinan su uso y, sobre todo, su interpretación. Uno de los más importantes es el significado del término probabilidad. El enfoque tradicionalmente dominante es denominado frecuentista, en el sentido de interpretar la probabilidad de un suceso como límite de la frecuencia relativa de ocurrencia de dicho suceso. Sin entrar en detalles, esta concepción obliga a que solo se pueda hablar de probabilidad para sucesos observables y repetibles y siempre en el sentido de frecuencia con la que ocurriría si se repitiese “muchas” veces (de hecho, infinitas) el experimento que genera los sucesos.

Otro de los conceptos básicos es el modelo probabilístico subyacente al experimento. Dada la interpretación frecuentista, solo se puede hablar de probabilidad en las observaciones (datos), que son definidas como realizaciones de variables aleatorias. Por ello, si la distribución depende de otras cantidades desconocidas, estas solo pueden ser fijas y no es lícito hablar de probabilidades sobre ellas; son los denominados parámetros. Así, las técnicas estadísticas han de estar basadas, exclusivamente, en las propiedades probabilísticas de los datos y en una interpretación como frecuencia “a largo plazo”, como ocurre con las propiedades de los estimadores o la interpretación de los intervalos de confianza y los p-valores en contrastes de hipótesis.

Frente a este enfoque, se ha desarrollado otro basado en una interpretación subjetiva de probabilidad, entendiendo esta como el grado de creencia en la ocurrencia de un suceso y, por tanto, como medida de su incertidumbre. Esta consideración es más amplia que la frecuentista y, en muchos aspectos, más cercana a la noción intuitiva de probabilidad. Con ella, en el modelo probabilístico subyacente a un experimento, se pueden establecer probabilidades tanto para las observaciones como para los parámetros, ya que ambos pueden ser consideradas variables aleatorias, y no es necesario recurrir a interpretaciones “a largo plazo”. Igualmente, es posible incorporar a la distribución del parámetro la información muestral, a través del teorema de Bayes, para su modificación.

Así, se puede denominar estadística bayesiana al conjunto de técnicas estadísticas que se fundamentan en una concepción subjetiva de la probabilidad, la consideración de los parámetros como variables aleatorias y la utilización del teorema de Bayes como método de actualización de la incertidumbre y toma de decisiones.

Gracias al desarrollo de la capacidad de cálculo en los ordenadores, se ha desarrollado esta concepción de la estadística, que engloba a la frecuentista como caso particular y que resuelve algunas de sus limitaciones y problemas. Sin embargo, no está exenta de dificultades, como la justificación de la distribución a priori (extramuestral) de los parámetros o las asociadas a la interpretación subjetiva de probabilidad, que los estadísticos denominados clásicos o frecuentistas suelen argumentar contra ella. Por ello, no existe un consenso en la comunidad académica sobre la prevalencia de una visión sobre la otra, coexistiendo aplicaciones y técnicas frecuentistas con otras bayesianas.

Enfoque bayesiano de la inferencia estadística

Dados sus supuestos de partida, el proceso de inferencia bayesiana consiste en analizar cómo la información muestral modifica dicha distribución probabilística del parámetro de interés. Para su realización práctica, se recurre a la aplicación del teorema de Bayes, que combina la información muestral suministrada por la función de verosimilitud y la extra-muestral recogida en la distribución a priori. Ante un problema de inferencia sobre un parámetro θ de una población, el enfoque bayesiano se puede estructurar en las siguientes etapas:

  • 1. Obtención de una distribución a priori, representada por п(θ), que resume la información extra-muestral disponible sobre el parámetro.
  • 2. Obtención de la función de verosimilitud, expresada como f(x/θ), de los datos dado el valor del parámetro. Esta función recoge toda la información sobre la relación entre las observaciones muestrales y el parámetro.
  • 3. Calcular la distribución a posteriori, п(θ/x). Esta función, proporcional al producto de la distribución a priori y la verosimilitud, resume toda la información actualizada sobre el parámetro.
  • 4. Establecer, a partir de la distribución a posteriori, los estimadores, intervalos de confianza o contrastes de hipótesis convenientes sobre el parámetro.

Así, para realizar inferencias sobre un parámetro, el enfoque frecuentista se basa exclusivamente en la función de verosimilitud f(x/θ), es decir, en la distribución de los datos dado el valor del parámetro. Por el contrario, el enfoque bayesiano se basa en la distribución a posteriori п(θ/x), que es la distribución del parámetro dado los valores de la muestra. Se produce así un enfoque más natural y lógicamente coherente, pero que necesita de la licitación de una distribución extramuestral o a priori para θ.

Es en este punto donde se centra la mayor parte de la controversia estadística frecuentista frente a estadística bayesiana, por lo que existe una amplia bibliografía sobre cómo determinar y justificar distribuciones a priori. Una vez determinada, el proceso de inferencia bayesiana resulta natural y coherente: ya que toda la información sobre el parámetro (muestral y extramuestral) está contenida en la distribución a posteriori, cualquier método inferencial sobre él debe estar basado en dicha distribución.

Evidentemente, es imposible resumir en un texto corto los múltiples aspectos desarrollados bajo el enfoque bayesiano. Por ello, se exponen a continuación una mínima parte, base de los procesos inferenciales más usuales, y solo someramente, pero que pueden dar uno de los fundamentos de este enfoque.

Estimación puntual

Aunque la información sobre θ está en su distribución a posteriori, en algunos casos es conveniente resumirla en un valor representativo de éste. Una opción puede ser utilizar su esperanza matemática, como indicador del valor medio del parámetro, conocida como estimador a posteriori, y que responde a la expresión E[п(θ/x)].

Otra opción, basada en la teoría de la decisión, consiste en la especificación de una función de pérdida L(θ;a), que cuantifique la penalización por estimar el parámetro por el valor a. Con ella, se puede calcular el llamado riesgo de Bayes, Ra(θ)=E[L(θ;a)], como la esperanza de la pérdida dada la distribución a posteriori del parámetro. Entonces se puede utilizar el denominado estimador de Bayes, consistente en elegir la estimación que minimiza el riesgo de Bayes.

Intervalos de probabilidad o regiones de credibilidad

Un enfoque alternativo a la estimación puntual es la estimación por intervalos, consistente en sustituir un único valor del parámetro por un conjunto de valores que contenga al verdadero valor, reflejando el grado de incertidumbre existente. El planteamiento frecuentista lleva a la noción de intervalo de confianza, definido como un intervalo que, si se repitiese infinitas veces, contendría al verdadero valor en un porcentaje dado de los casos, denominado nivel de confianza. Esta idea resulta poco natural, porque no responde a ningún enunciado probabilístico y justifica su aplicación en el hecho de que “muchos” de los infinitos intervalos de confianza deberían contener al verdadero valor del parámetro y, por ello, “se confía” en que el único obtenido pertenezca a ese grupo de “muchos”.

Con el planteamiento bayesiano no es necesario recurrir a esta interpretación “artificial”, ya que el parámetro sí es una variable aleatoria y es lícito hacer enunciados probabilísticos sobre él. Así, se define una región creíble a un cierto nivel de probabilidad, 1-α, como un conjunto de valores que contenga al parámetro con una probabilidad de, al menos, 1-α, es decir:

Cα tal que P (θ ∈ Cα) ≥ (1— α)

Dado que es frecuente que se esté interesado en los valores más probables del parámetro, se suele imponer que la anchura de la región creíble sea la mínima posible, con lo que la definición de intervalo de probabilidad o región creíble de mayor densidad se define como el conjunto:

Contraste de hipótesis

En muchas ocasiones se utilizan los métodos estadísticos no para asignar valores a un parámetro, sino para decidir qué valores son más consistentes con la información muestral. En el caso más simple de solo dos opciones, el contraste se representa en la forma:

H0 ≡ θ = θ0

H1 ≡ θ = θ1

El enfoque frecuentista toma la decisión basada en el cociente de verosimilitudes:

Si λ toma un valor alto, se interpreta como que los datos observados son más “verosímiles” o “creíbles” dado el valor θ1 que dado θ0, dado que sería más probable haberlos obtenido en el primer caso que en el segundo. Ello se toma como “evidencia” empírica favorable al valor θ1.

En el enfoque bayesiano, la evidencia a favor de una hipótesis se mide mediante el cociente o razón (odds) de la distribución del parámetro. Así, se define la razón a priori(prior odds) como:

y mide la “ventaja” de probabilidad de θ1 sobre θ0 antes de considerar la información muestral. Igualmente, se define la razón a posteriori(posterior odds) como:

que mide la “ventaja” de probabilidad de θ1 sobre θ0 una vez introducida la información muestral. Por ello, para “medir el peso” o evidencia que la muestra contiene a favor del valor θ1 se usa una medida de cómo ha variado la “ventaja” de probabilidad después de considerarla. Así, se define el Factor de Bayes como el cociente entre la ventaja a posteriori y la a priori, es decir:

Si dicho factor de bayes positivo y grande, la información muestral ha modificado sustancialmente la ventaja de probabilidad a favor de θ1, lo que apoyaría empíricamente esa hipótesis. Si B fuese negativo y grande, la información muestral apoyaría la hipótesis de θ0. Por último, si dicho factor fuese pequeño, no habría un apoyo claro de la evidencia empírica a favor de ninguna de las hipótesis.

De esta forma, se estaría sustituyendo el enfoque clásico basado en apoyar una hipótesis si el cociente de verosimilitudes es superior a un valor arbitrario por una medida cuantitativa de la evidencia a favor de dicha hipótesis.

Recuerde que...

  • El proceso de inferencia bayesiana consiste en analizar cómo la información muestral modifica dicha distribución probabilística del parámetro de interés.
  • El teorema de Bayes combina la información muestral suministrada por la función de verosimilitud y la extra-muestral recogida en la distribución.
  • La estimación por intervalos consiste en sustituir un único valor del parámetro por un conjunto de valores que contenga al verdadero valor, reflejando el grado de incertidumbre existente.
  • En muchas ocasiones se utilizan los métodos estadísticos no para asignar valores a un parámetro, sino para decidir qué valores son más consistentes con la información muestral.
  • Ante un problema de inferencia sobre un parámetro de una población, el enfoque bayesiano se estructura en las siguientes etapas: 1. Obtención de una distribución a priori, que resume la información extra-muestral disponible sobre el parámetro. 2. Obtención de la función de verosimilitud de los datos dado el valor del parámetro. 3. Cálculo la distribución a posteriori. 4. Establece, a partir de la distribución a posteriori, los estimadores, intervalos de confianza o contrastes de hipótesis convenientes sobre el parámetro.
Subir