Capítulo 5

Inferencia Bayesiana

Las técnicas de Inferencia Bayesiana muestran cómo debemos actualizar nuestras creencias a medida que observamos los datos.

Teorema de Bayes

Imagina que en tu más reciente visita al doctor decidiste hacerte exámenes para descartar una rara enfermedad. Con suficiente mala suerte, has recibido un resultado positivo. Entonces la pregunta lógica que te harías sería: "dado el resultado positivo de los exámenes, ¿Cuál es la probabilidad que en realidad tenga la enfermedad?" (Los exámenes médicos, después de todo, no son totalmente certeros). El Teorema de Bayes nos dirá exactamente cómo calcular esta probabilidad:

$$P(\text{Enfermedad}|+) = \frac{P(+|\text{Enfermedad})P(\text{Enfermedad})}{P(+)}$$

De acuerdo con esta ecuación, la probabilidad a posteriori de tener una enfermedad dado que los exámenes dieron positivo depende de la probabilidad a priori de tener la enfermedad \( P(\text{Enfermedad}) \). Puedes imaginar que esta es la incidencia de la enfermedad en la población en general. Fija esta probabilidad arrastrando las barras debajo. (Heathy = Sano / Disease = Enfermo)

La probabilidad a posteriori también depende de la precisión de los exámenes: ¿Con qué frecuencia los exámenes reportan correctamente un resultado negativo en un paciente sano? y ¿Con qué frecuencia reportan un resultado positivo en un paciente enfermo? Determina estas dos distribuciones debajo.

Finalmente, necesitamos saber la probabilidad total de resultados positivos. Utiliza los botones para simular la toma de exámenes en una muestra representativa de la población.

Examina un paciente
Examina los restantes
Negativo Positivo

Ahora ya tenemos todo necesario para determinar la probabilidad a posteriori que tu tengas la enfermedad dado que los exámenes han salido positivos. La tabla debajo te da la probabilidad con respecto a los demás pacientes, usando el teorema de Bayes.

Negativo Positivo
Sano
Enfermedad
Ordena
Reinicia

Función de Verosimilitud

En estadística, la función de verosimilitud tiene una definición muy precisa:

$$L(\theta | x) = P(x | \theta)$$

El concepto de verosimilitud juega un papel fundamental tanto en la estadística frecuentista como en la Bayesiana.

Escoge un tamaño muestral \(n\) y genera una muestra de la distribución que escogiste.

\(n\) = 1

Muestrear

Desliza el círculo morado a la derecha para visualizar la función de verosimilitud.

A Priori y A Posteriori

En el centro de la estadística Bayesiana está la idea que las suposiciones a priori de un modelo se deben actualizar a medida que se adquieren nuevos datos. Imagina una moneda posiblemente sesgada con una probabilidad de caer cara de \(p\). Al deslizar este círculo morado se determina el valor de \(p\) (el cual en la práctica no conoceríamos).

\(p\) = 0.5

Al deslizar los círculos rosados, puedes controlar la forma inicial de la distribución a priori \(\text{Beta}(\alpha, \beta)\), y puedes ver la gráfica de esta función de densidad en rosado.

\(\alpha\) = 1

\(\beta\) = 1

A medida que lanzamos monedas, adquirimos datos y actualizamos la distribución a posteriori en \(p\), la cual representa nuestra mejor estimación acerca de los valores más factibles del sesgo de la moneda. Esta distribución actualizada luego entonces sirve de distribución a priori para futuros lanzamientos de la moneda.

Lanza la Moneda
Lánzala 10 veces
tail
=
head
=