Teorema de Bayes
Teorema de la Probabilidad Total y Teorema de Bayes
Teorema de Bayes y de la Probabilidad Total
El Teorema de Bayes es una fórmula fundamental en probabilidad y estadística que permite actualizar la probabilidad de una hipótesis basada en nueva evidencia o datos observados. Este teorema es central en la estadística bayesiana, que utiliza la información previa y los datos actuales para hacer inferencias.
Enunciado simple del Teorema de Bayes
El Teorema de Bayes se expresa de la siguiente forma matemática:
P(A|B) = P(B|A) . P(A) / P(B)
donde:
P(A|B) es la probabilidad posterior de que el evento A sea verdadero dado que el evento B ha ocurrido.
P(B|A) es la verosimilitud o probabilidad condicional de que el evento B ocurra si sabemos que A es verdadero.
P(A) es la probabilidad a priori de que el evento A ocurra antes de observar B.
P(B) es la probabilidad total de que ocurra el evento B.
Interpretación de Cada Término
Probabilidad a priori P(A): Es la probabilidad inicial de que ocurra el evento A, antes de tener en cuenta la evidencia B.
Verosimilitud P(B|A): Es la probabilidad de observar la evidencia B cuando sabemos que el evento A es cierto.
Probabilidad posterior P(A|B): Es la probabilidad actualizada de A tras considerar la evidencia B. Esta es la probabilidad que queremos calcular con el teorema de Bayes.
Ejemplo: Prueba Médica para una Enfermedad
Imaginemos una situación en la que existe una prueba médica para detectar una enfermedad rara. El Teorema de Bayes puede ayudar a calcular la probabilidad de tener la enfermedad después de obtener un resultado positivo en la prueba.
Supongamos que:
La probabilidad de tener la enfermedad (A) es de 1% (P(A) = 0.01).
La prueba tiene una tasa de sensibilidad (probabilidad de dar positivo si se tiene la enfermedad) de 99% (P(B|A) = 0.99).
La prueba también tiene una tasa de falsos positivos (probabilidad de dar positivo sin tener la enfermedad) del 5% (P(B|neg A) = 0.05).
La probabilidad de un resultado positivo en la prueba (B) se calcula considerando ambos escenarios posibles: que la persona tenga o no la enfermedad.
P(B) = P(B|A) . P(A) + P(B|neg A . P(\neg A)
P(B) = (0.99 . 0.01) + (0.05 . 0.99) = 0.0099 + 0.0495 = 0.0594
Entonces, usando el Teorema de Bayes para calcular la probabilidad de tener la enfermedad dado que la prueba es positiva:
P(A|B) = P(B|A) . P(A) / P(B) = 0.99 . 0.01 / 0.0594 ≈ 0.1667
Interpretación del Resultado
A pesar de que la prueba tiene una alta sensibilidad, la probabilidad de que una persona tenga la enfermedad después de un resultado positivo es de solo el 16.67%. Esto se debe a que la enfermedad es muy rara, y el número de falsos positivos contribuye de manera significativa a los resultados positivos. Este ejemplo destaca la importancia de la probabilidad a priori en la interpretación de las pruebas.
Justificación del Teorema de Bayes
Las reglas generales de la multiplicacion son útiles al resolver muchos problemas en que el resultado final de un experimento depende de los resultados de varias etapas intermedias.
Por ejemplo, supongamos que una planta de ensambtado recibe sus reguladores de voltaje de tres diferentes proveedores:
60% del proveedor B₁
30% del proveedor B₂,
10% del proveedor B₃.
En otras palabras, las probabilidades de que cualquier regulador recibido provenga de estos tres proveedores son, respectivamente, 0.60, 0.30 y 0.10.
Por otro lado:
a. 95% de los reguladores de voltaje que provienen de B₁,
b. 80% de los reguladores del proveedor B₂,
c. 65% de los reguladores proporcionados por B₃,
tienen un rendimiento de acuerdo con las especificaciones.
Nos gustaria saber la probabilidad de que cualquier regulador de voltaje recibido por la planta de un rendimiento segun las especificaciones.
Si A denota el evento de que un regulador recibido por la planta tiene un rendimiento conforme a las especificaciones, y si B₁, B₂, y B₃, son los eventos de que provienen de sus respectivos proveedores, podermos escribir
A = A ⋂ [ B₁ ⋃ B₂ ⋃ B₃]
A = (A ⋂ B₁) ⋃ (A ⋂ B₂) ⋃ (A ⋂B₃)
y
P(A) = P(A ⋂ B₁) + P(A ⋂ B₂) + P(A ⋂B₃)
Dado que A ⋂ B₁, A ⋂ B₂, A ⋂B₃ se excluyen mutuamente, si aplicamos la segunda parte de las reglas de la multiplicación a P(A ⋂ B₁), P(A ⋂ B₂), P(A ⋂B₃) obtenemos:
P(A) = P(B₁).P(A|B₁) + P(B₂).P(A|B₂) + P(B₃).P(A|B₃)
y sustituyendo:
P(A) = (0.60)(0.95) + (0.30(0.80) + (0.10)(0.65)
P(A) = 0.875
Interpretación: La probabilidad de que cualquier regulador de voltaje recibido por la planta de un rendimiento correspondiente a las especificaciones, es 0.875. Para visualizar la interpretación puede confeccionarse un diagrama de arbol de los eventos y sus probabilidades tal y como se muestra en la figura. Esta visualización se puede ver en la figura correspondiente y está graficada en jupyter notebook y compartida en github.
Regla de la probabilidad total
En el ejemplo anterior se ve que hay sólo tres opciones en la etapa intermedia, pero si hubiesen n opciones mutuamente excluyentes de B1 hasta Bn entonces es posible extender la probabilidad P(A) desde una versión simple hasta una que contenga todas las posibilidade de B, es decir pasamos de:
P(A) = P(B₁).P(A|B₁) + P(B₂).P(A|B₂) + P(B₃).P(A|B₃)
a:
P(A) = ∑P(Bi).P(A|Bi)
Expresión extendida del Teorema de Bayes
Siguiendo con el ejemplo anterior, supangamos que queremos conocer, además de la probabilidad de que el regulador cumpla con las especificaciones, la probabilidad de que un regulador de voltaje cumpla con las especificaciones y además provenga del proveedor B₃.
Esto, escrito simbolicamente sería que queremos conocer P(B3|A):
P(B3|A) = P(A ⋂ B3) / P(A)
Es decir que queremos conocer una probabilidad especifica dentro de todas las probabilidades posibles que conforman la probabilidad total.
Gráficamente queremos conocer la probabilidad de una rama dentro de todas las ramas del diagrama de árbol.
Dado que A ⋂ B₁, A ⋂ B₂, A ⋂B₃ son mutuamente excluyentes entonces podemos sustiturir P(A ⋂ B3):
P(A ⋂ B3) = P(B₃).P(A|B₃)
Del mismo modo podemos sustituir P(A):
P(A) = ∑P(Bi).P(A|Bi)
y con estas sustituciones nos queda nuestra incognita P(B3|A) en términos de probabilidades conocidas. Y reemplazando por los valores correspondientes del problema:+
P(B3|A) = (0.10)(0.65) / {(0.60)(0.95) + (0.30)(0.80) + (0.10)(0.65)}
P(B3|A) =0.074
Es importante notar que la probabilidad de que un regulador de voltaje, en este caso, sea proporcionado por B3, disminuye de 0.10 a 0.074. Y esto se debe a que no consideramos cualquier B3 sino un que cumpla con las especificaciones.
Si se quiere saber cualquier probabilidad condicionada de todas las posibles, llegamos a la expresión generalizada del teorema de Bayes:
P(Br/A) = P(Br). P(A|Br)/ ∑P(Bi).P(A|Bi)
para r = 1, 2, ..., n.
El Teorema de Bayes proporciona una fórmula para calcular la probablilidad de que el efecto A fué causado por el evento Br.
En el ejemplo visto, se obtiene la probabilidad de que un regulador de voltaje aceptable fuese fabricado por el proveedor B3.
Las probabilidades P(Bi) son las probabilidades previas o a priori de las "causas" Bi. En la practica suele ser difícil asintarles valores numéricos. Por muchos años el Teorema de Bayes fue visto con recelo, debido a que se uso con la suposición, frecuentemente errónea, de que estas probabilidades a priori P(Bi) eran iguales. Esta controversia en torno al teorema se ha ido aclarando al comprenderse que la naturaleza del problema en estudio hace que estas probabilidades deben determinarse separadamente de la naturaliza del problema y además con base en la experiencia.
Por esto Bayes y sus bases toman mayor relevancia con el tiempo y la potencia de los calculos computacionales y así surge una rama de la estadistica inferencial que se constituye en la Estadística Bayasiana que dan forma a los Coneptos Bayesianos que se aplican a muchos problemas de la actualidad. La estadística Bayesiana puede usarse también para estimar distribuciones de probabilidad y un ejemplo de esto se encuentra compartido en jupyter notebook en github.