top of page

Teorema de Bayes

Teorema de la Probabilidad Total y Teorema de Bayes

Teorema de Bayes y de la Probabilidad Total

Teorema de Bayes y de la Probabilidad Total

El Teorema de Bayes es una fórmula fundamental en probabilidad y estadística que permite actualizar la probabilidad de una hipótesis basada en nueva evidencia o datos observados. Este teorema es central en la estadística bayesiana, que utiliza la información previa y los datos actuales para hacer inferencias.


Enunciado simple del Teorema de Bayes

El Teorema de Bayes se expresa de la siguiente forma matemática:

P(A|B) = P(B|A) . P(A) / P(B)


donde:

  • P(A|B) es la probabilidad posterior de que el evento A sea verdadero dado que el evento B  ha ocurrido.

  • P(B|A) es la verosimilitud o probabilidad condicional de que el evento B ocurra si sabemos que A es verdadero.

  • P(A) es la probabilidad a priori de que el evento A ocurra antes de observar B.

  • P(B) es la probabilidad total de que ocurra el evento B.


Interpretación de Cada Término

  1. Probabilidad a priori P(A): Es la probabilidad inicial de que ocurra el evento A, antes de tener en cuenta la evidencia B.

  2. Verosimilitud P(B|A): Es la probabilidad de observar la evidencia B cuando sabemos que el evento A es cierto.

  3. Probabilidad posterior P(A|B): Es la probabilidad actualizada de A tras considerar la evidencia B. Esta es la probabilidad que queremos calcular con el teorema de Bayes.


Ejemplo: Prueba Médica para una Enfermedad

Imaginemos una situación en la que existe una prueba médica para detectar una enfermedad rara.  El Teorema de Bayes puede ayudar a calcular la probabilidad de tener la enfermedad después de obtener un resultado positivo en la prueba.


Supongamos que:

  1. La probabilidad de tener la enfermedad (A) es de 1% (P(A) = 0.01).

  2. La prueba tiene una tasa de sensibilidad (probabilidad de dar positivo si se tiene la enfermedad) de 99% (P(B|A) = 0.99).

  3. La prueba también tiene una tasa de falsos positivos (probabilidad de dar positivo sin tener la enfermedad) del 5% (P(B|neg A) = 0.05).


La probabilidad de un resultado positivo en la prueba (B) se calcula considerando ambos escenarios posibles: que la persona tenga o no la enfermedad.

P(B) = P(B|A) . P(A) + P(B|neg A . P(\neg A)

P(B) = (0.99 . 0.01) + (0.05 . 0.99) = 0.0099 + 0.0495 = 0.0594


Entonces, usando el Teorema de Bayes para calcular la probabilidad de tener la enfermedad dado que la prueba es positiva:

P(A|B) = P(B|A) . P(A) / P(B) = 0.99 . 0.01 / 0.0594  ≈ 0.1667



Interpretación del Resultado

A pesar de que la prueba tiene una alta sensibilidad, la probabilidad de que una persona tenga la enfermedad después de un resultado positivo es de solo el 16.67%. Esto se debe a que la enfermedad es muy rara, y el número de falsos positivos contribuye de manera significativa a los resultados positivos. Este ejemplo destaca la importancia de la probabilidad a priori en la interpretación de las pruebas.


Justificación del Teorema de Bayes

Las  reglas  generales de  la  multiplicacion  son  útiles  al  resolver  muchos problemas en que el resultado final de un experimento depende de los resultados de varias etapas  intermedias. 


Por ejemplo, supongamos que una planta de ensambtado recibe sus reguladores de voltaje  de tres diferentes proveedores: 

  1. 60%  del  proveedor B₁

  2. 30%  del  proveedor B₂,

  3. 10%  del  proveedor B₃.  

En otras palabras,  las probabilidades de que cualquier  regulador recibido provenga  de estos  tres  proveedores son,  respectivamente,  0.60,  0.30 y 0.10.  


Por otro lado:

a. 95%  de los reguladores de voltaje  que provienen de B₁,

b. 80% de los reguladores del proveedor B₂,  

c. 65% de los  reguladores proporcionados por  B₃,  

tienen un rendimiento de acuerdo  con las especificaciones.


Nos gustaria  saber  la probabilidad de que cualquier  regulador de voltaje  recibido por  la planta  de un rendimiento segun las  especificaciones.


Si A denota  el  evento  de que un regulador recibido  por la  planta  tiene un rendimiento conforme a las especificaciones, y si  B₁, B₂, y  B₃,  son los eventos de que provienen  de sus respectivos  proveedores, podermos  escribir

A = A ⋂ [  B₁ ⋃ B₂ ⋃ B₃]

A = (A ⋂ B₁) ⋃ (A ⋂ B₂) ⋃ (A ⋂B₃)

y

P(A) = P(A ⋂ B₁) + P(A ⋂ B₂) + P(A ⋂B₃)


Dado que A ⋂ B₁, A ⋂ B₂, A ⋂B₃ se excluyen mutuamente, si aplicamos la segunda parte de las reglas de la multiplicación a P(A ⋂ B₁), P(A ⋂ B₂), P(A ⋂B₃) obtenemos:


P(A) = P(B₁).P(A|B₁) + P(B₂).P(A|B₂) +  P(B₃).P(A|B₃)

y sustituyendo:

P(A) = (0.60)(0.95) + (0.30(0.80) + (0.10)(0.65)

P(A) = 0.875


Interpretación: La probabilidad de que cualquier regulador de voltaje recibido por la planta de un rendimiento correspondiente a las especificaciones, es 0.875. Para visualizar la interpretación puede confeccionarse un diagrama de arbol de los eventos y sus probabilidades tal y como se muestra en la figura. Esta visualización se puede ver en la figura correspondiente y está graficada en jupyter notebook y compartida en github.



Regla de la probabilidad total

En el ejemplo anterior se ve que hay sólo tres opciones en la etapa intermedia, pero si hubiesen n opciones mutuamente excluyentes de B1 hasta Bn entonces es posible extender la probabilidad P(A) desde una versión simple hasta una que contenga todas las posibilidade de B, es decir pasamos de:

P(A) = P(B₁).P(A|B₁) + P(B₂).P(A|B₂) +  P(B₃).P(A|B₃)

a:

P(A) = ∑P(Bi).P(A|Bi)


Expresión extendida del Teorema de Bayes

Siguiendo con el ejemplo anterior, supangamos que queremos conocer, además de la probabilidad de que el regulador cumpla con las especificaciones, la probabilidad de que un regulador de voltaje cumpla con las especificaciones y además provenga del proveedor B₃. 

  • Esto, escrito simbolicamente sería que queremos conocer P(B3|A):

P(B3|A) = P(A ⋂ B3) / P(A)

  • Es decir que queremos conocer una probabilidad especifica dentro de todas las probabilidades posibles que conforman la probabilidad total.

    • Gráficamente queremos conocer la probabilidad de una rama dentro de todas las ramas del diagrama de árbol.

Dado que  A ⋂ B₁, A ⋂ B₂, A ⋂B₃ son mutuamente excluyentes entonces podemos sustiturir P(A ⋂ B3):

 P(A ⋂ B3) = P(B₃).P(A|B₃)


Del mismo modo podemos sustituir P(A):

P(A) = ∑P(Bi).P(A|Bi)


y con estas sustituciones nos queda nuestra incognita P(B3|A) en términos de probabilidades conocidas. Y reemplazando por los valores correspondientes del problema:+

P(B3|A) = (0.10)(0.65) / {(0.60)(0.95) + (0.30)(0.80) + (0.10)(0.65)}

P(B3|A) =0.074


Es importante notar que la probabilidad de que un regulador de voltaje, en este caso, sea proporcionado por B3, disminuye de 0.10 a 0.074. Y esto se debe a que no consideramos cualquier B3 sino un que cumpla con las especificaciones.


Si se quiere saber cualquier probabilidad condicionada de todas las posibles, llegamos a la expresión generalizada del teorema de Bayes:


P(Br/A) =  P(Br). P(A|Br)/ ∑P(Bi).P(A|Bi)

para r = 1, 2, ..., n.


El Teorema de Bayes proporciona una fórmula para calcular la probablilidad de que el efecto A fué causado por el evento Br. 

  • En el ejemplo visto, se obtiene la probabilidad de que un regulador de voltaje aceptable fuese fabricado por el proveedor B3.

Las probabilidades P(Bi) son las probabilidades previas o a priori de las "causas" Bi. En la practica suele ser difícil asintarles valores numéricos. Por muchos años el Teorema de Bayes fue visto con recelo, debido a que se uso con la suposición, frecuentemente errónea, de que estas probabilidades a priori P(Bi) eran iguales. Esta controversia en torno al teorema se ha ido aclarando al comprenderse que la naturaleza del problema en estudio hace que estas probabilidades deben determinarse separadamente de la naturaliza del problema y además con base en la experiencia.

Por esto Bayes y sus bases toman mayor relevancia con el tiempo y la potencia de los calculos computacionales y así surge una rama de la estadistica inferencial que se constituye en la Estadística Bayasiana que dan forma a los Coneptos Bayesianos que se aplican a muchos problemas de la actualidad. La estadística Bayesiana puede usarse también para estimar distribuciones de probabilidad y un ejemplo de esto se encuentra compartido en jupyter notebook en github.


bottom of page