Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarte el uso de la web mediante el análisis de tus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúas navegando, consideramos que aceptas nuestra Política de cookies .

1 de Enero de 2017
Probabilidad e información

El principio de máxima entropía

Edwin Jaynes y su interpretación epistemológica de la mecánica estadística.

IVANNIKULIN/ISTOCKPHOTO

Muy a menudo, resolver un problema de probabilidad nos exige asignar probabilidades a priori; es decir, antes de comenzar a calcular nada. En el lanzamiento de un dado, por ejemplo, asignamos a cada cara una probabilidad a priori de 1/6. ¿Por qué? Estamos suponiendo que el dado no está trucado y que la simetría cúbica hace indistinguibles las caras más allá de sus etiquetas. Es decir, carecemos de razones para suponer que uno de los números tenga más o menos probabilidades de aparecer que otro. Así que, en cierto modo, las probabilidades a priori representan nuestro estado de conocimiento, o nuestro grado de ignorancia, antes de observar los datos.

Acabamos de aplicar el «principio de indiferencia», así bautizado en los años veinte del pasado siglo por el economista John Maynard Keynes. Este nos dice que, cuando hay varios eventos posibles y no hay razón para primar ninguno frente a otro, hemos de asignar la misma probabilidad a todos ellos. Conocido también como «principio de la razón insuficiente», ha sido motivo de discusión desde los albores de la teoría de la probabilidad. Aparece ya en el Ars conjectandi de Jacob Bernoulli, de 1713, o en la Théorie analytique des probabilités de Laplace, de 1812. El principio desprende cierto aroma metafísico, pues lidia con lo que parece ser un grado de conocimiento subjetivo: en la ignorancia, nos dice, cuando ninguna razón favorece un evento frente a los demás, asignaremos a todos ellos idéntica probabilidad. ¿Podemos justificar su uso?

Dados tendenciosos
Supongamos que alguien ha lanzado nuestro dado un número muy grande de veces, n, y nos dice que la puntuación promedio ha sido de 4,5. Antes de disponer de esta información, habíamos supuesto que pi, la probabilidad de obtener el número i, era 1/6, por lo que esperábamos una puntuación promedio de (1 + 2 + ⋯ + 6)/6 = 3,5. ¿Cómo trasladar nuestro conocimiento actual sobre el promedio a una nueva asignación de probabilidades para las caras?

Observemos que, si el promedio fuera muy cercano a 1, la probabilidad p1 debería ser mucho más elevada que el resto: una media así solo puede darse si el 1 aparece en la mayor parte de los lanzamientos. Podríamos razonar de manera similar si el promedio fuera muy cercano a 6. En tal caso, asignaríamos una probabilidad muy alta al 6 y muy baja al resto. Así pues, el sentido común nos dice que, si el dado proporciona una media superior a 3,5, es porque los números altos aparecen con mayor frecuencia que los bajos, y viceversa. Sin embargo, hay una infinidad de distribuciones de probabilidad cuya media es 4,5. ¿Con cuál nos quedamos? ¿Podemos aplicar el principio de la razón insuficiente?

Artículos relacionados

Puedes obtener el artículo en...

¿Tienes acceso?

Los boletines de Investigación y Ciencia

Elige qué contenidos quieres recibir.