Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarle el uso de la web mediante el análisis de sus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúa navegando, consideramos que acepta nuestra Política de cookies .

Actualidad científica

Síguenos
  • Google+
  • RSS
  • Investigación y Ciencia
  • Enero 2017Nº 484
Juegos matemáticos

Probabilidad e información

El principio de máxima entropía

Edwin Jaynes y su interpretación epistemológica de la mecánica estadística.

Menear

Muy a menudo, resolver un problema de probabilidad nos exige asignar probabilidades a priori; es decir, antes de comenzar a calcular nada. En el lanzamiento de un dado, por ejemplo, asignamos a cada cara una probabilidad a priori de 1/6. ¿Por qué? Estamos suponiendo que el dado no está trucado y que la simetría cúbica hace indistinguibles las caras más allá de sus etiquetas. Es decir, carecemos de razones para suponer que uno de los números tenga más o menos probabilidades de aparecer que otro. Así que, en cierto modo, las probabilidades a priori representan nuestro estado de conocimiento, o nuestro grado de ignorancia, antes de observar los datos.

Acabamos de aplicar el «principio de indiferencia», así bautizado en los años veinte del pasado siglo por el economista John Maynard Keynes. Este nos dice que, cuando hay varios eventos posibles y no hay razón para primar ninguno frente a otro, hemos de asignar la misma probabilidad a todos ellos. Conocido también como «principio de la razón insuficiente», ha sido motivo de discusión desde los albores de la teoría de la probabilidad. Aparece ya en el Ars conjectandi de Jacob Bernoulli, de 1713, o en la Théorie analytique des probabilités de Laplace, de 1812. El principio desprende cierto aroma metafísico, pues lidia con lo que parece ser un grado de conocimiento subjetivo: en la ignorancia, nos dice, cuando ninguna razón favorece un evento frente a los demás, asignaremos a todos ellos idéntica probabilidad. ¿Podemos justificar su uso?

Dados tendenciosos
Supongamos que alguien ha lanzado nuestro dado un número muy grande de veces, n, y nos dice que la puntuación promedio ha sido de 4,5. Antes de disponer de esta información, habíamos supuesto que pi, la probabilidad de obtener el número i, era 1/6, por lo que esperábamos una puntuación promedio de (1 + 2 + ⋯ + 6)/6 = 3,5. ¿Cómo trasladar nuestro conocimiento actual sobre el promedio a una nueva asignación de probabilidades para las caras?

Observemos que, si el promedio fuera muy cercano a 1, la probabilidad p1 debería ser mucho más elevada que el resto: una media así solo puede darse si el 1 aparece en la mayor parte de los lanzamientos. Podríamos razonar de manera similar si el promedio fuera muy cercano a 6. En tal caso, asignaríamos una probabilidad muy alta al 6 y muy baja al resto. Así pues, el sentido común nos dice que, si el dado proporciona una media superior a 3,5, es porque los números altos aparecen con mayor frecuencia que los bajos, y viceversa. Sin embargo, hay una infinidad de distribuciones de probabilidad cuya media es 4,5. ¿Con cuál nos quedamos? ¿Podemos aplicar el principio de la razón insuficiente?

Puede conseguir el artículo en:

Artículo individual

Artículos relacionados

BOLETÍN ACTUALIDAD¿Quieres estar al día de la actualidad científica? Recibe el nuevo boletín de actualidad con nuestros mejores contenidos semanales gratuitos (noticias y posts). Si lo deseas también puedes personalizar tu suscripción. BOLETÍN ACTUALIDAD¿Quieres estar al día de la actualidad científica? ¡Recibe el nuevo boletín de contenidos gratuitos! Ver más boletines.