Utilizamos cookies propias y de terceros para mejorar nuestros servicios y facilitarle el uso de la web mediante el análisis de sus preferencias de navegación. También compartimos la información sobre el tráfico por nuestra web a los medios sociales y de publicidad con los que colaboramos. Si continúa navegando, consideramos que acepta nuestra Política de cookies .

Actualidad científica

  • 22/09/2017 - GENÉTICA

    Origen evolutivo del plegamiento del ADN

    El modo en que el ADN de las arqueas se compacta tiene muchos puntos en común con el de los eucariotas.

  • 21/09/2017 - Evolución humana

    ¿Cuántos neandertales había?

    La arqueología y la genética han dado respuestas muy diferentes a esa pregunta. Un nuevo estudio las reconcilia y descubre la historia de aquella antigua gente, en la que rozaron alguna vez, mucho antes de la definitiva, la extinción.

  • 20/09/2017 - BIOLOGÍA REPRODUCTIVA

    Macrófagos testiculares, guardianes de la fertilidad masculina

    Responsables de eliminar los patógenos de nuestro organismo, estas células moderan también la respuesta inmunitaria para evitar la destrucción de los espermatozoides.

  • 19/09/2017 - Zoología

    ¿Ha extinguido Irma especies?

    Junto  a las pérdidas humanas y económicas, el huracán Irma ha tenido también graves consecuencias para la naturaleza.

  • 18/09/2017 - Materiales cuánticos

    Calor topológico

    Un trabajo analiza por primera vez el comportamiento de los aislantes topológicos en presencia de focos térmicos. Sorprendentemente, la aparición de un flujo de calor no parece arruinar la robustez de estos materiales.

Síguenos
  • Google+
  • RSS
  • Investigación y Ciencia
  • Enero 2017Nº 484
Juegos matemáticos

Probabilidad e información

El principio de máxima entropía

Edwin Jaynes y su interpretación epistemológica de la mecánica estadística.

Menear

Muy a menudo, resolver un problema de probabilidad nos exige asignar probabilidades a priori; es decir, antes de comenzar a calcular nada. En el lanzamiento de un dado, por ejemplo, asignamos a cada cara una probabilidad a priori de 1/6. ¿Por qué? Estamos suponiendo que el dado no está trucado y que la simetría cúbica hace indistinguibles las caras más allá de sus etiquetas. Es decir, carecemos de razones para suponer que uno de los números tenga más o menos probabilidades de aparecer que otro. Así que, en cierto modo, las probabilidades a priori representan nuestro estado de conocimiento, o nuestro grado de ignorancia, antes de observar los datos.

Acabamos de aplicar el «principio de indiferencia», así bautizado en los años veinte del pasado siglo por el economista John Maynard Keynes. Este nos dice que, cuando hay varios eventos posibles y no hay razón para primar ninguno frente a otro, hemos de asignar la misma probabilidad a todos ellos. Conocido también como «principio de la razón insuficiente», ha sido motivo de discusión desde los albores de la teoría de la probabilidad. Aparece ya en el Ars conjectandi de Jacob Bernoulli, de 1713, o en la Théorie analytique des probabilités de Laplace, de 1812. El principio desprende cierto aroma metafísico, pues lidia con lo que parece ser un grado de conocimiento subjetivo: en la ignorancia, nos dice, cuando ninguna razón favorece un evento frente a los demás, asignaremos a todos ellos idéntica probabilidad. ¿Podemos justificar su uso?

Dados tendenciosos
Supongamos que alguien ha lanzado nuestro dado un número muy grande de veces, n, y nos dice que la puntuación promedio ha sido de 4,5. Antes de disponer de esta información, habíamos supuesto que pi, la probabilidad de obtener el número i, era 1/6, por lo que esperábamos una puntuación promedio de (1 + 2 + ⋯ + 6)/6 = 3,5. ¿Cómo trasladar nuestro conocimiento actual sobre el promedio a una nueva asignación de probabilidades para las caras?

Observemos que, si el promedio fuera muy cercano a 1, la probabilidad p1 debería ser mucho más elevada que el resto: una media así solo puede darse si el 1 aparece en la mayor parte de los lanzamientos. Podríamos razonar de manera similar si el promedio fuera muy cercano a 6. En tal caso, asignaríamos una probabilidad muy alta al 6 y muy baja al resto. Así pues, el sentido común nos dice que, si el dado proporciona una media superior a 3,5, es porque los números altos aparecen con mayor frecuencia que los bajos, y viceversa. Sin embargo, hay una infinidad de distribuciones de probabilidad cuya media es 4,5. ¿Con cuál nos quedamos? ¿Podemos aplicar el principio de la razón insuficiente?

Puede conseguir el artículo en:

Artículo individual

Artículos relacionados

BOLETÍN ACTUALIDAD¿Quieres estar al día de la actualidad científica? Recibe el nuevo boletín de actualidad con nuestros mejores contenidos semanales gratuitos (noticias y posts). Si lo deseas también puedes personalizar tu suscripción. BOLETÍN ACTUALIDAD¿Quieres estar al día de la actualidad científica? ¡Recibe el nuevo boletín de contenidos gratuitos! Ver más boletines.