• establece
  • El principio establece que se debe preferir la distribución que maximiza la entropía de información de Shannon. (wikipedia.org)
  • En mecánica estadística, el principio de máxima entropía establece que la distribución de probabilidad menos sesgada que se le puede atribuir a un sistema estadístico es aquella en la que dadas unas ciertas condiciones fijas maximiza la entropía, esto es, aquella en la que la desinformación es máxima. (wikipedia.org)
  • predecir
  • Se puede, por lo tanto, también ser utilizado para predecir una distribución de «trayectorias» Γ "durante un período determinado de tiempo" mediante la maximización de: S I = − ∑ p Γ ln ⁡ p Γ {\displaystyle S_{I}=-\sum p_{\Gamma }\ln p_{\Gamma }} Esta "entropía de la información" no tiene necesariamente una correspondencia simple con la entropía termodinámica. (wikipedia.org)
  • probabilidad
  • Más específicamente, la MaxEnt aplica técnicas de inferencia basadas en la teoría de la información de Shannon, la probabilidad bayesiana y el principio de máxima entropía. (wikipedia.org)
  • Las dos expresiones coinciden para las distribuciones de probabilidades discretas, si se hace el planteamiento de que m (xi) es uniforme, es decir, el principio de igualdad da prioridad a la probabilidad, que es la base de la termodinámica estadística. (wikipedia.org)
  • dada
  • El principal objetivo de la termodinámica química es la creación de un criterio para la determinación de la viabilidad o espontaneidad de una transformación dada. (wikipedia.org)
  • manera
  • En esta manera, Lewis, Randall y Guggenheim son considerados como los fundadores de la termodinámica química moderna debido a la gran contribución que generaron estos dos libros en unificar la aplicación de la termodinámica a la química. (wikipedia.org)