Marco Teórico (VI). Sintropía.

 

Marco Teórico (VI). Sintropía.

La sintropía o negantropía, también llamada entropía negativa, de un sistema vivo, es la entropía que el sistema exporta para mantener su entropía baja; se encuentra en la intersección de la entropía y la vida. Para compensar el proceso de degradación sistémica a lo largo del tiempo, algunos sistemas abiertos consiguen compensar su entropía natural con aportaciones de subsistemas con los que se relacionan. Si en un sistema cerrado el proceso entrópico no puede detenerse por sí solo, en un sistema abierto, la sintropía sería una resistencia sustentada en subsistemas vinculados que reequilibran el sistema entrópico.

La sintropía se puede definir como la tendencia natural de que un sistema se modifique según su estructura y se plasme en los niveles que poseen los subsistemas dentro del mismo. Por ejemplo: las plantas y su fruto, ya que dependen los dos para lograr el método de sintropía.

Concepto de entropía negativa.

El concepto de “entropía negativa” fue introducido por Erwin Schrödinger (físico teórico, y uno de los padres de la mecánica cuántica) en su libro de ciencia popular, What is life?, publicado en 1943. Más tarde, Léon Brillouin cambió la palabra por “neguentropía”, para expresarla en una forma mucho más “positiva”, diciendo que un sistema vivo importa neguentropía y la almacena. En 1974, Albert Szent-Györgyi (Nobel de Fisiología Médica en 1937) propuso cambiar el término de neguentropía a sintropía, aunque este último ya había sido usado por el matemático Luigi Fantappiè, quien lo utilizó con el fin de construir una teoría unificando la física y la biología. Buckminster Fuller, ingeniero, arquitecto y diseñador del siglo XX, trató de hacer popular este término.

En el año 2009, Mahulikar & Herwig redefinieron la sintropía de un sub-sistema ordenado dinámicamente como el déficit de entropía relacionado al caos que rodea al sub-sistema ordenado.

Teoría de la información.

En la teoría de la información y la estadística, la sintropía se usa como medida de distancia de normalidad. Si se considera una señal con una cierta distribución, y la señal es gaussiana, ésta tendrá una distribución normal. La sintropía es siempre positiva, invariante a cambios de coordenadas lineales, y se desvanece si y sólo si la señal es gaussiana.

La sintropía se usa en estadística y procesamiento de señales. Está relacionada a la entropía de redes, que es usada en el análisis de componentes independientes. La sintropía puede ser entendida intuitivamente como la información que puede ser guardada cuando se representa pχ de forma eficiente: si pχ fuera una variable aleatoria (con distribución gaussiana) con misma media y varianza, se necesitaría una máxima longitud de datos para ser representada, incluso en su forma más eficiente. Como pχ no es tan aleatorio, algo se sabe de antemano. pχ contiene menos información desconocida, y necesita menos longitud de datos para ser representado de forma más eficiente.

La sintropía es algo que se sabe previamente.

Hipótesis de Brillouin

Léon Brillouin publicó en 1959 Science et théorie de l’information (versión en inglés editada por vez primera en 1962) donde son examinadas las relaciones entre estas dos disciplinas. Adopta particularmente un punto de vista de físico y hace el lazo entra la entropía informacional de Shannon y la entropía estadística de Boltzmann en donde se arriesga que la información (y con la misma el lenguaje) es un factor sintrópico es decir por el cual se puede anular la entropía.

Correlación entre sintropía estadística y energía libre de Gibbs.

Existe una magnitud física estrechamente vinculada a la energía libre (entalpia libre), con una unidad de entropía isomórfica a la sintropía, conocida en estadística y en teoría de la información. En 1873 Willard Gibbs creó un diagrama ilustrando del concepto de energía libre correspondiente a entalpia libre. En el diagrama se puede ver la cantidad llamada capacidad de la entropía. Dicha cantidad es la entropía que se puede incrementar sin cambiar la energía interna o aumentar el volumen. En otras palabras, se trata de una diferencia entre el máximo posible, en condiciones de asumir, la entropía y la entropía real. Esto corresponde exactamente a la definición de sintropía adoptada por la estadística y la teoría de la información. Una cantidad física similar fue presentada en 1869 por Massieu para el proceso isotérmico, y luego por Max Planck para el proceso isotérmico-isobárico. Más adelante, el potencial termodinámico de Massieu-Planck, conocido también como entropía libre, ha mostrado desempeñar un papel importante en la formulación entrópica de la mecánica estadística, con aplicaciones en biología molecular y en procesos termodinámicos no equilibrados.

Teoría de la organización.

En 1988, basándose en la definición de entropía estadística de Shannon, Mario Ludovico dio una definición formal al término sintropía, como una medida del grado de organización interna de cualquier sistema formado por componentes que interactúan entre sí. De acuerdo a esta definición, la sintropía es una cantidad complementaria a la entropía. La suma de dos cantidades define un valor constante, específicas del sistema en el que ese valor constante identifica el potencial de transformación. Usando estas definiciones, la teoría desarrolla ecuaciones aptas para describir y simular cualquier posible forma de evolución del sistema, ya sea hacia niveles mayores o menores de “organización interna” (por ejemplo la sintropía), o hacia el colapso del sistema.

La organización como sistema (abierto) está constituido por los elementos básicos de este (entradas, medio, salidas y retroalimentación) y es en las entradas donde la información juega un papel clave como medio regulador, medio sintrópico, ya que a través de ella se puede disminuir la cantidad de incertidumbre (entropía). Se puede considerar a la información como elemento generador de orden y como herramienta fundamental para la toma de decisiones en la organización o en cualquier sistema en el que se presenten situaciones de elección con múltiples alternativas.

En la gestión de riesgos, sintropía es la fuerza que tiene por objeto lograr un comportamiento organizacional eficaz y conducir a un estado estacionario predecible.

 

Responder

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s