Entropía

Hoy en día, tenemos un mayor acceso a la información gracias al Internet, y eso nos acerca más a información relacionada con la ciencia y la innovación tecnológica, pues hoy hablaremos sobre la "entropía", una palabra que en las nuevas generaciones será una palabra de uso común.


entropía.

(Del gr. ἐντροπία, vuelta, usado en varios sentidos figurados).

1. f. Fís. Magnitud termodinámica que mide la parte no utilizable de la energía contenida en un sistema.

2. f. Fís. Medida del desorden de un sistema. Una masa de una sustancia con sus moléculas regularmente ordenadas, formando un cristal, tiene entropía mucho menor que la misma sustancia en forma de gas con sus moléculas libres y en pleno desorden.

3. f. Inform. Medida de la incertidumbre existente ante un conjunto de mensajes, de los cuales se va a recibir uno solo.

Cabe destacar, que el punto tres acaba de ser enmendado en la edición 2014 del Diccionario de la RAE.

Si buscan una definición más filosófica, José Luis Piñuel Raigada, Doctor en Psicología (Louis Pasteur, Francia) y Filosofía (Salamanca, España) y profesor  en la Facultad de CC. de la Información de la Universidad Complutense, nos ofrece una discusión crítica de ciencias sociales sobre la entropía, la cual está muy bien, si se quiere buscar los antecedentes teóricos de la palabra. Sin embargo, posee bibliografía muy vieja, pero aún así, no deja de ser una lectura crítica e interesante sobre el tema.

En el ámbito de la Teoría de la Información la entropía, mide la incertidumbre de una fuente de información.

Aunque, como se puede apreciar en la definición de la RAE, el concepto de entropía es usado en termodinámica, mecánica estadística y teoría de la información. En todos los casos, la entropía se interpreta como una medida de incertidumbre.

En el artículo de 1948, "Una teoría matemática de la comunicación", Claude Elwood Shannon, demostró que la entropía proporciona un límite absoluto en la mejor longitud media (magnitud) posible de codificación sin pérdidas o compresión de cualquier comunicación, en el supuesto de que la comunicación puede ser representada como una secuencia de variables aleatorias independientes e idénticamente distribuidas, estableciendo así, las bases para la corrección de errores, supresión de ruidos y redundancia en las comunicaciones.

Dicho de otra forma, el concepto básico de entropía en teoría de la información tiene mucho que ver con la incertidumbre que existe en cualquier experimento o señal aleatoria. Es también la cantidad de "ruido" o "desorden" que contiene o libera un sistema. De esta forma, podremos hablar de la cantidad de información que lleva una señal.

Otra forma de hablar de entropía, es como "el grado de ordenamiento de un sistema, dicho sistema tiene a llegar al maximo de equilibrio posible y eso es lo k define la entropia".

En este sentido, el concepto de entropía puede ser abordado desde muchas perspectivas de las ciencias sociales, tal y como señala Piñuel-Raigada, citando a Carnap (1964), todas las ciencias posean un método común: identificar las operaciones mediante las cuales el operador humano organiza los grupos de operaciones que realiza con las colecciones de objetos o de actos para la comunicación, ya sea cotidiana o científica. Mientras que el objeto propio de cada ciencia es el estudio de los objetos a los que se aplican estas operaciones; si los objetos son los símbolos, se trata de ciencias deductivas, lógico-matemáticas; si los objetos son significados, se trata de ciencias lingüísticas o semióticas; si los objetos son afectos, emociones, actitudes, se trata de psicología; si los objetos son normas, valores, etc., se trata de sociología. La teoría general de sistemas, y la teoría de la información, acaban constituyéndose por esta vía en la teoría del conocimiento científico. A este carro se suben entusiasmados muchos, o la gran parte, de los que en las ciencias humanas se denominan a sí mismos teóricos de la comunicación.

Shannon, Claude Elwood (1948). A mathematical theory of communication. Bell System Technical Journal 27 (379-423 and 623-656).

Comentarios

Entradas populares de este blog

¿Qué significan los números en el triángulo de reciclaje de los plásticos?

Metallica versus Megadeth ¿quien es mejor? la estadística nos da la respuesta

Los programas más usados por economistas