Entropía

En el ámbito de la teoría de la información la entropía, también llamada entropía de la información y entropía de Shannon (en honor a Claude E. Shannon), mide la incertidumbre de una fuente de información.
La entropía también se puede considerar como la cantidad de información promedio que contienen los símbolos usados. Los símbolos con menor probabilidad son los que aportan mayor información; por ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras frecuentes como "que", "el", "a" aportan poca información, mientras que palabras menos frecuentes como "corren", "niño", "perro" aportan más información. Si de un texto dado borramos un "que", seguramente no afectará a la comprensión y se sobreentenderá, no siendo así si borramos la palabra "niño" del mismo texto original. Cuando todos los símbolos son igualmente probables (distribución de probabilidad plana), todos aportan información relevante y la entropía es máxima.
 
Tomado de: https://es.wikipedia.org/wiki/Entrop%C3%ADa_(informaci%C3%B3n)
 

1. (General Physics) a thermodynamic quantity that changes in a reversible process by an amount equal to the heat absorbed or emitted divided by the thermodynamic temperature. It is measured in joules per kelvin. Symbol: S See also law of thermodynamics
2. (General Physics) a statistical measure of the disorder of a closed system expressed by S = klog P + c where P is the probability that a particular state of the system exists, k is the Boltzmann constant, and c is another constant
3. lack of pattern or organization; disorder
4. (Communications & Information) a measure of the efficiency of a system, such as a code or language, in transmitting information
 
Tomado de: https://www.thefreedictionary.com/entropy
 
entropía

f. fís. Función termodinámica que es una medida de la parte no utilizable de la energía contenida en un sistema o materia.
inform. Medida de la duda que se produce ante un conjunto de mensajes del cual se va a recibir uno solo.
mec. Medida del desorden molecular de una materia o sustancia:
los fluidos tienen más entropía que los sólidos.
Desorden, caos.

Tomado de: https://www.wordreference.com/definicion/entrop%C3%ADa

 

Opinión:

 
La entropía básicamente es cuando los sistemas pierden calidad por la desintegración o cambio en la cantidad de componentes de sus totalidad generando cosas como el desorden , y así no podría producir trabajo y generaría perdida

En el video se da una amplia explicación de lo que es Entropía abordando temas como su historia y la manera de que es aplicada en diferentes enfoques