Entropia - O que é, definição e conceito
A entropia, na física, é uma magnitude que mede a relação entre a energia térmica e a temperatura, ou seja, quanta energia útil existe em um sistema para realizar o trabalho.
A entropia tem sua origem nos estudos da termodinâmica para explicar por que certos fenômenos que respeitam a conservação de energia não se materializam na realidade.
Para explicar de forma simples, vamos imaginar uma sala dividida em duas partes separadas por uma parede. Agora, suponha que uma das duas partições da sala contenha gás comprimido. Portanto, se a parede desabasse, o gás se espalharia por toda a sala.
Entropia em termodinâmica
Foi então Rudolf Clausius quem levantou a segunda lei da termodinâmica: "É impossível para uma máquina autônoma, sem a ajuda de um agente externo, transferir calor de um corpo para outro mais quente."
Ou seja, continuando com o exemplo anterior, podemos ver o gás se expandir por toda a sala, mas não podemos vê-lo se compactar espontaneamente para um lado apenas.
Após a abordagem de Clausius, Ludwig Boltzmann encontrou em 1877 uma maneira de expressar este conceito matematicamente e desenvolveu a seguinte fórmula:

Entropia em sua definição moderna
Entropia, em uma definição mais moderna, pode ser entendida como o número de microestados equivalentes para o mesmo macroestado de um sistema. Ou seja, de quantas maneiras possíveis os elementos podem ser colocados de forma que o observador possa medir a mesma coisa macroscopicamente.
Visto de outra forma, a entropia mede a probabilidade de encontrar um estado devido à multiplicidade de combinações que fornecem o mesmo resultado.
Em outras palavras, um estado com alta entropia é aquele com alta probabilidade de ocorrência. Por exemplo, para dois dados lançados aleatoriamente, a soma de 7 é um estado de entropia mais alto do que a soma de 12.
Mas como esse sistema de probabilidade está relacionado à lei da termodinâmica que citamos no início? Em resumo, o que se observa é o estado de maior entropia.
Voltando ao exemplo do gás, a probabilidade de que suas partículas grudem em um lado da sala é tão infinitamente pequena que o observador nunca verá.
Entropia e economia
O conceito de entropia pode ser usado como sinônimo de desordem para a qual tende um sistema econômico quando as regulações necessárias não foram estabelecidas. Ou seja, sem a intervenção do Estado, o sistema econômico, segundo alguns autores, tenderia ao caos, levando a crises como a que observamos na Grande Recessão.
É por causa dessa tendência à entropia, dizem alguns analistas, que diante de crises como a de 2008, uma política monetária expansionista também foi necessária por parte do Federal Reserve. Caso contrário, especula-se que a economia dos EUA teria sido mais afetada.