• Home
  • Chimica
  • Astronomia
  • Energia
  • Natura
  • Biologia
  • Fisica
  • Elettronica
  •  science >> Scienza >  >> Fisica
    Entropia:la forza invisibile che porta disordine nell'universo
    L'entropia descrive come il disordine si verifica in un sistema grande come l'universo o piccolo come un thermos pieno di caffè. Jose A. Bernat Bacete/Getty Images

    Non puoi facilmente rimettere il dentifricio nel tubo. Non puoi aspettarti che le molecole di vapore migrino spontaneamente di nuovo insieme per formare una palla d'acqua. Se rilasci un gruppo di cuccioli di corgi in un campo, è molto improbabile che sarai in grado di rimetterli tutti insieme in una cassa senza fare un sacco di lavoro. Questi sono i problemi associati alla seconda legge della termodinamica, nota anche come legge dell'entropia.

    Contenuti
    1. La seconda legge della termodinamica
    2. La definizione di disturbo
    3. L'entropia crea confusione

    La seconda legge della termodinamica

    La termodinamica è importante per varie discipline scientifiche, dall'ingegneria alle scienze naturali, alla chimica, alla fisica e persino all'economia. Un sistema termodinamico è uno spazio confinato, che non lascia entrare o uscire energia da esso.

    La prima legge della termodinamica ha a che fare con la conservazione dell'energia:probabilmente ricorderete di aver sentito prima che l'energia in un sistema chiuso rimane costante ("l'energia non può essere né creata né distrutta"), a meno che non venga manomessa dall'esterno. Tuttavia, l'energia cambia costantemente forma:un incendio può trasformare l'energia chimica di una pianta in energia termica ed elettromagnetica. Una batteria trasforma l'energia chimica in energia elettrica. Il mondo gira e l'energia diventa meno organizzata.

    "La seconda legge della termodinamica è chiamata legge dell'entropia", ci ha detto in una e-mail Marko Popovic, ricercatore post-dottorato in Biotermodinamica presso la School of Life Sciences dell'Università Tecnica di Monaco. "È una delle leggi più importanti in natura."

    L'entropia è una misura del disordine in un sistema chiuso. Secondo la seconda legge, l'entropia in un sistema aumenta quasi sempre nel tempo:puoi lavorare per creare ordine in un sistema, ma anche il lavoro svolto per riordinare aumenta il disordine come sottoprodotto, di solito sotto forma di calore. Poiché la misura dell'entropia si basa sulle probabilità, è, ovviamente, possibile che l'entropia diminuisca occasionalmente in un sistema, ma è statisticamente molto improbabile.

    La definizione di disturbo

    È più difficile di quanto si pensi trovare un sistema che non lasci entrare o uscire energia - il nostro universo è un buon esempio come quello che abbiamo noi - ma l'entropia descrive come si verifica il disordine in un sistema grande come l'universo o come piccolo come un thermos pieno di caffè.

    Tuttavia, l'entropia non ha a che fare con il tipo di disturbo a cui pensi quando rinchiudi un gruppo di scimpanzé in una cucina. Ha più a che fare con quante possibili permutazioni di disordine può essere fatto in quella cucina piuttosto che in quanto grande un pasticcio è possibile. Naturalmente, l'entropia dipende da molti fattori:quanti scimpanzé ci sono, quanta roba viene immagazzinata in cucina e quanto è grande la cucina. Quindi, se dovessi guardare due cucine - una molto grande e rifornita fino alle branchie ma meticolosamente pulita, e un'altra che è più piccola con meno cose dentro, ma già piuttosto buttata via dagli scimpanzé - si è tentati di dire che la stanza più disordinata ha più entropia, ma non è necessariamente così. L'entropia si occupa maggiormente di quanti stati diversi sono possibili di quanto sia disordinato in questo momento; un sistema, quindi, ha più entropia se ci sono più molecole e atomi in esso, e se è più grande. E se ci sono più scimpanzé.

    L'entropia crea confusione

    L'entropia potrebbe essere il concetto scientifico più vero che il minor numero di persone effettivamente comprende. Il concetto di entropia può essere molto confuso, in parte perché in realtà ne esistono di diversi tipi. Il matematico ungherese John von Neumann ha così lamentato la situazione:"Chi usa il termine 'entropia' in una discussione vince sempre poiché nessuno sa cosa sia veramente l'entropia, quindi in un dibattito si ha sempre un vantaggio."

    "È un po' difficile definire l'entropia", dice Popovic. "Forse è meglio definita come una proprietà termodinamica non negativa, che rappresenta una parte dell'energia di un sistema che non può essere convertita in lavoro utile. Quindi, qualsiasi aggiunta di energia a un sistema implica che una parte dell'energia verrà trasformata nell'entropia, aumentando il disordine nel sistema. Quindi, l'entropia è una misura del disordine di un sistema."

    Ma non sentirti male se sei confuso:la definizione può variare a seconda della disciplina che la sta esercitando in questo momento:

    A metà del 19° secolo, un fisico tedesco di nome Rudolph Clausius, uno dei fondatori del concetto di termodinamica, stava lavorando su un problema riguardante l'efficienza dei motori a vapore e inventò il concetto di entropia per aiutare a misurare l'energia inutile che non può essere convertita in lavoro utile. Un paio di decenni dopo, Ludwig Boltzmann (l'altro "fondatore di entropia") utilizzò il concetto per spiegare il comportamento di un numero immenso di atomi:anche se è impossibile descrivere il comportamento di ogni particella in un bicchiere d'acqua, è ancora possibile prevederlo il loro comportamento collettivo quando vengono riscaldati usando una formula per l'entropia.

    "Negli anni '60, il fisico americano E.T. Jaynes, interpretava l'entropia come un'informazione che ci manca per specificare il movimento di tutte le particelle in un sistema", afferma Popovic. "Ad esempio, una mole di gas è composta da 6 x 10 23 particelle. Quindi, per noi, è impossibile descrivere il movimento di ogni particella, quindi invece facciamo la cosa migliore successiva, definendo il gas non attraverso il movimento di ogni particella, ma attraverso le proprietà di tutte le particelle combinate:temperatura, pressione , energia totale. L'informazione che perdiamo quando lo facciamo viene chiamata entropia."

    E il terrificante concetto della "morte termica dell'universo" non sarebbe possibile senza l'entropia. Poiché il nostro universo molto probabilmente è iniziato come una singolarità - un punto di energia infinitamente piccolo e ordinato - che si espandeva e continua a espandersi continuamente, l'entropia cresce costantemente nel nostro universo perché c'è più spazio e quindi più potenziali stati di disordine per gli atomi qui da adottare. Gli scienziati hanno ipotizzato che, molto tempo dopo che io e te ce ne saremo andati, l'universo alla fine raggiungerà un punto di massimo disordine, a quel punto tutto sarà alla stessa temperatura, senza che si trovino sacche di ordine (come stelle e scimpanzé).

    E se succede, dovremo ringraziare l'entropia per questo.

    Ora è interessante

    Lo scienziato del ventesimo secolo Sir Arthur Eddington pensava che il concetto di entropia fosse così importante per la scienza che scrisse in The Nature of the Physical World nel 1928:"La legge che l'entropia aumenta sempre detiene, credo, la posizione suprema tra le leggi della Natura. ... Se si scopre che la tua teoria è contraria alla Seconda Legge della Termodinamica, non posso darti alcuna speranza; non c'è nulla perché crolli nella più profonda umiliazione."




    © Scienza https://it.scienceaq.com