Stiamo facendo manutenzione.

La MQ mette davvero in crisi la fisica?

La fisica, lo studio della natura, la regina di tutte le scienze. Non poteva non avere un'area dedicata.
Oscar Chinellato
Messaggi: 7
Iscritto il: 27/02/2017, 17:54

Re: La MQ mette davvero in crisi la fisica?

Messaggio da Oscar Chinellato » 20/03/2017, 20:19

Teorie e interpretazioni

Diciamo, però, che l'interpretazione dell'onda pilota non è un'alternativa alla meccanica quantistica, ma un'interpretazione come ce ne sono altre.
Però le leggi della MQ continuano ad essere valid


Non mi sembra corretto contrapporre la MQ alle sue interpretazioni perché tutte le interpretazioni sono in accordo con la MQ, altrimenti non sarebbero interpretazioni. Quello che distingue una interpretazione da un'altra resta soggettivo, almeno fino a che non emergano chiare prove sperimentali.
Io preferisco interpretazioni che siano compatibili con il resto della fisica rispetto a quelle che pretendono che la sovrapposizione degli stati sia reale e che ci sia azione a distanza. Pensare la MQ come teoria emergente oltre al vantaggio di non essere in contraddizione né con la MQ stessa né con il mondo che conosciamo può trovar giustificazione nei 5 indizi riportati nell'argomento di discussione e, cosa però da approfondire, anche su alcuni risultati sperimentali come l'effetto Casimir.
Per quanto riguarda l'onda pilota, è chiaro che se esiste un substrato a scale inferiori da cui emerge il comportamento quantistico allora le particelle sono guidate, proprio come nelle goccioline rimbalzanti.
Per quanto riguarda il lavoro di Bohm, la sua onda pilota è matematicamente consistente e in accordo con la MQ, direi addirittura equivalente; descrive le eventuali traiettorie prima del collasso della funzione d'onda e sarebbe strano che le traiettorie, eventualmente rilevate, non vi si accordassero. Però dal punto di vista delle premesse l'onda pilota di Bohm è altrettanto bizzarra della MQ.
Avatar utente
Aspie96
Amministratore
Messaggi: 1386
Iscritto il: 23/02/2019, 19:52

Re: La MQ mette davvero in crisi la fisica?

Messaggio da Aspie96 » 21/03/2017, 14:20

Oscar Chinellato ha scritto:Non mi sembra corretto contrapporre la MQ alle sue interpretazioni perché tutte le interpretazioni sono in accordo con la MQ, altrimenti non sarebbero interpretazioni. Quello che distingue una interpretazione da un'altra resta soggettivo, almeno fino a che non emergano chiare prove sperimentali.

Questo è l'esatto motivo per cui contrapporle.
La MQ è una sola e produce risultati corretti. E si basa sui suoi risultati. Non fallirebbe se l'interpretazione delle onde pilota si rivelasse corretta.

Io preferisco interpretazioni che siano compatibili con il resto della fisica

Non ce ne sono.
Perfino quella dell'onda pilota, come ho detto, richiede presupposti non accettati da altre teorie.
Oscar Chinellato
Messaggi: 7
Iscritto il: 27/02/2017, 17:54

Re: La MQ mette davvero in crisi la fisica?

Messaggio da Oscar Chinellato » 23/03/2017, 11:50

Finalmente ci capiamo!
Sappiamo su cosa siamo d’accordo:
La MQ è una sola e produce risultati corretti. E si basa sui suoi risultati. Non fallirebbe se l'interpretazione delle onde pilota si rivelasse corretta


E su cosa NON siamo d’accordo:
Interpretazioni che siano compatibili con il resto della fisica. Non ce ne sono


Io penso che una interpretazione della MQ non in conflitto con il resto della fisica non solo sia possibile, ma anche, per me, convincente.
INDIZI. I cinque punti riportati nell’argomento di discussione

LAVORI TEORICI E SPIEGAZIONI. Cito alcuni lavori riportati in riviste scientifiche o atti di convegni che godono di riconoscimenti scientifico
Articoli o libri teorici
Grössing, G.; Fussy, S.; Mesa Pascasio, J.; Schwabl, The Quantum as an Emergent System - 2012 - La MQ spiegata come sistema emergente
C. Cavalleri e al. A quantitative assessment of SEDS - 2009 -Spiega le basi della trattazione statistica SEDS con spin e come da essa si deduca la MQ -
Agung Budiyono A stochastic model for quantum measurement - 2013 - Costruzione di un modello di enti microscopici dal cui comportamento statistico emergono le proprietà della MQ
L. bouten e al. Stochastic schroedinger equation - 2003 - Deriva l’equazione di schroedinger da presupposti statistici
E. Santos. Stochastic electrodinamics and the interpretation of non relativistica QM - 2015 - Mostra come l’approccio statistico conduca alla QM senza I paradossi della MQ
L. De la pena, A. M. Cetto, A. V. Hernandez The emerging quantum - 2015 - Libro che riassume e propone sviluppi per l’approccio stocastico alla MQ

Sintesi
Theo M Nieuwenhuizen. Walking on quantum foundations EmQM15 Vienna 2015 - Lucidi che analizzano I fondamenti della QM
Marian Kupczynsky EPR paradox … EmQM15 Vienna 2015 - Lucidi che sintetizzano la questione che discutiamo

In Wikipedia alla voce Stochastic Electrodinamics la questione non viene liquidata con una battuta, ma presa seriamente.

In italiano
Sigfrido Boffi. Onde di materia e onde di probabilità 2012 Università di Pavia
francesco.aliotta
Messaggi: 812
Iscritto il: 09/07/2014, 16:33

Re: La MQ mette davvero in crisi la fisica?

Messaggio da francesco.aliotta » 23/03/2017, 18:04

Intanto do anch'io il mio benvenuto a Oscar.
Ho visto che state discutendo sul significato della Meccanica Quantistica. Già se ne è parlato più volte e quindi non sto a riproporre quanto già è stato detto.
Vorrei solo fare qualche precisazione a proposito di qualche affermazione di Oscar che richiede qualche chiarimento.
Ad esempio, ad un certo punto, parlando dell'effetto tunnel, ha scritto
l'effetto tunnel conferma l'azione a distanza e la non causalità perché su questi elementi la MQ interpreta la spiegazione del fenomeno.


Ora questa frase (ed alcune altre che sembrano correlate a concetti simili) è fondamentalmente inesatta.
L'effetto tunnel non ha nulla a che vedere con l'azione a distanza ne, tanto meno, con la causalità.
La spiegazione dell'effetto tunnel, se uno si libera di alcuni preconcetti (palesemente preconcetti) discendenti dalla Meccanica Classica ha una spiegazione tanto semplice da apparire quasi banale.
Ovviamente, per afferrare pienamente il concetto bisogna riuscire a comprendere il significato fisico del principio di incertezza (o, come volgarmente tradotto in Italiano, di indeterminazione).
Il preconcetto classico di cui occorre liberarsi è l'idea che sia possibile conoscere simultaneamente (misurare sperimentalmente) velocità e posizione di un oggetto (o energia e tempo o una qualsiasi altra coppia di variabili coniugate) con una precisione assoluta (errore di misura nullo o prossimo a zero). Questa idea è difficile da rimuovere perchè è radicata nel concetto di traiettoria (ad esempio) che ci è tanto familiare da farci accettare la cosa come del tutto plausibile.
Eppure dovrebbe essere del tutto evidente che non è, nemmeno in linea di principio, possibile misurare una delle due quantità con precisione elevata senza pagare il prezzo di perdere precisione nella misura dell'altra. E' per questo che Heisemberg ha parlato di incertezza e non di indeterminazione. Heisemberg parla delle incertezze associate alle misure sperimentali (un concetto concreto e tutt'altro che teorico). La traduzione in italiano parla di "indeterminazione" suggerendo una perdita di nesso di casualità. Ma la Fisica non ha mai detto questo. Le cattive traduzioni possono essere fuorvianti (su questo sono d'accordo).
Da qualche parte, in questo forum, ho già riportato qualche esempio che dovrebbe chiarire come funziona il principio di incertezza (ho riportato esempi classici).
Te ne propongo un altro. Supponi di avere un rivelatore che sia capace di registrare un segnale luminoso. Parlo di un segnale luminoso classico: un'onda elettromagnetica che si propaga nello spazio. E supponiamo che il tuo rivelatore sia capace di seguire le oscillazioni del campo elettromagnetico nel tempo e che ti dica che la tua onda è perfettamente sinusoidale. Se la tua onda è perfettamente sinusoidale vuol dire una sola cosa: ha una frequenza di oscilazione ben precisa e, di conseguenza, ha un'energia ben precisa. Ora, un'onda di questo tipo può, in linea di principio esistere. Ma come può il tuo rivelatore "essere certo" di aver rilevato un'onda monocromatica? Se ci pensi bene c'è una sola possibile risposta. Deve osservarla per un tempo infinito. Perchè un'onda monocromatica è un'onda che si propaga nello spazio (e nel tempo) sempre identica a se stessa. Se tu non la osservi per un tempo infinito, il meglio che potrai dire è che, durante il tempo in cui la hai osservata, non sei riuscito a vedere variazioni di ampiezza ne di frequenza. Questa cosa, purtroppo, non ti consente però di affermare che la tua onda è veramente monocromatica. Potrebbe essere un'onda che si comporta come tale nel tempo della tua osservazione ma che, in verità, è stata emessa da una sorgente (che non sai dove si trovi) in un certo istante. Il fatto che quell'onda è stata emessa ad un certo istante (per cui nell'istante precedente non esisteva) la rende immediatamente un'onda non monocromatica. Se io provassi a generare un'onda di questo tipo (e, per la verità, è l'unica cosa che so fare) immediatamente vedo che l'onda non è monocromatica. Il fatto che ci sia un tempo che separa la non esistenza dell'onda dalla sua esistenza introduce delle componenti a frequenza diversa da quella che (con la tua misura limitata nel tempo) hai rilevato. Non hai via d'uscita. O l'onda è sempre esistita e sempre esisterà o non è monocomatica! Certo, la sua larghezza di banda (l'intervallo di frequenze che la compongono) può essere molto stretto ma non lo puoi ridurre a zero. Ora dovrebbe esserti chiara una cosa. Se vuoi misurare con una buona accuratezza l'energia di un'onda monocromatica la devi misurare su un intervallo di tempo enorme. Alla fine avrai una misura della sua energia molto accurata. Però, se vuoi conoscere l'istante in cui il tuo rivelatore è stato colpito ora potrai dire solo che è stato colpito in un intervallo di tempo pari al tuo tempo di osservazione. Con la tua misura, conosci bene l'energia della tua onda ma sai molto poco sull'istante in cui il tuo rivelatore è stato copito. Se tu vuoi conoscere con buona accuratezza il momento in cui il rivelatore è colpito hai un'unica possibilità: devi fare una misura molto veloce e conoscerai il momento dell'impatto con un'incerteza temporale pari al tuo tempo di misura. Se sei molto veloce potrai ridurre l'errore a piacimento. Ma più riduci questo errore più vai in condizioni disperate per misurare l'energia della tua onda. Se l'errore sul tempo tende a zero, durante la misura l'onda non riuscirà a compiere nemmeno un'oscillazione: cioè non saprai nulla sulla sua energia che, per quanto ti riguarda, potrebbe avere un valore qualsiasi. Passare da una descrizione sperimentale che descrive il tuo fenomeno (l'onda) in termini di energia o di tempo significa (matematicamente) effettuare quella che si chiama una trasformata di Fourier. Il concetto matematico può non essere ovvio per chi non conosca la Matematica ma il concetto fisico mi pare trasparente. La Fisica non si occupa di come le cose sono veramente, non può farlo! La Fisica si occupa solo di descrivere le cose che riesci a misurare. Il mondo fisico è quello che osservi (cioè che misuri, in senso lato). Tentare di descrivere ciò che non osservi è del tutto insensato.
Questo è il concetto base della Meccanica Quantistica ed è ciò che la differenzia dalla Fisica Classica. La Fisica Classica crede di avere a che fare con verità assolute e ne trae conseguenze aberranti. La Meccanica Quantistica (per quanto strano ti possa apparire) è molto più pragmatica e guarda al mondo osservabile.
Ed ora veniamo all'effetto tunnel. Quello che accade è che una particella ha un'energia di poco inferiore a quella necessaria a superare una barriera. La Fisica Classica ti direbbe che non la supererebbe mai. La Meccanica Quantistica capisce che, nel momento in cui impatta con la barriera, quest'ultima si trasforma in uno strumento per misurare l'energia della particella. La barriera ci prova e misura anche bene quell'energia. Peccato che l'accuratezza sull'energia sia stata tanto alta che, come risultato, perdi informazioni sulla posizione della particella. Per cui non riesci più a dire se la particella si è fermata subito prima della barriera o subito dopo. Tutto qui. La Meccanica Quantistica ti dice solo che, se una barriera ha "misurato con accuratezza" l'energia di una particella, una misura eseguita successivamente per determinarne la posizione avrà una probabilità diversa da zero di vedere una particella (indistinguibile da quella incidente) al di là della barriera.
Ho detto "una particella indistinguibile da quella incidente" e non "la stessa particella". Perchè la Meccanica Quantistica è prudente è non fa alcuna affermazione che non sia dimostrabile sperimentalmente. Di nuovo, tu puoi fare affermazioni su ciò che osservi (la particella da una parte o dall'altra) della barriera. Quello che avviene durante l'attraversamento della barriera non è osservabile. La meccanica quantistica descrive questo "attraversamento" in termini d'interazione, facendo ricorso alle funzioni d'onda. Ma le funzioni d'onda (o le matrici di Heisemberg) sono solo dei modelli matematici per descrivere cosa succederà dopo l'interazione. Le funzioni d'onda sono solo una ausilio mentale e nessuno si è mai sognato di dire che si tratti di oggetti dotati di una realtà fisica (assegnando una realtà fisica unicamente a ciò che è osservabile). La Meccanica quantistica non ti dice nemmeno se la particella ha attraversato la parete: ti dice solo che al di qua della parete non c'è più la particella ma che ce ne sta una al di là. Se la particella è stata distrutta durante l'attraversamento e poi ne è stata creata un'altra (rispettando tutte le leggi di conservazione classiche derivanti dall'esperienza) è una cosa che la Meccanica Quantistica si guarda bene dal dire. E, alla luce di quello che sappiamo sul fenomeno che vogliamo descrivere (l'effetto tunnel in questo caso) fa solo previsioni statistiche su ciò che avverrà. Non ti dice, perchè non può dirtelo, se una particella in particolare attraverserà la parete. Ma ti dice perfettamente quante particelle passeranno e quante saranno invece riflesse se fai un numero di prove sufficientemente grande. Un numero di prove sufficientemente grande è esattamente quello che fai nel mondo macroscopico. Ad esempio, se tu dici che uno specchio è riflettente al 50% il tuo esperimento classico vedrà che se fai incidere un fascio luminoso su quello specchio avrai un fascio trasmesso con intensità ridotta del 50% ed un fascio riflesso con intensità pari al rimanente 50%. La Meccanica Quantistica ti dirà che il singolo fotone ha il 50% di probabilità di essere riflesso ed il 50% di probabilità di essere trasmesso, che, intermini statistici, si riduce alla stessa affermazione fatta dalla Meccanica Classica. Quindi non vi è alcuna violazione del principio di causalità. E certamente non vi è alcun sintomo di azione a distanza.
L'azione a distanza è un problema invece intrinseco alla Fisica Newtoniana (il concetto di campo è un correttivo non soddisfacente introdotto posteriormente). Ed anche con il campo rimane il problema di effetti che si propagano istantaneamente, corretti poi con la Meccanica Relativistica. Ed il concetto di traiettoria (quello classico) discende dai concetti (errati) di azione a distanza o di propagazione istantanea degli effetti. Se uno guarda bene, quella che viola l'intuizione (è quindi contro-intuitiva) è proprio la Meccanica Classica.
In verità, non esiste in alcun punto della Meccanica Quantistica una violazione del principio di causa-effetto. Anzi, questo principio sta proprio alle fondamenta della MQ! Esistono alcuni problemi che hanno a che vedere con alcuni discorsi interpretativi sul significato della MQ. Questi discorsi sono sempre riconducibili a ciò che avviene durante l'interazione. Ripeto, la MQ fornisce equazioni che descrivono il risultato dell'interazione ma non descrive ciò che avviene durante l'interazione. Non lo fa e non lo può fare dato che ciò che avviene durante l'interazione non è, per definizione, osservabile. La MQ descrive dichiaratamente solo ciò che si può osservare per cui ciò che avviene durante l'interazione è un argomento che va oltre i limiti della MQ. I discorsi sul significato della MQ sono quindi discorsi di meta-MQ e non di MQ. Questi discorsi portano ad ipotesi interpretative. Alcune di queste ipotesi non appaiono accettabili perchè, esaminate in dettaglio, sembrano violare il principio di causa-effetto. Dovrebbe essere chiaro che la MQ e le speculazioni interpretative sulla MQ (per quanto lecite) siano due cose ben distinte. Sono le ipotesi interpretative quelle che violano il principio di causalità e non la mQ! Resta il fatto che, sino ad oggi, nessun esperimento reale (descrivibile quindi tramite la MQ) ha mai posto in evidenza una possibilità, benchè minima, che sia stato violato il principio di causa-effetto.
teoria del tutto
Messaggi: 1095
Iscritto il: 05/08/2015, 15:23

Re: La MQ mette davvero in crisi la fisica?

Messaggio da teoria del tutto » 24/03/2017, 16:44

Un mio esperimento incompleto...
Ho una barra in alluminio a 500 gradi e per raffreddarla gli verso acqua, l'acqua scivola via perche' si forma istantaneamente un velo di vapore, si usa acqua nebulizzata maggiore superfice di acqua raffreddamento più efficace. Visto che basterebbe portare la barra a cento gradi se utilizzassi direttamente vapore umido in pressione avrei maggiore superfice di acqua, in minor tempo (dovuto al'alta pressione) avendo un ricambio di vapore umido piu veloce manterrei il vapore a cento gradi lasciando il posto al'uscita di vapore diventato secco. In questo modo non avrei danni causati da allagamenti per lo spegnimento non raggiungendo in nessun caso la fase liquida.
Quale fisica può dirmi, visto che non ho strumenti e nemmeno paragoni, se il vapore o l'acqua nebulizzata può raffreddare prima una barra di alluminio a 500 gradi? Cosa mi serve una fisica che mi dica 50 % sara fredda e 50% sara calda? Mi serve una fisica che mi dica se posso o meno toccare la barra. La vecchia fisica mi diceva che con una secchiata di acqua risolvevo il problema
Oscar Chinellato
Messaggi: 7
Iscritto il: 27/02/2017, 17:54

Re: La MQ mette davvero in crisi la fisica?

Messaggio da Oscar Chinellato » 26/03/2017, 20:21

Grazie Francesco per le puntualizzazioni.
Mi è venuto in mente di scrivere l'argomento leggendo un editoriale di Boncinelli su “Le Scienze”. L’autore non è un fisico, per questo il suo “sentire” sulle questioni di fisica è un valido indice su come è vista la fisica.
Dopo essersi giustamente scagliato contro ogni forma di finalismo biologico egli afferma: “… buona parte della fisica atomica e subatomica opera indipendentemente da un’ipotesi di causalità. E anche di determinismo, per non parlare di questioni di individualità e riconoscibilità…”.Questa è “l'interpretazione corrente” che si trova in tutta la stampa anche scientifica non specializzata e deriva dal fatto di considerare la MQ completa.

Non voglio assolutamente entrare nel merito delle vecchie interpretazioni della MQ , ben altri intelletti (ad es. Einstein e Bohr) le hanno sviscerate a fondo. Con il teorema di Bell pareva che “l'interpretazione corrente” fosse definitivamente provata, ma io penso che molti lavori basati su esperimenti recenti forniscono forti indizi che la MQ descriva un comportamento emergente della materia.

Mi piacerebbe che qualcuno potesse darmi dei chiarimenti. Ma non per spiegarmi i fenomeni con l’interpretazione corrente, bensì con un esame critico dei lavori e degli autori citati nella risposta n. 5 che elenco di nuovo:
1 derivazione statistica dell'equazione di schroedinger
2 problema della contestualità in Bell
3. Esistenza di entanglement classico
4. Rilevazione delle traiettorie con misurazione debole
5. Esistenza di alcune proprietà che sembravano esclusive della mq nelle goccioline rimbalzanti

Aggiungo inoltre
6. Violazione del principio di indeterminazione di Heisemberg
Questo risultato era contenuto nel punto 4) ma ora lo pongo in modo esplicito.
I lavori teorici di M. Ozawua (2003) hanno dimostrato che il principio di Heisenberg è solo parziale. Non basta considerare l'effetto di una misura (posizione) su un'altra misura (momento) bisogna anche tener conto dell'errore intrinseco delle misure.
Effettuando misurazioni deboli sullo spin, ossia considerando anche gli effetti secondari e ripetendo molte volte le misure, L. A. Erhart (2012 violatin of Heisemberg's ...) afferma (tradotto) " i nostri risultati danno una dimostrazione sperimentale che la forma generalizzata delle relazioni di Heisemberg deve essere abbandonata." Questo risultato è stato confermato da parecchi altri lavori.
Il fallimento sperimentale del principio di indeterminazione, almeno in alcuni contesti, fa pensare.
francesco.aliotta
Messaggi: 812
Iscritto il: 09/07/2014, 16:33

Re: La MQ mette davvero in crisi la fisica?

Messaggio da francesco.aliotta » 29/03/2017, 20:03

Oscar,
tu poni un bel po' di domande. Comincio a provare a dare una risposta ad alcune. Tornerò sulle altre appena avrò un po' più di tempo.
Comincio dalla domanda n° 6, non perchè sia la più importante ma solo perchè la risposta è quasi immediata.
Gli articoli di cui parli (ne esistono un bel po' molto più recenti anche dagli stessi autori da te citati) in verità non parlano di fallimento sperimentale del principio di indeterminazione (continuiamo a chiamarlo così, tanto ormai ci siamo chiariti di che cosa in verità parli).
Nessuno ha mai detto che il principio sia stato falsificato, ne sperimentalmente ne teoricamente. I risultati dicono molto più semplicemente che il principio così come è stato in origine formulato ha una validità che non può essere ritenuta generale. In parole semplici si tratta di questo: Heisemberg nel formulare il suo principio focalizzò l'attenzione sull'errore commesso nel determinare una quantità fisica. E l'errore fu associato esclusivamente ad un'incertezza associata alla precisione dello strumento di misura (se vuoi, al suo potere risolutivo). In parole povere, l'errore commesso nella misura (quello che produce un rumore nei dati) è una proprietà esclusiva dello strumento di misura e non dipende dall'oggetto della misura. Più correttamente, le condizioni assumono che l'atto della misura sia indipendente dall'oggetto misurato. Quando queste condizioni sono verificate (e per la verità nel fare una misura si tenta sempre di verificarle al meglio) il principio così come è stato originariamente verificato continua ad essere valido. Quello che è stato messo in evidenza è che, sotto determinate circostanze, l'errore della misura può non essere dovuto unicamente ad un proprietà dello strumento ma può essere influenzato dall'oggetto della misura. Di nuovo, più correttamente dovrei dire: la misura è un effetto il cui accadere non è indipendente dall'oggetto della misura. Sotto queste condizioni, la relazione di Heisemberg può non essere corretta perchè la non indipendenza tra l'atto della misura e l'oggetto da misurare introduce effetti (correlazioni) di cui Heisemberg non ha tenuto conto. Ed ecco che è stata proposta una forma più generalizzata di quel principio, che rimanga valida sotto uno spettro di condizioni più ampio.
Si tratta di questo e non di una falsificazione del principio. Il principio è stato esteso e ciò ha richiesto una riformulazione.
Ma se io voglio determinare la traiettoria di una particella devo continuare a tentare di determinare simultaneamente una serie di posizioni e una serie di tempi. Ogni misura sarà effettuata dal misuratore e, in questo caso, ogni misura verrà effettuata dal misuratore con modalità assolutamente indipendenti da ciò che la particella stia facendo. Quindi, in queste condizioni, il principio originale continua ad essere valido. Questo vuol dire che il principio riformulato, quando applicato a questi casi, continua a fornire le stesse indicazioni che dava il vecchio principio. In queste condizioni non c'è nulla da fare: il concetto di traiettoria classico si dimostra un'illusione e gli errori sono esattamente quelli indicati da Heisemberg.
In sostanza non è successo nulla di strano. Nessuno si è mai sognato di dire che una legge fisica sia una verità assoluta. E' semplicemente la migliore descrizione delle cose che siamo riusciti ad ottenere al momento. E' del tutto ovvio che alcune delle nostre idee (le leggi fisiche in cui crediamo oggi) possano essere del tutto falsificate da nuove scoperte che al momento nemmeno immaginiamo. Oppure possono trovare piccoli aggiustamenti in seguito al confronto con condizioni sperimentali non immediatamente prese in considerazione. Nel caso in questione ci troviamo ad aver a che vedere con il secondo caso. Non siamo certamente di fronte ad una rivoluzione scientifica o ad uno sconvolgimento del significato del principio.

Salto al punto 1).
Non esiste alcuna derivazione statistica dell'equazione di Schroedinger. Direi che una tale derivazione non può esistere per principio. L'equazione si limita a descrivere l'evoluzione temporale della funzione d'onda della particella. L'equazione assomiglia all'equazione di un'onda che si propaga (da cui il nome) ma in verità la funzione d'onda descrive solo le informazioni che abbiamo sulla particella. Queste informazioni rimangono valide sino a che la particella rimane isolata (non scambia energia con altre particelle). Per cui l'evoluzione temporale di questa funzione d'onda descrive solo come variano nel tempo le informazioni che abbiamo sulla particella, tenendo conto che un certo numero delle sue proprietà debbano conservarsi, data l'assenza di interazioni. L'equazione d'onda è quindi un'equazione che descrive un'evoluzione temporale rigorosamente deterministica. Non vi è nulla che parli di assenza di correlazioni causa-effetto ne vi è nulla che parli di statistica.
Gli effetti non rigorosamente deterministici (o probabilistici) nascono nel momento della misura. Il fatto che l'equazione d'onda sia deterministica significa che tale equazione può essere invertita temporalmente. Il momento della misura rompe questa simmetria temporale. Per misurare una qualsiasi proprietà della particella bisogna interagire con essa. Interagire significa scambiare energia, poca quanto vuoi ma diversa da zero. E se la particella interagisce con lo strumento di misura improvvisamente puoi distinguere tra il momento prima della misura ed il momento successivo alla misura. Il tempo non è più invertibile: ora esiste un prima e un dopo. LA funzione d'onda descrive le proprietà di una particella che non è mai stata misurata. E' un concetto astratto e le informazioni si conservano perchè, come ti ho detto, la particella è isolata. In termini termodinamici diresti che l'entropia della tua particella non cambia nel tempo. (Se l'entropia non cambia, anche un termodinamico classico sa di trovarsi di fronte ad un processo reversibile). Ma durante la misura lo scambio di energia implica un aumento di entropia. Ecco perchè il processo di misura è irreversibile ed introduce una freccia temporale. Il processo di misura rivela proprietà reali della particella e non può non obbedire alle leggi della termodinamica. Un aumento di entropia implica una perdita di informazione. Tu guadagni informazione su un dettaglio (il valore di una delle proprietà della particella). Ma dato che il processo è necessariamente irreversibile, ecco che un aumento di entropia implica che le informazioni in più che hai guadagnato siano compensate, con un surplus, dalla perdita di informazioni su altri dettagli. Questo concetto è perfettamente coerente con la Termodinamica (che è una teoria classica). E se guardi bene, ti ho dato in una maniera diversa la dimostrazione della necessità del principio di incertezza di Heisemberger. La non esistenza di quel principio implicherebbe una violazione del secondo principio della Termodinamica. Come vedi, la MQ non è poi una Teoria così campata in aria. Tiene le sue fondamenta del mondo reale. Le motivazioni delle sua formulazione stanno proprio nella Termodinamica.
Comunque, tornando alla misura, la perdita di informazioni mi fa perdere la capacità di fare previsioni esatte sul futuro della particella. Sulla base delle informazioni che ho ottenuto dalla prima misura potrò al massimo fare previsioni probabilistiche su quello che sarà il risultato di un'ulteriore misura sulla stessa particella. E' da qui che nasce il concetto di probabilità di un risultato in MQ. La perdita di correlazioni causa-effetto non c'entra in alcun modo.
E in MQ non si parla di statistica. La statistica serve solo quando voglio cucire le indicazioni della MQ con i risultati di una misura macroscopica (classica). In una misura macroscopica (quella che puoi fare quotidianamente) non interagirai mai con una sola particella ma con un numero mostruoso di particelle simili. Se fai la media statistica delle probabilità indicate dalla MQ otterrai un valor medio che va a coincidere con quello che sarà il tuo risultato classico. E' il tuo risultato classico (la misura che fai ogni giorno) quella che ha un significato statistico. Ciò che accade (e sarebbe sorprendente e non coerente se accadesse) è che il valore statistico che ti fornisce ogni misura classica è perfettamente coerente con le indicazioni probabilistiche della MQ.
Spero di essere riuscito a farmi capire. Ora mi devo fermare. Magari ritorno più tardi.
teoria del tutto
Messaggi: 1095
Iscritto il: 05/08/2015, 15:23

Re: La MQ mette davvero in crisi la fisica?

Messaggio da teoria del tutto » 29/03/2017, 22:16

Posso complicare le cose?
Io lascio cadere un sasso per misurarne la caduta. Il misuratore prende i dati considerando che lui e' presente nella misurazione. Qua dovremmo esserci. Ma io che lascio cadere il sasso ho eseguito il sollevamento del sasso per lasciarlo cadere, potrei usare una macchina che faccia questo lavoro, ma vengo calcolato io che lascio cadere il sasso? Se alzo il sasso ora non sto usando lo stesso tempo di prima.
Esiste un prima uguale ad un dopo? Posso lanciare una particella ora e pensare di avere gli stessi effetti lanciandola dopo?
Oscar Chinellato
Messaggi: 7
Iscritto il: 27/02/2017, 17:54

Re: La MQ mette davvero in crisi la fisica?

Messaggio da Oscar Chinellato » 31/03/2017, 8:53

Buon giorno a chi legge,
cerco di seguire il discorso di Francesco sulla questione 6): Violazione del principio di indeterminazione.
L’articolo che ho citato non è il più recente, vi sono molti altri lavori più recenti sul tema che però confermano i risultati.
Giustamente come dice Francesco il principio di indeterminazione è stato aggiornato, nella nuova formulazione vi sono tre termini:
1° incertezza dovuta all’effetto di una misurazione (ad es. posizione) su un’altra misurazione (es. momento), questo termine lo chiamiamo errore da disturbo (error-disturbance);
2° incertezza della prima misurazione;
3° incertezza della seconda misurazione.
Solo il primo termine, ossia l’errore da disturbo, è l’indeterminazione di Heisemberg
Però non è importante questa distinzione quello che conta è l’esito degli esperimenti. Restando all’articolo di G. Sulyok, J. Erhart e altri che ho citato, trattando della misurazione debole, l’affermazione finale (tradotta) è: “..I isultati dimostrano che la relazione dell’errore da disturbo di Heisemberg può sempre essere violata verso un limite più basso.”
In pratica ∆x∙∆p < Ћ/2 , restando alla formulazione di Heisemberg,
Questa affermazione, valida per misurazione debole, non è contestabile. Gli autori hanno tutte pubblicazioni con revisione tra pari (pear to pear) in riviste al top della fisica, appartengono a Università prestigiose e sono accreditati nel mondo accademico internazionale.
Mi pare chiaro che l’argomento di Francesco non mi ha convinto.
Tutt’al più, per chi vuole puntualizzare, la questione si sposta sul significato della misurazione debole (il punto 4) della lista.

Per l’argomento 1) Derivazione funzione Schroedinger, esiste una lunghissima serie di lavori (alcuni citati nella risposta n. 5) che con rigore matematico indiscutibile hanno derivato la formula con metodi statistici. Anche qui, tutt’al più, si dovrebbero contestare le premesse da cui sono partiti e non l’impossibilità di raggiungere il risultato visto che è stato raggiunto.
francesco.aliotta
Messaggi: 812
Iscritto il: 09/07/2014, 16:33

Re: La MQ mette davvero in crisi la fisica?

Messaggio da francesco.aliotta » 02/04/2017, 11:20

Però non è importante questa distinzione quello che conta è l’esito degli esperimenti. Restando all’articolo di G. Sulyok, J. Erhart e altri che ho citato, trattando della misurazione debole, l’affermazione finale (tradotta) è: “..I isultati dimostrano che la relazione dell’errore da disturbo di Heisemberg può sempre essere violata verso un limite più basso.”


Non metto in dubbio questo punto. Come ho già scritto gli articoli di cui parli non dicono che il principio ci incertezza non sia valido. Dicono semplicemente che, sotto determinate condizioni, l’incertezza può scendere a valori inferiori a quelli indicati da Heisemberg. E riformulano il tutto, in maniera da preservare il risultato originale sotto le condizioni a cui si riferisce e sotto le quali è sperimentalmente verificato.
Ma ai fini del discorso che stiamo facendo non è rilevante il valore dell’incertezza al disotto del quale è impossibile andare. Ciò che conta è che questa incertezza esista e che, nemmeno in linea ipotetica, sia possibile ridurla a zero.
Questo risultato è stato formulato per la prima volta, in questi termini, a proposito di fenomeni quantistici. Perché in questi casi abbiamo a che fare con la misura di quantità che possono essere estremamente piccole, per cui anche incertezze piccole portano ad errori percentuali tutt’altro che trascurabili.
Però non dobbiamo commettere l’errore di ritenere che il principio di incertezza abbia a che vedere unicamente con i fenomeni quantistici. Anche se in parte vado a ripetermi, torno a farti l’esempio di un’onda elettromagnetica (luce visibile) descritta nei termini classici dell’Ottica Ondulatoria. Tu senti spesso parlare di onda monocromatica. Ma dovrebbe essere chiaro che un’onda monocromatica è esclusivamente un’idealizzazione classica che non trova corrispondenza nel mondo reale. Nella realtà anche il laser più monocromatico che puoi realizzare ha una larghezza di banda di qualche MHz. Il che vuol dire che non è esattamente monocromatico: l’incertezza sulla sua frequenza (energia) è finita. La frequenza della luce visibile è dell’ordine delle centinaia di THz. Per cui una larghezza di banda di qualche MHz è veramente tanto piccola da consentirti di far finta, nella maggior parte dei casi, che l’onda sia veramente monocromatica. Ma “nella maggior parte dei casi” non significa “in ogni caso”. Immagina un esperimento reale, in cui il tuo fascio laser venga separato in due raggi luminosi (basta uno specchio semiriflettente). E poi immagina di ricombinare i due fasci facendoli sovrapporre su uno schermo. Se l’onda fosse veramente monocromatica, dovresti osservare effetti di interferenza in ogni caso. Invece, sperimentalmente, li osservi solo se la differenza di cammino percorsa dai due fasci distinti non supera un valore limite. Quello che accade è che il fatto che la lunghezza d’onda non abbia un valore esatto implica che, superato un certo limite temporale (tempo di coerenza), le relazioni di fase vengano perse. Poiché i due raggi si propagano alla stessa velocità, la differenza nelle distanze percorse si traduce in una differenza tra i tempi impiegati a percorrerle. Se la differenza tra i due cammini supera un valore limite (lunghezza di coerenza) i due raggi si rifiuteranno pervicacemente di interferire, pur essendo stati emessi dalla stessa sorgente. Tu potresti anche dirmi: si, ma questo è un limite tecnico! Sono io che non riesco a produrre un laser veramente monocromatico! Ma avresti torto. Perché io ti farei la domanda: anche in maniera puramente ipotetica, con un esperimento mentale, come penseresti di produrre un’onda veramente monocromatica?
La risposta te la do io: non potresti!
Come ti ho detto, un’onda, per essere monocromatica deve essere esistita da sempre e deve continuare ad esistere per sempre. Allora andiamo al momento di generazione dell’onda. Supponiamo che la sorgente si sia accesa al momento in cui, dopo il Big Bang, l’Universo è divenuto trasparente alla luce. Certamente non può essere stata accesa prima (spero che su questo ci si possa trovare in accordo). Allora questa onda non potrebbe avere un tempo di coerenza superiore all’età dell’Universo. Certo, la sua dispersione in frequenza sarebbe ridicola rispetto a quella del laser. Ma sarebbe comunque finita. Per cui l’onda non sarebbe veramente monocromatica. Ma non basta. La situazione sarebbe ancora peggiore. Un’onda monocromatica per essere tale deve avere vergenza nulla, cioè deve essere ciò che si chiama un’onda piana. Matematicamente è immediato descriverla. Ma in pratica? In pratica sei nei guai! Perché, per avere vergenza nulla, la tua onda deve avere un fronte d’onda infinito. Se il fronte d’onda fosse finito non potresti evitare effetti di diffrazione ai bordi: il limiti del fronte d’onda si comportano esattamente come un diaframma. Non importa che il diaframma abbia un’apertura enorme. Anche se piccolissimi ci saranno effetti di diffrazione ai bordi. Non osserverai certamente dei picchi di diffrazione. Ma il risultato sarà che il tuo fascio avrà una vergenza finita (tenderà ad allargarsi mentre si propaga). Non importa quanto piccola sia questa vergenza. La sua esistenza implica il fatto che la tua onda non sia veramente monocromatica. Cioè che non puoi definire, in linea di principio, un valore esatto dell’energia da assegnare alla tua radiazione. Come vedi tempo di coerenza ed energia della radiazione sono due quantità che, in linea di principio, non possono essere definite con errore nullo. Puoi far sì che il prodotto dei due errori divenga piccolo (non ci interessa quanto ai fini del nostro discorso) ma non puoi mai pensare di portarlo a zero. Come vedi, questa incertezza nei valori da assegnare alle due variabili tempo ed energia non è il risultato di un errore dovuto ad imprecisioni del tuo strumento di misura. E non è nemmeno dovuto a possibili disturbi che tu introduci con l’atto della misura. Stiamo parlando di un’incertezza nella definizione di questi valori che è intrinseca al concetto di onda elettromagnetica classica, quando lo vuoi trasporre nel mondo reale. Queste sono le incertezze di cui parla Heisemberg. Non erano un concetto nuovo nemmeno ai suoi tempi. Lui le ha semplicemente evidenziate in una maniera che le rendesse rilevanti per la MQ.
Di solito, la Fisica Classica (sia la Meccanica, che l’Ottica che l’Elettromagnetismo) propongono astrazioni, idealizzazioni che possono aiutare a riflettere sulle cose. Ma se uno perde di vista il fatto che si tratti di idealizzazioni e che, in quanto tali, hanno dei limiti di validità ben definiti si trova a credere che la Fisica Classica fornisca numeri certi e che la MQ si comporti in maniera diversa perché da solo numeri probabili.
Ti faccio un altro esempio che è di natura termodinamica, quindi macroscopico per definizione. Tutti sanno che, a pressione di 1 bar, l’acqua solidifica a 0 °C. Ma c’è un semplice esperimento che puoi fare (o cercarne qualche filmato esplicativo su youtube). Se vivi in un posto in cui, durante la notte, la temperatura scende al di sotto di 0°C (diciamo -5°C) tu puoi provare a mettere fuori dalla finestra, la sera, una bottiglia di acqua oligominerale (meno sali ed impurità ci sono, più facile è che riesca l’esperimento). Durante la notte la temperatura dell’acqua scenderà, lentamente, sino a -5 °C. La mattina scoprirai che l’acqua appare ancora liquida nonostante sia al di sotto del punto di congelamento. Prendi in mano la bottiglia e l’acqua rimane liquida. Poi dai un colpetto secco con le nocche sulla superficie esterna della bottiglia e immediatamente vedrai che l’acqua liquida si trasforma in una miscela di aghetti di ghiaccio dispersi in acqua. Sembrerà quasi una gelatina. E se ne misurerai la temperatura scoprirai che ora essa è diventata esattamente 0 °C!. Solo a questa temperatura ghiaccio ed acqua possono coesistere, alla pressione di 1 bar. Vediamo di capire cosa è accaduto. E’ vero che la temperatura di congelamento dell’acqua è di 0 °C. Però è anche vero che per trasformarsi in ghiaccio le molecole devono, localmente, riarrangiarsi per produrre la sua struttura esagonale. Questo riarrangiamento richiede un dispendio di energia (che poi viene riceduto sotto forma di calore latente di solidificazione). Se raffreddi l’acqua velocemente quello che accade è che le fluttuazioni locali di temperatura hanno un contenuto energetico sufficiente a far superare alle molecole d’acqua la barriera di energia necessaria alla formazione del ghiaccio. Queste fluttuazioni le hai sempre. Non le puoi fisicamente eliminare. Anche se metti l’acqua in un termostato di precisione (ammettendo che l’errore compiuto dal termostato sia zero) non le puoi eliminare. Appena cambi la temperatura (e per raffreddare l’acqua devi farlo) accendi delle fluttuazioni. Queste fluttuazioni decadranno esponenzialmente nel tempo. Il fatto che decadano esponenzialmente implica che dopo un poco saranno veramente piccole. Ma per portarle a zero devi attendere un tempo infinito. Solo dopo un tempo infinito avrai raggiunto l’equilibrio termodinamico. La termodinamica dei processi reversibili è una teoria dell’equilibrio. Quindi devi stare attento ai suoi limiti di validità. Ed ora torniamo all’acqua liquida sotto la temperatura di congelamento. Questa rimane liquida a causa di una barriera che non riesce a superare. Si trova in quello che si chiama uno stato metastabile. Si trova in un minimo locale di energia. Non è il minimo assoluto corrispondente all’equilibrio termodinamico. Quanto tempo resterà in questo minimo locale? Praticamente impossibile prevederlo. Perché, a causa delle fluttuazioni, piccole per quanto esse siano, il sistema andrà esplorando nel tempo tutte le configurazioni possibili corrispondenti al suo contenuto energetico (entalpia). Localmente, alcuni gruppetti di molecole di acqua andranno ripetutamente infinitamente vicino al limite del bacino di metastabilità (se vuoi, la loro configurazione le porterà esattamente in cima alla barriera). E dopo ritorneranno indietro perché, trovandosi localmente ad un contenuto energetico superiore a quello delle molecole che lo circondano, scambieranno energia con queste e ricadranno verso l’attrattore costituito dal punto di equilibrio metastabile. Ora capirai che, dato il numero enorme di molecole, esiste un numero enorme di stati (configurazioni diverse della disposizione delle molecole e delle loro energie locali) che corrispondono tutti all’unico valore di energia del sistema in toto. Il punto è che tutti questi stati (il cui numero dipende dai gradi di libertà del sistema) sono equiprobabili (Boltzmann). Il che vuol dire che, se aspetti un tempo sufficiente, il sistema raggiungerà spontaneamente uno stato in cui un numero sufficientemente grande di molecole prime vicine si troverà in cima alla barriera. La fluttuazione termodinamica associata a questo gruppo di molecole sufficientemente grande sarà troppo grande perchè il sistema riesca a dissiparla velocemente. Localmente, il sistema cadrà dall’altra parte della barriera, verso il minimo di energia assoluto, e andrà a solidificare. Solidificando rilascerà il calore latente di solidificazione e si porterà ai fatidici 0 °C. Questo pezzettino di ghiaccio sarà quindi ad una temperatura superiore a quella del liquido circostante. Per cui avrai un improvviso intensificarsi delle fluttuazioni termodinamiche locali. Altri gruppi di molecole andranno a solidificarsi, con ciò che ne consegue. Tutto il sistema transiterà verso l’equilibrio in un processo a catena, in maniera coerente. Il processo si innesca in maniera apparentemente probabilistica e quando avviene lo fa in maniera caotica (in senso matematico). Ma il caos genera un comportamento coerente. Le strutture che si formano sono relativamente ordinate. Non formi delle masse incoerenti di ghiaccio. Si formano dei dendriti. Strutture ramificate, self-similari, che si divaricano, nel caso dell’acqua, ad angoli di 60°. Il perché si formino dendriti è presto detto. Il sistema cade verso lo stato stabile (stessa energia ma entropia più alta) e cerca di farlo quanto più velocemente possibile. L’unica via di fuga che consenta di raggiungere velocemente l’equilibrio è quella di aumentare quanto più possibile la superficie dell’interfaccia liquido-solido. Ecco perché si formano dei dendriti! In sostanza il sistema fugge dallo stato metastabile massimizzando il rate di produzione di entropia.
Questo risultato è decisamente contrario a quanto aveva indicato Prigogine, che invece aveva previsto un minimo nel rate di produzione di entropia. Di nuovo, non è che Prigogine avesse sbagliato del tutto. Semplicemente la sua descrizione guardava da una prospettiva un po’ troppo particolare ciò che stava accadendo nello spazio delle fasi. Una volta individuata l’approssimazione implicita nella descrizione di Prigogine, diviene quasi immediato formulare il caso generale. Un po’ quello che come hai visto accade con la formulazione di Heisemberg. Ma, in questo caso, la correzione è un tantino più drastica per cui la formulazione di Prigogine ne esce un tantino più malconcia. Ciò non significa che Prigogine avesse detto una corbelleria totale. Ha detto comunque tantissime cose interessanti e un errore di prospettiva è da considerare come un errore veniale. Soprattutto tenendo in conto del fatto che Prigogine non era un fisico.
Tornando ai dendriti, la loro struttura dipende dalle proprietà chimiche della sostanza (in questo caso dai ponti idrogeno che devono legare tra loro le varie molecole). Ma, indipendentemente dal tipo di liquido che prendi in considerazione, avrai sempre dei dendriti! Ovviamente l’acqua (o il liquido su cui sta effettuando l’esperimento) non solidifica totalmente. Dipende tutto dal calore latente che devi rilasciare (cioè dal livello energetico di partenza o, se preferisci, dalla temperatura di sottoraffreddamento). La percentuale di molecole coinvolte in strutture solide dipenderà dal valore dell’energia da rilasciare. In ogni caso tutto il campione andrà a 0°C, cioè al suo stato di equilibro corrispondente al suo contenuto energetico. Tutto questo discorso per dirti che, in un sistema macroscopico (un bicchiere d’acqua) avvengono fenomeni che non puoi prevedere esattamente. Non puoi prevedere il momento in cui il campione transirà verso lo stato stabile (perché l’esplorazione degli stati accessibili avviene in maniera erratica). E quando transisce puoi solo dire che una certa percentuale di molecole sarà coinvolta in una struttura cristallina mentre le rimanenti faranno parte di un bulk liquido. non potrai mai prevedere, ad esempio, quali molecole del liquido metastabile andranno a far parte della struttura di un dendrite. Questo non significa che il processo verso l’equilibrio non sia deterministico. E non vuol dire nemmeno che si siano perse le relazioni di causa-effetto. Vuol dire semplicemente che il processo non è più un processo lineare, che il futuro non dipende solo dallo stato attuale ma da tutta la storia che ha portato al raggiungimento di quello stato eche tu non puoi fare previsioni esatte perché non hai la conoscenza esatta di tutta una serie di valori che ti servirebbero. Di nuovo, non è che tale conoscenza ti manchi perché non sei capace di fare una misura precisa. Tali variabili non sono definibili con esattezza assoluta. Ad esempio il concetto di temperatura è un concetto di equilibrio. Quando dico che il mio campione è a -5°C dico solo che, mediamente, si trova a quella temperatura. Ma, rigorosamente, a causa delle fluttuazioni (cioè a causa di una condizione di non equilibrio) il valore della temperatura non è nemmeno definibile (da un punto di vista rigorosamente termodinamico). La temperatura è un concetto che è definito dalla Termodinamica dei Processi Reversibili. Ma tu, ora, hai a che fare con un processo fortemente irreversibile. La Termodinamica dei Processi Reversibili non è nemmeno lontanamente in grado di approssimare la situazione. Quindi non conosco il tempo di vita dello stato metastabile (perché non è a priori definibile) né conosco esattamente il valore dell’energia del sistema (dato che l’energia associata alle fluttuazioni non è esattamente definibile). Di nuovo ci troviamo dinanzi ad uno stato in cui energia e tempo sono affetti intrinsecamente da un errore che non può essere ridotto a zero (a meno di non attendere per un tempo infinito perché le fluttuazioni si estinguano). Ci piaccia o meno, siamo di nuovo di fronte al principio di incertezza. Che come vedi non ha a che vedere con il mondo quantistico. Te lo trovi dinanzi anche in un sistema macroscopico come un bicchier d’acqua.
Capisco che al momento molte delle tue domande non abbiano ancora una risposta. Però se non chiariamo prima il significato più profondo del principio di incertezza (valido in tutto il mondo reale) non credo che possiamo fare molta strada. Le tue domande non sono tanto ingenue, quindi occorre chiarire bene le premesse per poter andare avanti.
Concludendo, vorrei farti notare come la fuga dalla metastabilità abbia molte cose in comune con l’effetto tunnel. Il sistema non ha energia sufficiente a superare la barriera. Ma le incertezze intrinseche nella definizione del suo stato implicano che il sistema non possieda un’energia ben precisa. Se l’incertezza sull’energia (le fluttuazioni) è sufficiente a superare la barriera il sistema lo farà (ma non so quando) e si porterà dall’altra parte. Tutto ciò potrà avvenire ora o tra cento anni. Per cui se penso ad un’osservazione da fare in un istante ben preciso (non so, tra dieci minuti) posso solo prevedere quale sia la probabilità che il sistema sia transito o no. Di più non posso fare. Stessa cosa di ciò che avviene in MQ! Ma questa volta abbiamo a che vedere con un sistema macroscopico. Semplicemente la termodinamica di equilibrio (o se vuoi, quella dei processi reversibili) non è più applicabile. Il viaggio verso l’equilibrio è un viaggio di sola andata. Serve una Termodinamica dei Processi Irreversibili. Vedi l’analogia con il processo di misura in MQ? In definitiva, non vi è alcun conflitto. Bisogna solo porre un’attenzione estrema ai limiti di validità di una Fisica Classica che, semplificando un po’ troppo, propone modelli che descrivono idealizzazioni corrispondenti a sistemi temporalmente invertibili.
Non so quanto io sia riuscito ad essere chiaro. Da quello scrivi e dagli articoli che sembra tu sia stato in grado di leggere ho dedotto che il tuo livello di conoscenza scientifico sia abbastanza elevato. Se ho individuato correttamente il tuo livello di competenza, tutto il discorso che ti ho fatto sulla termodinamica dei sistemi metastabili devi immaginarlo come una descrizione fatta nello spazio delle fasi. Le barriere di energia di cui parlo sono ovviamente barriere di energia libera. E i minimi di energia di cui parlo sono dei minimi nella ipersuperficie n-dimensionale che descrive l’energia libera del sistema nello spazio delle fasi. Se ho sbagliato la mia valutazione del tuo livello di competenza, lascia stare queste ultime precisazioni. Se ci comprendiamo, almeno in linea generale, su ciò che, in maniera un tantino semplificata ho scritto, possiamo andare avanti comunque.
Rimane il fatto che comprendere la termodinamica che soggiace a tutta la formulazione della MQ è un compito propedeutico a quello di tentare una risposta alle altre tue domande. Prima tra tutte quella connessa a ciò che tu definisci come "derivazioni statistiche dell’equazione di Schroedinger". Qui devo dire che mi pare che tu, pur avendo compreso la matematica presente nei lavori citati, ne abbia frainteso un tantino il significato fisico. Ma qui mi fermo. Se non ci capiamo prima sul significato delle relazioni di incertezza (in generale e non solo nel mondo quantistico) e se non riusciamo ad aver chiare le idee sulle implicazioni termodinamiche è difficile riuscire ad andare avanti. L’ho già detto altre volte anche in questo forum. La Termodinamica è la Regina delle Teorie Classiche. E non solo di quelle classiche, in verità. Ed è una teoria che, a differenza delle altre teorie classiche non ti dice cosa accadrà ma cosa potrà accadere o non accadere. Questa è una differenza fondamentale tra la Termodinamica e la Meccanica (o l’Ottica, o l’Elettromagnetismo). L’irreversibilità (la freccia del tempo) compare in Termodinamica (se parliamo di teorie classiche). E la MQ ha un significato profondamente termodinamico. Per capire se la MQ sia o non sia in contrasto con le teorie classiche, dobbiamo riuscire a confrontarla con la Termodinamica. Cerco di essere chiaro: non ha molto senso confrontare le previsioni della MQ con quelle della Meccanica Classica. La Meccanica Classica è invertibile rispetto al tempo, per cui è dichiaratamente una approssimazione grossolana. La MQ invece non è invertibile rispetto al tempo (a causa di quel processo che si chiama “misura”). Quindi, quando vuoi scendere nel significato delle cose, l’unico confronto possibile è tra la MQ e la Termodinamica.
Rispondi