Lattice QCD per principianti - 8/N

Finalmente la QCD

Siamo finalmente in grado di scrivere, almeno formalmente, e con molti accorgimenti che dovrò spiegare, l'azione di QCD su reticolo. Rispetto alle due puntate precedenti, ora $U_\mu(x)$ è un elemento del gruppo $\text{SU}(3)$, cioè una matrice complessa $3 \times 3$ tale che $\det(U_\mu(x)) = 1$ e $U^\dagger_\mu(x) = U^{-1}_\mu(x)$. Il campo spinoriale $\psi(x)$ rimane un campo spinoriale, con la differenza che oltre ai $4$ indici di Dirac acquista altri $3$ indici di colore, quindi in totale su ogni sito $x$ ci ritroviamo con $12$ gradi di libertà di Grassmann. Dividiamo l'azione in una parte puramente di gauge e in una parte fermionica: possiamo scrivere $S = S_g + S_f$. Per la parte di gauge abbiamo la famosa azione di Wilson: $$ S_g = \beta \sum_{x} \sum_{\nu>\mu}\left\{ 1 - \frac{1}{3} \text{Re} \left[ \text{Tr}\,U_{\mu\nu}(x) \right] \right\} $$ in cui $\beta = 6/g^2$ (e $g$, manco devo ricordarvelo, è la costante di accoppiamento forte, bare, cioè non rinormalizzata. O se volete rinormalizzata alla scala $1/a$). Storicamente si è scelto $\beta$ come simbolo per gli ovvi collegamenti con la Meccanica Statistica.

Per la parte fermionica, in tutta generalità, possiamo scrivere: $$ S_f = \bar{\psi}M\psi \equiv \bar{\psi}_{i,\alpha, a}(x) M^{(i)}_{(\alpha,\beta),(a,b)}(x,y)\psi_{i,\beta,b}(y) $$ Qui forse c'è bisogno di qualche commento. $M$ è la matrice di accoppiamento fermionica, dipende dai campi di gauge $U_\mu(x)$ ed è estremamente sparsa (almeno nelle definizioni reticolari più comuni) perché accoppia solo siti $(x,y)$ primi vicini (o il sito al sito stesso col termine di massa). Nell'espressione precedente, a destra, tutti gli indici ripetuti si indendono sommati, inclusi $x$ e $y$. $(i)$ è l'indice di flavour, $1 \le i \le 6$. Insomma, up, down, $\dots$ top. $(\alpha,\beta)$ sono indici spinoriali, perché ovviamente dentro $M$ ci stanno pure le matrici $\gamma$. $(a,b)$ sono indici di colore.

Ora il problema è: come diavolo le simuliamo delle variabili di Grassmann? Per dare una risposta consideriamo un solo flavour e utilizziamo la formula di Matthews-Salam: $$ \int [{\cal D}\bar{\psi}][{\cal D}\psi]\,\text{e}^{-\bar{\psi}M\psi} = \text{det}M = \text{e}^{\ln\text{det}M} $$ Quindi in tutta generalità possiamo scrivere $$ S = S_g - \sum_{i}\ln\text{det}M_i $$ in cui ancora una volta $(i)$ è l'indice di sapore, e il determinante è calcolato usando tutti gli altri indici a disposizione. Il funzionale generatore diventa $$Z = \int [{\cal D}U]\,\text{e}^{-S_g + \sum_{i}\ln\text{det}M_i} $$ in cui $[{\cal D}U]$ sta per il prodotto della misura di Haar su $\text{SU}(3)$ su tutti i link del reticolo e la matrice $M$ ovviamente dipende dai campi di gauge. Il valore d'aspettazione di un generico osservabile ${\cal O}$ gauge invariante che dipende da tutti i campi sarà $$ \langle {\cal O} \rangle = \frac{1}{Z} \int [{\cal D}U]\,{\cal O}[U,\bar{\psi},\psi] \,\text{e}^{-S_g + \sum_{i}\ln\text{det}M_i} $$ In linea di principio (molto in linea di principio, lo scopriremo tra un attimo) ora siamo nelle condizioni di scrivere un bell'algoritmo di Metropolis e simulare la nostra teoria, calcolando le osservabili che ci servono. Che ne so, tipo la massa degli adroni. In linea di principio è facile, ci sono poche modifiche da fare all'algoritmo che abbiamo scritto per Ising:
  1. Scegli un link a caso (quindi un punto $x$ e una direzione $\mu$);
  2. Cambia un pochino $U_\mu(x)$ (per esempio moltiplicala per una matrice $\text{SU}(3)$ random vicina all'unità, oppure (meglio) usa l'algoritmo heath-bath di Cabibbo-Marinari;
  3. Calcola $\Delta S$ rispetto alla configurazione precedente, estrai un numero random piatto tra $0$ e $1$, confrontalo con $\exp(-\Delta S)$, eccetera; tutto va nello stesso modo (in linea di principio).
Il problema sta in "calcola $\Delta S$". Per la parte di gauge non c'è nessun problema. L'azione è locale, anzi, ultralocale: modificare un singolo link e calcolare $\Delta S_g$ comporta solo considerare il valore delle $6$ plaquette che afferiscono al link stesso ed è una cosa che si può fare (e si è fatta in lungo e in largo in passato, quando si trascuravano i fermioni dinamici: si chiama approssimazione quenched). Ma il $\ln\det M$ è un oggetto altamente non-locale, e calcolare $\Delta S_f$ in seguito al cambiamento di un solo link è una roba che richiede $O(N^3)$ operazioni, in cui $N$ è il numero di link del reticolo. Sostanzialmente infattibile, occorre cercare una strategia migliore. Tranquilli, la troveremo. Per adesso contentatevi di uno spoiler. Considerate un campo bosonico $\phi(x)$ che abbia però gli stessi gradi di libertà di $\psi(x)$, ossia $4$ indici "di spin" e $3$ indici di colore, e chiamatelo pure pseudofermione, perché è quel che si fa normalmente. Prendete in esame l'espressione $$ \int [{\cal D}\phi^\dagger][{\cal D}\phi] \text{e}^{-\phi^\dagger M \phi} = \det M^{-1} $$ Ma allora è facile: $$ \det M =  \int [{\cal D}\phi^\dagger][{\cal D}\phi] \text{e}^{-\phi^\dagger M^{-1} \phi} $$ In tutto questo stiamo implicitamente assumendo che $M$ sia definita positiva, cosa che non è vera, ma c'è una cura anche per questo. Per il momento lasciamo in sospeso le disgustose questioni numeriche, perché dobbiamo vedere prima molto altro, e i dettagli li post-poniamo: contentiamoci di sapere, come diceva il dottor "Frankenstin", che si può fare!

Una digressione perturbativa: rinormalizzazione e $\beta$-function

Mi perdonerete se torno momentaneamente al continuo, ma sono praticamente costretto a farlo. Per poter comprendere il legame tra rinormalizzazione e limite del continuo in Lattice QCD è necessario prima farsi un'idea della rinormalizzazione in generale.
Immaginiamo di calcolare una quantità fisica di QCD, $R(s)$, per esempio una sezione d'urto opportunamente normalizzata, in regolarizzazione dimensionale, quindi in $d = 4 - \varepsilon$ dimensioni. $s = 4E^2$ è la variabile di Mandelstam che mi segnala l'energia (quindi la scala) a cui sto calcolando il processo. Assumo che le masse di tutte le particelle coinvolte (quark, eventuali leptoni eccetera) siano molto più piccole di $\sqrt{s}$ e di $\mu$, dove $\mu$ è la scala di massa arbitraria che devo introdurre per assicurarmi che il coupling rimanga dimensionless anche in $d$ dimensioni: in questo modo posso trascurare le masse, cioè assumere che siano fondamentalmente uguali a zero. Facciamo il nostro conto e otteniamo una cosa del genere: $$ R(s) = A\alpha_0( 1 - b_0\alpha_0\ln(s/\mu^2) + B/\varepsilon + \cdots ) $$ in cui $A$ e $B$ sono costanti, $b_0$ è il primo coefficiente (universale) della $\beta$-function, $\alpha_0 = g^2/4\pi$ e i puntini rappresentano ordini superiori in teoria delle perturbazioni. Nel seguito li ometterò, pensando di fermarmi a un loop.

Vedete bene che se ora rimuovo senza precauzioni il regolatore, cioè mando $\varepsilon \to 0$, ottengo una divergenza, quindi una quantità infinita per una grandezza fisica che dovrebbe avere un valore finito e ben definito. Tutto questo non va bene. Avrete sicuramente sentito dire che "rinormalizzare" una teoria significa nascondere la polvere sotto al tappeto, ossia infilare le divergenze nei parametri nudi, o bare, della teoria. Ed ecco come si fa. Misurate sperimentalmente la vostra quantità fisica a una certa scala $s_0$. Sia $\bar{R}(s_0)$ il risultato che ottenete. Sarà un numerello (siete stati abbastanza furbi da definire originariamente $R$ in modo tale che sia un numero adimensionale).

Ora decidete, con mossa azzardata ma felice, che la scala arbitraria $\mu$ che avete introdotto nella regolarizzazione dimensionale sia proprio $\mu^2 = s_0$, e imponete che la quantità che avete appena misurato sperimentalmente definisca $\alpha_R(s_0)$, ossia la costante d'accoppiamento rinormalizzata (per questo il sottoscritto $R$) alla scala $s_0$: $$ \bar{R}(s_0) = A\alpha_R $$. Ma ricordate che noi $R(s_0)$ l'abbiamo anche calcolata, e otteniamo, considerando che $\mu^2 = s_0$, $$ R(s_0) = A\alpha_0( 1 + B / \varepsilon ) = A\alpha_R $$ (l'ultimo passaggio è per definizione). Invertendo l'ultima relazione ottengo $$ \alpha_0 = \alpha_R(1 - B / \varepsilon) $$ ed ecco la divergenza della costante bare, perché $\alpha_R$ è un numerello finito. E alla fine riesco pure a ottenere $$ R(s) = A\alpha_R[ 1 - b_0\alpha_R\ln(s/s_0) ] $$ e dunque un risultato finito e perfettamente definito. Il costo di questa operazione è stato quello di spendere un input fisico, e cioè di definire la costante d'accoppiamento $\alpha_R(s_0)$ a partire da un risultato sperimentale. Da qui in poi tutto il resto è predizione. Resta solo da rispondere a un'obiezione che sorge spontanea: ma alla fine $\mu$, e quindi $s_0$, è una scala totalmente arbitraria. La fisica non può dipendere da come decidiamo noi una scala arbitraria. E infatti: quel che succede è che ridefinire $\mu$, quindi $s_0$, comporta una ridefinizione di $\alpha_R$, e questa ridefinizione è tale per cui le quantità fisiche rimangono le stesse. Questa è l'idea di base del Gruppo di Rinormalizzazione: la $\beta$-function della teoria $$ \beta(\alpha) = \mu \frac{\partial \alpha}{\partial \mu} $$ dice come deve variare $\alpha(\mu)$ al variare di $\mu$ affinché la fisica rimanga costante.

Commenti

Post popolari in questo blog

Lattice QCD per principianti - 1/N

Lattice QCD per principianti, 12/N

Un nuovo problema