Renormalizacja
Renormalizacja i regularyzacja |
---|
Kwantowa teoria pola |
---|
Historia |
Renormalizacja to zbiór technik kwantowej teorii pola , mechaniki statystycznej pól i teorii samopodobnych struktur geometrycznych, które są używane do leczenia nieskończoności pojawiających się w obliczonych wielkościach poprzez zmianę wartości tych wielkości w celu skompensowania efektów ich własnych -interakcje . Ale nawet gdyby na diagramach pętlowych w kwantowej teorii pola nie powstawały nieskończoności , można by wykazać, że konieczna byłaby renormalizacja masy i pól występujących w pierwotnym Lagrange'a .
Na przykład teoria elektronów może rozpocząć się od postulowania elektronu o początkowej masie i ładunku. W kwantowej teorii pola chmura cząstek wirtualnych , takich jak fotony , pozytony i inne, otacza początkowy elektron i oddziałuje z nim. Uwzględnienie oddziaływań otaczających cząstek (np. zderzeń przy różnych energiach) pokazuje, że układ elektronowy zachowuje się tak, jakby miał inną masę i ładunek niż początkowo postulowano. W tym przykładzie renormalizacja matematycznie zastępuje początkowo postulowaną masę i ładunek elektronu masą i ładunkiem obserwowanymi eksperymentalnie. Matematyka i eksperymenty dowodzą, że pozytony i bardziej masywne cząstki lubią protony wykazują dokładnie taki sam zaobserwowany ładunek jak elektron – nawet w obecności znacznie silniejszych oddziaływań i intensywniejszych chmur cząstek wirtualnych.
Renormalizacja określa relacje między parametrami w teorii, gdy parametry opisujące skale dużych odległości różnią się od parametrów opisujących skale małych odległości. Fizycznie, spiętrzenie wkładów z nieskończoności skal zaangażowanych w problem może następnie skutkować dalszymi nieskończonościami. Opisując czasoprzestrzeń jako kontinuum, pewne konstrukcje statystyczne i mechaniki kwantowej nie są dobrze zdefiniowane . Aby je zdefiniować lub uczynić je jednoznacznymi, granica kontinuum muszą ostrożnie usuwać „rusztowania konstrukcyjne” krat w różnej skali. Procedury renormalizacji opierają się na wymaganiu, aby pewne wielkości fizyczne (takie jak masa i ładunek elektronu) były równe obserwowanym (eksperymentalnym) wartościom. Oznacza to, że wartość eksperymentalna wielkości fizycznej daje praktyczne zastosowania, ale ze względu na swój empiryczny charakter obserwowany pomiar reprezentuje obszary kwantowej teorii pola, które wymagają głębszego wyprowadzenia z podstaw teoretycznych.
Renormalizację po raz pierwszy opracowano w elektrodynamice kwantowej (QED), aby nadać sens całekom nieskończonym w teorii zaburzeń . Początkowo postrzegana jako podejrzana procedura tymczasowa nawet przez niektórych jej twórców, renormalizacja została ostatecznie przyjęta jako ważny i samospójny rzeczywisty mechanizm fizyki skali w kilku dziedzinach fizyki i matematyki .
Dzisiaj punkt widzenia się zmienił: na podstawie przełomowych spostrzeżeń grupy renormalizacji Nikolaya Bogolyubova i Kennetha Wilsona skupiono się na zmienności wielkości fizycznych w ciągłych skalach, podczas gdy odległe skale są powiązane ze sobą za pomocą „efektywnych” opisów . Wszystkie skale są połączone w ogólnie systematyczny sposób, a rzeczywista fizyka odnosząca się do każdej z nich jest wydobywana za pomocą odpowiednich technik obliczeniowych odpowiednich dla każdej z nich. Wilson wyjaśnił, które zmienne systemu są kluczowe, a które są zbędne.
Renormalizacja różni się od regularyzacji , innej techniki kontrolowania nieskończoności poprzez założenie istnienia nowej nieznanej fizyki w nowych skalach.
Oddziaływania własne w fizyce klasycznej
Problem nieskończoności pojawił się po raz pierwszy w klasycznej elektrodynamice cząstek punktowych w XIX i na początku XX wieku.
Masa naładowanej cząstki powinna zawierać masę-energię w jej polu elektrostatycznym ( masa elektromagnetyczna ). Załóżmy, że cząstka jest naładowaną kulistą powłoką o promieniu r e . Energia masy w polu wynosi
która staje się nieskończona jako r mi → 0 . Oznacza to, że cząstka punktowa miałaby nieskończoną bezwładność , a zatem nie można jej przyspieszać. Nawiasem mówiąc, wartość r mi która czyni równą masie elektronu elektronu , ( i czynniki c i ) okazuje się
gdzie jest stałą subtelnej struktury { jest zredukowaną długością fali Comptona elektronu.
Renormalizacja: Całkowita efektywna masa sferycznej naładowanej cząstki obejmuje rzeczywistą masę kulistej powłoki (oprócz wspomnianej powyżej masy związanej z jej polem elektrycznym). Jeśli dopuszcza się, aby sama masa skorupy była ujemna, możliwe byłoby przyjęcie spójnej granicy punktowej. [ potrzebne źródło ] Nazywało się to renormalizacją , a Lorentz i Abraham próbowali w ten sposób rozwinąć klasyczną teorię elektronu. Ta wczesna praca była inspiracją dla późniejszych prób uregulowania i renormalizacja w kwantowej teorii pola.
(Zobacz także regularyzację (fizyka) , aby znaleźć alternatywny sposób usunięcia nieskończoności z tego klasycznego problemu, zakładając, że nowa fizyka istnieje w małych skalach.)
Podczas obliczania oddziaływań elektromagnetycznych naładowanych cząstek kuszące jest zignorowanie reakcji wstecznej własnego pola cząstki na nią samą. (Analogicznie do wstecznego pola elektromagnetycznego w analizie obwodów.) Ale ta reakcja wsteczna jest konieczna do wyjaśnienia tarcia na naładowanych cząstkach, kiedy emitują one promieniowanie. Jeśli przyjmuje się, że elektron jest punktem, wartość reakcji wstecznej jest rozbieżna, z tego samego powodu, dla którego rozbieżna jest masa, ponieważ pole jest odwrotnością kwadratu .
Abrahama -Lorentza miała nieprzyczynowe „przedprzyspieszenie”. Czasami elektron zacząłby się poruszać przed przyłożeniem siły. To znak, że limit punktów jest niespójny.
Problem był większy w klasycznej teorii pola niż w kwantowej teorii pola, ponieważ w kwantowej teorii pola naładowana cząstka doświadcza Zitterbewegung z powodu interferencji z wirtualnymi parami cząstka-antycząstka, skutecznie rozmywając w ten sposób ładunek w obszarze porównywalnym z długością fali Comptona. W elektrodynamice kwantowej przy małym sprzężeniu masa elektromagnetyczna odchyla się tylko jako logarytm promienia cząstki.
Rozbieżności w elektrodynamice kwantowej
Podczas opracowywania elektrodynamiki kwantowej w latach trzydziestych XX wieku Max Born , Werner Heisenberg , Pascual Jordan i Paul Dirac odkryli, że w poprawkach perturbacyjnych wiele całek było rozbieżnych (patrz Problem nieskończoności ).
Jeden ze sposobów opisu rozbieżności korekcji teorii perturbacji został odkryty w latach 1947–49 przez Hansa Kramersa , Hansa Bethe , Juliana Schwingera , Richarda Feynmana i Shin'ichiro Tomonagę i usystematyzowany przez Freemana Dysona w 1949 r. Rozbieżności pojawiają się w poprawkach radiacyjnych obejmujących Diagramy Feynmana z zamkniętymi pętlami cząstek wirtualnych .
Chociaż cząstki wirtualne przestrzegają zasady zachowania energii i pędu , mogą mieć dowolną energię i pęd, nawet taką, na nie pozwala relatywistyczna relacja energia-pęd dla obserwowanej masy tej cząstki (to znaczy mi niekoniecznie jest kwadratem masy cząstki w tym procesie, np. dla fotonu może być różna od zera). Taka cząsteczka nazywana jest poza powłoką . Kiedy występuje pętla, pęd cząstek biorących udział w pętli nie jest jednoznacznie określony przez energie i pędy wchodzących i wychodzących cząstek. Zmiana energii jednej cząstki w pętli może być zrównoważona przez równą i przeciwną zmianę energii innej cząstki w pętli, bez wpływu na przychodzące i wychodzące cząstki. Możliwych jest więc wiele wariantów. Aby więc znaleźć amplitudę dla procesu pętli, należy scałkować wszystkie możliwe kombinacje energii i pędu, które mogą przemieszczać się po pętli.
Te całki są często rozbieżne , to znaczy dają nieskończone odpowiedzi. Rozbieżności, które są znaczące, to rozbieżności „ ultrafioletowe ” (UV). Dywergencję ultrafioletową można opisać jako pochodzącą z
- obszar w całce, w którym wszystkie cząstki w pętli mają duże energie i pędy,
- fluktuacje pól o bardzo krótkich długościach fal i wysokich częstotliwościach , w całce ścieżki dla pola,
- bardzo krótki czas właściwy między emisją a absorpcją cząstek, jeśli pętla jest traktowana jako suma dróg cząstek.
Tak więc te rozbieżności są zjawiskami krótkodystansowymi i krótkotrwałymi.
Pokazane na zdjęciach na prawym marginesie, w elektrodynamice kwantowej istnieją dokładnie trzy rozbieżne schematy pętli z jedną pętlą:
- (a) Foton tworzy wirtualną parę elektron– pozyton , która następnie anihiluje. To jest polaryzacji próżni .
- (b) Elektron szybko emituje i ponownie absorbuje wirtualny foton, zwany energią własną .
- (c) Elektron emituje foton, emituje drugi foton i ponownie absorbuje pierwszy. Ten proces jest pokazany w poniższej sekcji na rysunku 2 i nosi nazwę renormalizacji wierzchołków . Diagram Feynmana do tego jest również nazywany „ diagramem pingwina ” ze względu na swój kształt przypominający zdalnie pingwina.
Trzy rozbieżności odpowiadają trzem parametrom w rozważanej teorii:
- Normalizacja pola Z.
- Masa elektronu.
- Ładunek elektronu.
Druga klasa dywergencji, zwana dywergencją w podczerwieni , jest spowodowana cząstkami bezmasowymi, takimi jak foton. Każdy proces z udziałem naładowanych cząstek emituje nieskończenie wiele spójnych fotonów o nieskończonej długości fali, a amplituda emisji dowolnej skończonej liczby fotonów wynosi zero. W przypadku fotonów te rozbieżności są dobrze znane. Na przykład w kolejności 1 pętli funkcja wierzchołka ma zarówno ultrafiolet, jak i podczerwień rozbieżności. W przeciwieństwie do dywergencji ultrafioletowej, dywergencja w podczerwieni nie wymaga renormalizacji parametru w danej teorii. Rozbieżność w podczerwieni z diagramu wierzchołków jest usuwana przez włączenie diagramu podobnego do diagramu wierzchołków z następującą istotną różnicą: foton łączący dwie nogi elektronu jest odcinany i zastępowany przez dwa fotony na powłoce (tj. rzeczywiste), których długości fal mają tendencję do nieskończoności; ten schemat jest odpowiednikiem bremsstrahlung proces. Ten dodatkowy diagram musi zostać uwzględniony, ponieważ nie ma fizycznego sposobu na rozróżnienie fotonu o zerowej energii przepływającego przez pętlę, jak na diagramie wierzchołków, i fotonów o zerowej energii emitowanych przez bremsstrahlung . Z matematycznego punktu widzenia rozbieżności IR można uregulować, zakładając różniczkowalność ułamkową względem parametru, na przykład:
jest dobrze określony przy p = a, ale jest rozbieżny w UV; jeśli weźmiemy 3 ⁄ 2 -tą pochodną ułamkową względem − a 2 , otrzymamy rozbieżność IR
więc możemy leczyć rozbieżności IR, zamieniając je w rozbieżności UV. [ wymagane wyjaśnienie ]
Rozbieżność pętli
Diagram na rycinie 2 pokazuje jeden z kilku wkładów jednej pętli w rozpraszanie elektron-elektron w QED. Elektron po lewej stronie diagramu, reprezentowany przez linię ciągłą, zaczyna od 4-pędowego p μ i kończy 4-pędowy r μ . Emituje wirtualny foton przenoszący r μ - p μ , aby przekazać energię i pęd drugiemu elektronowi. Ale na tym diagramie, zanim to nastąpi, emituje kolejny wirtualny foton niosący 4-pędowy q μ , i ponownie absorbuje ten po wyemitowaniu drugiego wirtualnego fotonu. Zachowanie energii i pędu nie określa jednoznacznie 4-pędu q μ , więc wszystkie możliwości mają równy wkład i musimy je zintegrować.
Amplituda tego diagramu kończy się między innymi czynnikiem z pętli
Różne czynniki γ μ w tym wyrażeniu są macierzami gamma, jak w kowariantnym sformułowaniu równania Diraca ; mają one związek ze spinem elektronu. Czynniki e to stała sprzężenia elektrycznego, podczas gdy definicję konturu całkowania wokół biegunów w przestrzeni pędów Ważną częścią dla naszych celów jest zależność od q μ trzech dużych czynników w całce, które pochodzą z propagatory dwóch linii elektronowych i linii fotonowej w pętli.
Ma to figurę z dwiema potęgami q μ na górze, która dominuje przy dużych wartościach q μ (Pokorski 1987, s. 122):
Ta całka jest rozbieżna i nieskończona, chyba że w jakiś sposób odetniemy ją przy skończonej energii i pędzie.
Podobne rozbieżności pętli występują w innych kwantowych teoriach pola.
Ilości renormalizowane i nagie
Rozwiązaniem było uświadomienie sobie, że wielkości początkowo pojawiające się we wzorach teorii (takich jak wzór na Lagrange'a ) , reprezentujące takie rzeczy, jak ładunek elektryczny i masa elektronu , jak również normalizacje samych pól kwantowych, w rzeczywistości nie odpowiadały do stałych fizycznych mierzonych w laboratorium. Jak napisano, były to same wielkości, które nie uwzględniały wpływu efektów pętli cząstek wirtualnych na same stałe fizyczne . Efekty te obejmowałyby między innymi kwantowy odpowiednik elektromagnetycznej reakcji wstecznej, która tak irytowała klasycznych teoretyków elektromagnetyzmu. Ogólnie rzecz biorąc, efekty te byłyby tak samo rozbieżne, jak rozpatrywane amplitudy; więc skończone mierzone wielkości generalnie implikowałyby rozbieżne gołe wielkości.
Aby więc nawiązać kontakt z rzeczywistością, formuły musiałyby zostać przepisane w kategoriach mierzalnych, renormalizowanych wielkości. Powiedzmy, że ładunek elektronu byłby zdefiniowany jako wielkość mierzona w określonym punkcie renormalizacji kinematycznej lub punkcie odejmowania (który generalnie będzie miał charakterystyczną energię, zwaną skalą renormalizacji lub po prostu skalą energii ). Pozostałe części Lagrange'a, obejmujące pozostałe części nagich ilości, można następnie ponownie zinterpretować jako kontrwarunki , zaangażowane w rozbieżne diagramy dokładnie eliminujące kłopotliwe rozbieżności dla innych diagramów.
Renormalizacja w QED
Na przykład w Lagrange'a QED
pola i stała sprzężenia są naprawdę pustymi wielkościami, stąd indeks dolny B powyżej. Konwencjonalnie gołe ilości są zapisywane w taki sposób, że odpowiadające im terminy Lagrange'a są wielokrotnościami renormalizowanych:
, że niezmienność miernika , poprzez tożsamość Warda-Takahashiego , sugeruje, że możemy ponownie znormalizować dwa wyrazy kowariantnej części pochodnej
razem (Pokorski 1987, s. 115), co spotkało Z 2 ; jest taki sam jak Z 1 .
Następnie można zapisać termin w tym Lagrange'u, na przykład interakcję elektron-foton przedstawioną na rycinie 1
Stałą fizyczną e , ładunek elektronu, można więc zdefiniować w kategoriach jakiegoś konkretnego eksperymentu: ustawiamy skalę renormalizacji równą charakterystyce energetycznej tego eksperymentu, a pierwszy człon daje interakcję, którą obserwujemy w laboratorium (do małych , skończone poprawki z diagramów pętlowych, dostarczając takich egzotyki, jak poprawki wyższego rzędu do momentu magnetycznego ). Reszta to kontrargument. Jeśli teoria jest renormalizowalna (więcej informacji na ten temat poniżej), tak jak w QED, rozbieżność wszystkie części diagramów pętlowych można rozłożyć na części z trzema lub mniej nogami, z formą algebraiczną, którą można skasować przez drugi wyraz (lub przez podobne kontratermy, które pochodzą z Z i 0 Z 3 ) .
Diagram z wierzchołkiem interakcji kontratermu Z 1 umieszczonym jak na rysunku 3 niweluje rozbieżność z pętli na rysunku 2.
Historycznie rzecz biorąc, podział „nagich warunków” na pierwotne warunki i kontrwarunki nastąpił przed wglądem grupy renormalizacji dzięki Kennethowi Wilsonowi . Według takich grupy renormalizacji , wyszczególnionych w następnej sekcji, to rozszczepienie jest nienaturalne i właściwie niefizyczne, ponieważ wszystkie skale problemu wchodzą w ciągły systematyczny sposób.
Sprzęgła biegowe
Aby zminimalizować wkład diagramów pętli w dane obliczenia (a tym samym ułatwić wyodrębnienie wyników), wybiera się punkt renormalizacji bliski energii i pędów wymienianych w interakcji. Jednak punkt renormalizacji sam w sobie nie jest wielkością fizyczną: fizyczne przewidywania teorii, obliczone dla wszystkich rzędów, powinny w zasadzie być niezależne wyboru punktu renormalizacji, o ile mieści się on w domenie zastosowania teorii. Zmiany skali renormalizacji po prostu wpłyną na to, ile wyniku pochodzi z diagramów Feynmana bez pętli, a ile z pozostałych skończonych części diagramów pętlowych. Można wykorzystać ten fakt do obliczenia efektywnej zmiany stałych fizycznych wraz ze zmianami skali. Ta odmiana jest kodowana przez funkcje beta , a ogólna teoria tego rodzaju zależności od skali jest znana jako grupa renormalizacji .
Potocznie fizycy cząstek elementarnych często mówią o pewnych „stałych” fizycznych jako zmieniających się wraz z energią interakcji, chociaż w rzeczywistości to skala renormalizacji jest wielkością niezależną. Ten przebieg zapewnia jednak wygodny sposób opisywania zmian w zachowaniu teorii pola pod wpływem zmian energii zaangażowanych w interakcję. Na przykład, ponieważ sprzężenie w chromodynamice kwantowej staje się małe przy dużych skalach energii, teoria zachowuje się bardziej jak teoria swobodna, ponieważ energia wymieniana w interakcji staje się duża – zjawisko znane jako swoboda asymptotyczna . Wybór rosnącej skali energii i użycie grupy renormalizacji wyjaśnia to na podstawie prostych diagramów Feynmana; gdyby tego nie zrobiono, prognoza byłaby taka sama, ale wynikałaby ze skomplikowanych odwołań wysokiego rzędu.
Na przykład,
jest źle zdefiniowany.
Aby wyeliminować rozbieżność, po prostu zamień dolną granicę całki na ε a i ε b :
Upewniając się, że ε b / ε a → 1 , to ja = ln a / b .
Regularyzacja
Ponieważ wielkość ∞ − ∞ jest źle zdefiniowana, aby uściślić pojęcie znoszenia rozbieżności, należy je najpierw poskromić matematycznie za pomocą teorii granic w procesie znanym jako regularyzacja (Weinberg, 1995).
Zasadniczo dowolna modyfikacja całek pętli lub regulatora może spowodować ich szybsze opadanie przy wysokich energiach i pędach, w taki sposób, że całki zbiegają się. Regulator ma charakterystyczną skalę energetyczną zwaną odcięciem ; sprowadzenie tego odcięcia do nieskończoności (lub, równoważnie, odpowiedniej skali długości / czasu do zera) odzyskuje oryginalne całki.
Gdy regulator jest na miejscu i skończona wartość odcięcia, rozbieżne wyrazy w całekach zamieniają się następnie w wyrazy skończone, ale zależne od odcięcia. Po anulowaniu tych warunków za pomocą wkładów kontrwarunków zależnych od odcięcia, odcięcie zostaje doprowadzone do nieskończoności i odzyskane skończone wyniki fizyczne. Jeśli fizyka w skalach, które możemy zmierzyć, jest niezależna od tego, co dzieje się w najkrótszej skali odległości i czasu, to powinno być możliwe uzyskanie wyników obliczeń niezależnych od punktu odcięcia.
W obliczeniach kwantowej teorii pola stosuje się wiele różnych typów regulatorów, z których każdy ma swoje zalety i wady. Jednym z najpopularniejszych we współczesnym zastosowaniu jest regularyzacja wymiarowa , wynaleziona przez Gerardusa 't Hoofta i Martinusa JG Veltmana , która ujarzmia całki, przenosząc je do przestrzeni o fikcyjnej ułamkowej liczbie wymiarów. Innym jest regularyzacja Pauliego – Villarsa , która dodaje do teorii fikcyjne cząstki o bardzo dużych masach, tak że całki pętli obejmujące masywne cząstki znoszą istniejące pętle przy dużych momentach.
Jeszcze innym schematem regularyzacji jest regularyzacja sieci , wprowadzona przez Kennetha Wilsona , który udaje, że sieć hipersześcienna konstruuje naszą czasoprzestrzeń ze stałym rozmiarem siatki. Ten rozmiar jest naturalnym odcięciem maksymalnego pędu, jaki może posiadać cząstka podczas propagacji w siatce. A po wykonaniu obliczeń na kilku siatkach o różnych rozmiarach siatki, wynik fizyczny jest ekstrapolowany do rozmiaru siatki 0, czyli naszego naturalnego wszechświata. Zakłada to istnienie granicy skalowania .
Rygorystycznym podejściem matematycznym do teorii renormalizacji jest tak zwana teoria perturbacji przyczynowych , w której od początku unika się rozbieżności w ultrafiolecie w obliczeniach, wykonując dobrze zdefiniowane operacje matematyczne tylko w ramach teorii dystrybucji . W tym podejściu rozbieżności są zastępowane przez niejednoznaczność: diagramowi rozbieżnemu odpowiada termin, który ma teraz skończony, ale nieokreślony współczynnik. Następnie należy zastosować inne zasady, takie jak symetria cechowania, w celu zmniejszenia lub wyeliminowania niejednoznaczności.
Regularyzacja funkcji Zeta
Julian Schwinger odkrył związek [ potrzebne źródło ] między regularyzacją funkcji zeta a renormalizacją, używając relacji asymptotycznej:
jako regulator Λ → ∞ . Na tej podstawie rozważał użycie wartości ζ (− n ) w celu uzyskania skończonych wyników. Chociaż osiągnął niespójne wyniki, udoskonalona formuła badana przez Hartle'a , J. Garcia i oparta na pracach E. Elizalde obejmuje technikę algorytmu regularyzacji zeta
gdzie B to liczby Bernoulliego i
Zatem każde I ( m , Λ) można zapisać jako kombinację liniową ζ (−1), ζ (−3), ζ (−5), ..., ζ (− m ) .
Lub po prostu używając wzoru Abela-Plany, który mamy dla każdej całki rozbieżnej:
obowiązuje, gdy m > 0 . Tutaj funkcją zeta jest funkcja zeta Hurwitza , a Beta jest dodatnią liczbą rzeczywistą.
Analogia „geometryczna” jest dana przez (jeśli użyjemy metody prostokątnej ) do obliczenia całki, więc:
Używając regularyzacji zeta Hurwitza plus metody prostokąta z krokiem h (nie mylić ze stałą Plancka ).
Logarytmiczna całka rozbieżna ma regularyzację
ponieważ dla szeregu harmonicznego w granicy musimy odzyskać serię
W przypadku całek wielopętlowych, które będą zależeć od kilku zmiennych, zmiennych na współrzędne biegunowe, kąty przez rozbieżną, która będzie zależała od modułu a następnie możemy zastosować algorytm regularyzacji zeta, główną ideą całek wielopętlowych jest czynnik po zmianie na współrzędne się ( r , zakodowany w zmiennej r . W celu uregulowania tych całek potrzebny jest regulator, w przypadku całek wielopętlowych regulator ten można przyjąć jako
więc całka wielopętlowa będzie zbieżna dla wystarczająco dużych s , używając regularyzacji Zeta, możemy analitycznie kontynuować zmienną s do fizycznej granicy, gdzie s = 0 , a następnie uregulować dowolną całkę UV, zastępując całkę rozbieżną liniową kombinacją rozbieżnych szeregów , które można uregulować w kategoriach ujemnych wartości funkcji zeta Riemanna ζ (− m ) .
Postawy i interpretacja
Wcześni twórcy QED i innych kwantowych teorii pola byli z reguły niezadowoleni z takiego stanu rzeczy. Robienie czegoś równoznacznego z odejmowaniem nieskończoności od nieskończoności w celu uzyskania skończonych odpowiedzi wydawało się nieuzasadnione.
Freeman Dyson argumentował, że te nieskończoności mają charakter podstawowy i nie można ich wyeliminować żadnymi formalnymi procedurami matematycznymi, takimi jak metoda renormalizacji.
Diraca była najbardziej uporczywa. Jeszcze w 1975 roku mówił:
- Większość fizyków jest bardzo zadowolona z tej sytuacji. Mówią: „Elektrodynamika kwantowa to dobra teoria i nie musimy się już nią martwić”. Muszę powiedzieć, że jestem bardzo niezadowolony z sytuacji, ponieważ ta tak zwana „dobra teoria” polega na pomijaniu nieskończoności, które pojawiają się w jej równaniach, na arbitralnym ich ignorowaniu. To po prostu nie jest sensowna matematyka. Rozsądna matematyka polega na lekceważeniu wielkości, gdy jest mała – a nie lekceważeniu jej tylko dlatego, że jest nieskończenie wielka, a ty jej nie chcesz!
Innym ważnym krytykiem był Feynman . Pomimo swojej kluczowej roli w rozwoju elektrodynamiki kwantowej, w 1985 roku napisał:
- Gra w powłoki, w którą gramy, jest technicznie nazywana „renormalizacją”. Ale bez względu na to, jak sprytne jest to słowo, nadal jest to coś, co nazwałbym procesem zanurzenia! Konieczność uciekania się do takich hokus-pokus uniemożliwiła nam udowodnienie, że teoria elektrodynamiki kwantowej jest matematycznie samospójna. To zaskakujące, że do tej pory teoria ta nie została jeszcze udowodniona w taki czy inny sposób; Podejrzewam, że renormalizacja nie jest matematycznie uzasadniona.
Feynman obawiał się, że wszystkie teorie pola znane w latach sześćdziesiątych miały tę właściwość, że interakcje stawały się nieskończenie silne w wystarczająco krótkich skalach odległości. Ta właściwość, zwana biegunem Landaua , uwiarygodniła, że wszystkie kwantowe teorie pola są niespójne. W 1974 Gross , Politzer i Wilczek wykazali, że inna kwantowa teoria pola, chromodynamika kwantowa , nie ma bieguna Landaua. Feynman, wraz z większością innych, zaakceptował, że QCD jest w pełni spójną teorią. [ potrzebne źródło ]
Ogólny niepokój był niemal powszechny w tekstach do lat 70. i 80. XX wieku. Jednak począwszy od lat 70. XX wieku, zainspirowany pracami nad grupą renormalizacyjną i efektywną teorią pola , i pomimo faktu, że Dirac i wielu innych – z których wszyscy należeli do starszego pokolenia – nigdy nie wycofali się ze swojej krytyki, postawy zaczęły się zmieniać, zwłaszcza wśród młodsi teoretycy. Kenneth G. Wilson i inni wykazali, że grupa renormalizacji jest przydatna w statystycznej teorii pola stosowanej w fizyce materii skondensowanej , gdzie dostarcza ważnych informacji na temat zachowania przejść fazowych . W fizyce materii skondensowanej fizyczny regulator krótkiego zasięgu: materia przestaje być ciągła w skali atomowej . Rozbieżności krótkodystansowe w fizyce materii skondensowanej nie stanowią problemu filozoficznego, ponieważ teoria pola jest i tak tylko skuteczną, wygładzoną reprezentacją zachowania materii; nie ma nieskończoności, ponieważ odcięcie jest zawsze skończone i ma sens, że same ilości są zależne od odcięcia.
Jeśli QFT utrzymuje się aż poza długość Plancka (gdzie może ulec teorii strun , teorii mnogości przyczynowej lub czemuś innemu), to może nie być prawdziwego problemu z rozbieżnościami na krótkich odległościach w fizyce cząstek elementarnych ; wszystkie teorie pola mogłyby być po prostu efektywnymi teoriami pola. W pewnym sensie podejście to odzwierciedla starszą postawę, że rozbieżności w QFT mówią o ludzkiej ignorancji na temat działania przyrody, ale także uznaje, że tę ignorancję można określić ilościowo i że wynikające z niej skuteczne teorie pozostają użyteczne.
Tak czy inaczej, uwaga Salama z 1972 roku wydaje się wciąż aktualna
- Teoretyczne nieskończoności pola – po raz pierwszy napotkane podczas obliczeń masy własnej elektronu przez Lorentza – istnieją w elektrodynamice klasycznej od siedemdziesięciu lat, aw elektrodynamice kwantowej od około trzydziestu pięciu lat. Te długie lata frustracji pozostawiły w fotografowanym osobliwe przywiązanie do nieskończoności i żarliwe przekonanie, że są one nieuniknioną częścią natury; do tego stopnia, że nawet sugestia nadziei, że mimo wszystko można je obejść — i obliczenie skończonych wartości stałych renormalizacji — jest uważana za irracjonalną. Porównaj Russella z trzecim tomem jego autobiografii Ostatnie lata 1944–1969 (George Allen and Unwin, Ltd., Londyn 1969), s. 221:
- We współczesnym świecie, jeśli społeczności są nieszczęśliwe, to często dlatego, że mają ignorancje, nawyki, przekonania i namiętności, które są im droższe niż szczęście, a nawet życie. Spotykam wielu mężczyzn w naszym niebezpiecznym wieku, którzy wydają się być zakochani w nędzy i śmierci i którzy wpadają w złość, gdy podsuwa się im nadzieje. Myślą, że nadzieja jest irracjonalna i że siadając do leniwej rozpaczy, po prostu mierzą się z faktami.
W QFT wartość stałej fizycznej na ogół zależy od skali, którą wybiera się jako punkt renormalizacji, i bardzo interesujące staje się zbadanie przebiegu stałych fizycznych w grupie renormalizacji przy zmianach skali energii. Stałe sprzężenia w Modelu Standardowym fizyki cząstek elementarnych zmieniają się na różne sposoby wraz ze wzrostem skali energii: sprzężenie chromodynamiki kwantowej i słabe sprzężenie izospinowe siły elektrosłabej ma tendencję do zmniejszania się, a sprzężenie słabego przeładowania siły elektrosłabej ma tendencję do wzrostu. W kolosalnej skali energetycznej 10 15 GeV (daleko poza zasięgiem naszych obecnych akceleratorów cząstek ), wszystkie osiągają mniej więcej ten sam rozmiar (Grotz i Klapdor 1990, s. 254), co jest główną motywacją do spekulacji na temat teorii wielkiej unifikacji . Zamiast być tylko niepokojącym problemem, renormalizacja stała się ważnym narzędziem teoretycznym do badania zachowania teorii pola w różnych reżimach.
Jeśli teorię uwzględniającą renormalizację (np. QED) można rozsądnie interpretować jedynie jako efektywną teorię pola, tj. jako przybliżenie odzwierciedlające ludzką ignorancję na temat działania przyrody, to pozostaje problem odkrycia dokładniejszej teorii, która nie ma tych problemów z renormalizacją . Jak ujął to Lewis Ryder: „W teorii kwantowej te [klasyczne] rozbieżności nie znikają, wręcz przeciwnie, wydają się pogłębiać. I pomimo względnego sukcesu teorii renormalizacji, pozostaje poczucie, że powinno istnieć bardziej satysfakcjonujący sposób robienia rzeczy”.
Renormalizowalność
Z tej filozoficznej ponownej oceny wynika naturalnie nowa koncepcja: pojęcie renormalizowalności. Nie wszystkie teorie nadają się do renormalizacji w sposób opisany powyżej, przy skończonej podaży kontrwarunków i wszystkich wielkościach, które stają się niezależne od odcięcia na końcu obliczeń. Jeśli Lagrange'a zawiera kombinacje operatorów pola o wystarczająco wysokim wymiarze w jednostkach energii kontrwarunki wymagane do anulowania wszystkich rozbieżności mnożą się do nieskończonej liczby i na pierwszy rzut oka wydaje się, że teoria zyskuje nieskończoną liczbę wolnych parametrów, a tym samym traci wszelką moc predykcyjną, stając się naukowo bezwartościową. Teorie takie nazywane są nierenormalizowalnymi .
Model standardowy fizyki cząstek elementarnych zawiera tylko operatory renormalizowalne, ale interakcje ogólnej teorii względności stają się operatorami nierenormalizowalnymi, jeśli spróbuje się skonstruować teorię pola grawitacji kwantowej w najprostszy sposób (traktując metrykę w Lagrangianie Einsteina-Hilberta jako zaburzenie o metryka Minkowskiego ), co sugeruje, że teoria zaburzeń nie jest zadowalająca w zastosowaniu do grawitacji kwantowej.
Jednak w efektywnej teorii pola „renormalizowalność” jest, ściśle mówiąc, nazwą błędną . W nierenormalizowalnej efektywnej teorii pola, wyrazy w Lagrange'u mnożą się do nieskończoności, ale mają współczynniki tłumione przez coraz bardziej ekstremalne odwrotne potęgi odcięcia energii. Jeśli granica jest rzeczywistą wielkością fizyczną — to znaczy, jeśli teoria jest tylko efektywnym opisem fizyki do pewnej skali maksymalnej energii lub minimalnej odległości — wtedy te dodatkowe terminy mogą reprezentować rzeczywiste interakcje fizyczne. Zakładając, że bezwymiarowe stałe w teorii nie stają się zbyt duże, można pogrupować obliczenia według odwrotnych potęg odcięcia i wyodrębnić przybliżone prognozy do skończonego rzędu w odcięciu, które nadal mają skończoną liczbę wolnych parametrów. Przydatne może być nawet ponowne znormalizowanie tych „nierenormalizowalnych” interakcji.
Oddziaływania nierenormalizowalne w efektywnych teoriach pola szybko stają się słabsze, gdy skala energii staje się znacznie mniejsza niż granica. Klasycznym przykładem jest teoria Fermiego o słabym oddziaływaniu jądrowym , nierenormalizowalna teoria efektywna , której punkt odcięcia jest porównywalny z masą cząstki W. Fakt ten może również stanowić możliwe wyjaśnienie, dlaczego prawie wszystkie obserwowane przez nas interakcje cząstek można opisać za pomocą teorii renormalizowalnych. Może być, że jakieś inne, które mogą istnieć na PG lub skala Plancka po prostu stają się zbyt słabe, aby można je było wykryć w dziedzinie, którą możemy obserwować, z jednym wyjątkiem: grawitacją , której niezwykle słabe oddziaływanie jest potęgowane przez obecność ogromnych mas gwiazd i planet . [ potrzebne źródło ]
Schematy renormalizacji
W rzeczywistych obliczeniach kontrwarunki wprowadzone w celu usunięcia rozbieżności w obliczeniach diagramu Feynmana poza poziomem drzewa muszą zostać ustalone przy użyciu zestawu warunków renormalizacji . Powszechnie stosowane schematy renormalizacji obejmują:
- Schemat odejmowania minimalnego (MS) i powiązany zmodyfikowany schemat odejmowania minimalnego (słupki MS).
- Schemat na skorupie
Poza tym istnieje „naturalna” definicja renormalizowanego sprzężenia (w połączeniu z propagatorem fotonów) jako propagatora podwójnych wolnych bozonów, która nie wymaga wprost wprowadzenia przeciwstawników.
Renormalizacja w fizyce statystycznej
Historia
Głębsze zrozumienie fizycznego znaczenia i uogólnienie procesu renormalizacji, które wykracza poza grupę dylatacji konwencjonalnych teorii renormalizowalnych , pochodzi z fizyki materii skondensowanej. Artykuł Leo P. Kadanoffa z 1966 r. Zaproponował grupę renormalizacji „spin blokowy”. Pomysł blokowania to sposób na zdefiniowanie składowych teorii na duże odległości jako agregatów składowych na krótszych odległościach.
Podejście to obejmowało punkt koncepcyjny i otrzymało pełną treść obliczeniową w obszernym, ważnym wkładzie Kennetha Wilsona . Potęga pomysłów Wilsona została zademonstrowana przez konstruktywne, iteracyjne rozwiązanie renormalizacji problemu Kondo, z 1974 r., jak również poprzednie nowatorskie rozwiązania jego nowej metody w teorii przejść fazowych drugiego rzędu i zjawisk krytycznych w 1971 r. Za ten decydujący wkład otrzymał nagrodę Nobla w 1982 r.
Zasady
technicznie, załóżmy, że mamy teorię opisaną przez pewną pewien sprzężeń stałe . Funkcja ta może być funkcją podziału , działaniem , hamiltonianem itp. Musi zawierać cały opis fizyki układu.
Teraz rozważymy pewną transformację blokującą zmiennych stanu , liczba musi mniejsza niż liczba } Spróbujmy teraz tylko pod względem . Jeśli jest to możliwe do osiągnięcia przez pewną zmianę parametrów, , to mówi się, że teoria jest renormalizowalna .
Możliwe stany makroskopowe systemu w dużej skali są określone przez ten zbiór stałych punktów.
Punkty stałe grupy renormalizacji
Najważniejszą informacją w przepływie RG są jego punkty stałe . Punkt stały jest definiowany przez zanik funkcji beta związanej z przepływem. Wtedy stałe punkty grupy renormalizacji są z definicji niezmienne w skali. W wielu przypadkach niezmienniczości skali zainteresowania fizycznego powiększa się do niezmienniczości konforemnej. Wtedy mamy konforemną teorię pola w punkcie stałym.
Zdolność kilku teorii do tego samego stałego punktu prowadzi do uniwersalności .
Jeśli te punkty stałe odpowiadają teorii pola swobodnego, mówi się, że teoria ta wykazuje trywialność kwantową . W badaniu teorii kratowych Higgsa pojawia się wiele punktów stałych , ale charakter powiązanych z nimi kwantowych teorii pola pozostaje kwestią otwartą.
Zobacz też
Dalsza lektura
Ogólne wprowadzenie
- DeDeo, Szymon; Wprowadzenie do renormalizacji (2017). Eksplorator złożoności Instytutu Santa Fe MOOC. Renormalizacja z punktu widzenia systemów złożonych, w tym łańcuchy Markowa, automaty komórkowe, model Isinga w przestrzeni rzeczywistej, twierdzenie Krohna-Rhodesa, QED i teoria zniekształceń szybkości.
- Delamotte, Bertrand (2004). „Odrobina renormalizacji”. American Journal of Physics . 72 (2): 170–184. arXiv : hep-th/0212049 . Bibcode : 2004AmJPh..72..170D . doi : 10.1119/1.1624112 . S2CID 2506712 .
- Baez, John; Łatwa renormalizacja (2005). Jakościowe wprowadzenie do tematu.
- Blechman, Andrew E.; Renormalizacja: Nasz wielce niezrozumiany przyjaciel (2002). Podsumowanie wykładu; zawiera więcej informacji na temat określonych schematów regularyzacji i odejmowania dywergencji.
- Cao, Tian Yu; Schweber, Silvan S. (1993). „Podstawy pojęciowe i filozoficzne aspekty teorii renormalizacji”. synteza . 97 : 33–108. doi : 10.1007/BF01255832 . S2CID 46968305 .
- Szirkow, Dmitrij ; Pięćdziesiąt lat grupy renormalizacji , CERN Courrier 41(7) (2001). Pełny tekst dostępny na stronie: Czasopisma IOP .
- E.Elizalde; Techniki regularyzacji Zeta z Applications .
Głównie: kwantowa teoria pola
- NN Bogoliubov , DV Shirkov (1959): Theory of Quantized Fields . Nowy Jork, Interscience. Pierwszy podręcznik na grup renormalizacji .
- Ryder, Lewis H.; Quantum Field Theory (Cambridge University Press, 1985), ISBN 0-521-33859-X Bardzo czytelny podręcznik, z pewnością najlepsze wprowadzenie do relatywistycznego QFT dla fizyki cząstek elementarnych.
- Zee, Anthony; Kwantowa teoria pola w pigułce , Princeton University Press (2003) ISBN 0-691-01019-6 . Kolejny doskonały podręcznik do QFT
- Weinberg, Steven; Kwantowa teoria pól (3 tomy) Cambridge University Press (1995). Monumentalna rozprawa o QFT napisana przez czołowego eksperta, laureata Nagrody Nobla z 1979 roku .
- Pokorski, Stefan; Gauge Field Theories , Cambridge University Press (1987) ISBN 0-521-47816-2 .
- 't Hooft, Gerard; The Glorious Days of Physics – Renormalization of Gauge Theories , wykład wygłoszony w Erice (sierpień/wrzesień 1998) przez laureata Nagrody Nobla 1999 . Pełny tekst dostępny pod adresem: hep-th/9812203 .
- Rivasseau, Vincent; Wprowadzenie do renormalizacji , Poincaré Seminar (Paryż, 12 października 2002), opublikowane w: Duplantier, Bertrand; Rivasseau, Vincent (red.); Seminarium Poincarégo 2002 , Progress in Mathematical Physics 30, Birkäuser (2003) ISBN 3-7643-0579-7 . Pełny tekst dostępny w PostScript .
- Rivasseau, Vincent; Od perturbacyjnej do konstruktywnej renormalizacji , Princeton University Press (1991) ISBN 0-691-08530-7 . Pełny tekst dostępny w PostScript [ stały martwy link ] oraz w formacie PDF (wersja robocza) .
- Iagolnitzer, Daniel & Magnen, J.; Analiza grup renormalizacyjnych , Encyklopedia Matematyki, Wydawnictwo Akademickie Kluwer (1996). Pełny tekst dostępny w PostScript i pdf tutaj .
- Scharf, Gunter; Skończona elektrodynamika kwantowa: podejście przyczynowe , Springer Verlag Berlin Heidelberg, Nowy Jork (1995) ISBN 3-540-60142-2 .
- AS Švarc ( Albert Schwarz ), Математические основы квантовой теории поля, (Matematyczne aspekty kwantowej teorii pola), Atomizdat, Moskwa, 1975. 368 s.
Głównie: fizyka statystyczna
- AN Wasiljew; The Field Theoretic Renormalization Group in Critical Behavior Theory and Stochastic Dynamics (Routledge Chapman & Hall 2004); ISBN 978-0-415-31002-4
- Nigela Goldenfelda ; Wykłady na temat przemian fazowych i grupy renormalizacji , Frontiers in Physics 85, Westview Press (czerwiec 1992) ISBN 0-201-55409-7 . Ta popularna książka, obejmująca elementarne aspekty fizyki przejść fazowych i grupy renormalizacji, kładzie nacisk na zrozumienie i przejrzystość, a nie na techniczne manipulacje.
- Zinn-Justin, Jean; Kwantowa teoria pola i zjawiska krytyczne , Oxford University Press (4. wydanie - 2002) ISBN 0-19-850923-5 . Arcydzieło o zastosowaniach metod renormalizacji do obliczania wykładników krytycznych w mechanice statystycznej, idąc za pomysłami Wilsona (Kenneth Wilson był laureatem Nagrody Nobla w 1982 r .).
- Zinn-Justin, Jean; Phase Transitions & Renormalization Group: from Theory to Numbers , Poincaré Seminar (Paryż, 12 października 2002), opublikowane w: Duplantier, Bertrand; Rivasseau, Vincent (red.); Seminarium Poincarégo 2002 , Progress in Mathematical Physics 30, Birkäuser (2003) ISBN 3-7643-0579-7 . Pełny tekst dostępny w PostScript zarchiwizowany 15 października 2005 w Wayback Machine .
- Domb, Cyryl; Punkt krytyczny: historyczne wprowadzenie do współczesnej teorii zjawisk krytycznych , CRC Press (marzec 1996) ISBN 0-7484-0435-X .
- Brown, Laurie M. (red.); Renormalizacja: od Lorentza do Landaua (i nie tylko) , Springer-Verlag (Nowy Jork-1993) ISBN 0-387-97933-6 .
- Kardy, Jan ; Skalowanie i renormalizacja w fizyce statystycznej , Cambridge University Press (1996) ISBN 0-521-49959-3 .
Różnorodny
- Szirkow, Dmitrij ; Grupa ds. renormalizacji Bogoliubowa , komunikat JINR E2-96-15 (1996). Pełny tekst dostępny pod adresem: hep-th/9602024
- Zinn-Justin, Jean; Grupa renormalizacji i renormalizacji: Od odkrycia rozbieżności UV do koncepcji efektywnych teorii pola , w: de Witt-Morette C., Zuber J.-B. (red.), Proceedings of the NATO ASI on Quantum Field Theory: Perspective and Prospective , 15–26 czerwca 1998, Les Houches, Francja, Kluwer Academic Publishers, NATO ASI Series C 530, 375–388 (1999). Pełny tekst dostępny w PostScript .
- Connes, Alain; Symétries Galoisiennes & Renormalisation , Poincaré Seminar (Paryż, 12 października 2002), opublikowane w: Duplantier, Bertrand; Rivasseau, Vincent (red.); Seminarium Poincarégo 2002 , Progress in Mathematical Physics 30, Birkäuser (2003) ISBN 3-7643-0579-7 . Francuski matematyk Alain Connes (medalista Fieldsa 1982) opisał matematyczną strukturę leżącą u podstaw renormalizacji ( algebrę Hopfa ) i jej związek z problemem Riemanna-Hilberta. Pełny tekst (w języku francuskim) dostępny na stronie arXiv : math/0211199 .
Linki zewnętrzne
- Cytaty związane z renormalizacją w Wikicytatach