Uniwersytet Wrocławski Instytut Fizyki Teoretycznej Teoria Przejść Fazowych i Zjawiska Krytyczne Katarzyna Sznajd-Weron Wrocław, luty 2012 1 2 Spis treści 1 Literatura pomocnicza 1.1 Książki w języku polskim . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Książki w języku angielskim . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Skrypty na www . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 1 2 2 Wstęp 2.0.1 2.0.2 4 6 9 Diagram fazowy wody . . . . . . . . . . . . . . . . . . . . . . . . . Diagram fazowy ferromagnetyka . . . . . . . . . . . . . . . . . . . . 3 Termodynamika przejść fazowych 3.1 Wielkości termodynamiczne . . . . . . . . . . . . . . . . 3.2 Równanie Fundamentalne i Potencjały Termodynamiczne 3.2.1 Parametry intensywne i ekstensywne . . . . . . . 3.2.2 Równanie Fundamentalne . . . . . . . . . . . . . 3.2.3 Potencjały termodynamiczne . . . . . . . . . . . 3.3 Funkcje odpowiedzi . . . . . . . . . . . . . . . . . . . . . 3.3.1 Odpowiedź termiczna - ciepło właściwe . . . . . . 3.3.2 Odpowiedź mechaniczna . . . . . . . . . . . . . . 3.4 Warunki równowagi i stabilności . . . . . . . . . . . . . . 3.5 Klasyfikacja przejść fazowych . . . . . . . . . . . . . . . 3.6 Co to jest potencjał chemiczny? . . . . . . . . . . . . . . 4 Parametr Porządku i Teoria Landaua 4.0.1 Parametr porządku . . . . . . . . . . . . . . 4.0.2 Dwupunktowa funkcja korelacyjna i promień 4.0.3 Wykładniki krytyczne i klasy uniwersalności 4.1 Teoria Landaua ciągłych przejść fazowych . . . . . 4.1.1 Ciepło właściwe i entropia dla B > 0 . . . . 4.1.2 Uogólnienie: B ujemne . . . . . . . . . . . . 4.1.3 Gdzie są fluktuacje? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . korelacji . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 12 13 13 13 15 16 16 17 17 18 20 . . . . . . . 22 22 23 24 24 26 27 29 5 Model Perkolacji w Ekonomii 33 5.1 Model Conta-Bouchaud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 5.2 Samoorganizujący się model perkolacji fluktuacji na rynku finansowym . . 35 6 Modele 37 3 7 Co wiemy 7.0.1 7.0.2 7.0.3 7.0.4 na pewno? - czyli ścisłe wyniki w teorii przejść fazowych Jednowymiarowy model Isinga z polem i dwuwymiarowy bez pola. Model Perkolacji typu bond na sieci kwadratowej. . . . . . . . . . Twierdzenie van Hove’a . . . . . . . . . . . . . . . . . . . . . . . Twierdzenie Mermina-Wagnera . . . . . . . . . . . . . . . . . . . 8 Metoda Średniego Pola - Mean Field Approximation 8.0.5 Twierdzenie Peierlsa . . . . . . . . . . . . . . . 8.0.6 Metoda MFA dla modelu Isinga . . . . . . . . . 8.0.7 Metoda MFA dla modelu Perkolacji . . . . . . . . . . . 39 39 39 39 39 (MFA) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 42 42 43 9 Metody Monte Carlo 45 9.1 Łańcuch Markowa i równanie Master . . . . . . . . . . . . . . . . . . . . . 47 9.2 Model Isinga i dynamika Glaubera . . . . . . . . . . . . . . . . . . . . . . 48 10 Skalowanie 52 10.1 Hipoteza skalowania w teorii przejść fazowych . . . . . . . . . . . . . . . . 53 11 Grupa Renormalizacyjna (GR) 11.1 Renormalizacja w przestrzeni rzeczywistej. . . . . . . . . . . . . . 11.2 Zastosowanie idei GR do polityki . . . . . . . . . . . . . . . . . . 11.3 Transformacja GR i Model Isinga . . . . . . . . . . . . . . . . . . 11.3.1 Decymacja w jednowymiarowym modelu Isinga . . . . . . 11.3.2 Transformacja blokowa w dwuwymiarowym modelu Isinga 4 . . . . . . . . . . . . . . . . . . . . . . . . . 58 59 60 61 61 63 5 Rozdział 1 Literatura pomocnicza 1.1 Książki w języku polskim 1. J. J. Binney, N. J. Dowrick, A. J. Fisher, M. E. J. Newman, ”Zjawiska krytyczne. Wstęp do grupy renormalizacji”, PWN, Warszawa 1998 2. J. Klamut, K. Durczewski, J. Sznajd, ”Wstęp do fizyki przejść fazowych”, (Wyd. PAN 1979) 3. K. Huang ”Mechanika statystyczna” (PWN, Warszawa 1986) 4. D. W. Heerman, ”Podstawy symuacji komputerowych w fizyce”, (WNT, Warszawa 1997) 5. N. G. van Kampen ”Procesy stochastyczne w fizyce i chemii” (PWN, Warszawa 1990) 6. H. G. Schuster ”Chaos Deterministyczny” (PWN, Warszawa 1993) 7. H.-O. Peitgen, H. J´’urgens, D. Saupe ”Granice Chaosu Fraktale” (PWN, Warszawa 1997) 1.2 Książki w języku angielskim 1. Silvio, R. A. Salinas ”‘Introduction to Statistical Physics”’ (Springer-Verlag 2001) 2. Linda E. Reichl ”‘A Modern Course in Statistical Physics”’ (Wiley 2009) 3. Michael Plischke, Birger Bergersen ”‘Equilibrium Statistical Physics”’ (PrenticeHall, Inc. 1989) 4. Herbert B. Callen ”‘Thermodynamics and an introduction to thermostatistics”’ second edition (John Wiley & Sons 1985) 5. Pavel L. Krapivsky, Sidney Redner, Eli Ben-Naim ”‘A kinetic view of Statistical Physics”’ (Cambridge University Press 2011) 1 6. Malte Henkel, Haye Hinrichsen, Sven Lübeck ”‘Non-Equilibrium Phase Transitions”’ (Springer 2008) 7. Kim Christensen, Nicholas R. Moloney ”‘Complexity and Criticality”’ (Imperial College Press 2005) 8. Dietrich Stauffer and Ammon Aharony ”Introduction To Percolation Theory”, (TAYLOR & FRANCIS LTD 1994) 9. D. P. Landau, K. Binder ”‘A Guide to Monte Carlo simulations in Statistical Physics”’, 2nd Edition (Cambridge University Press 2005) 1.3 Skrypty na www 1. http://panoramix.ift.uni.wroc.pl/ - Skrypt do wykładu z Wstępu do Teorii Przejść Fazowych prof. dr hab. Andrzeja Pękalskiego (Uniwersytet Wrocławski) 2. http://panoramix.ift.uni.wroc.pl/ - Skrypt do wykładu z Fizyki Statystycznej II prof. dr hab. Andrzeja Pękalskiego (Uniwersytet Wrocławski) 3. http://www.cmp.caltech.edu/refael/phys127b/ - Gil Refael notatki po angielsku do wykładu Statistical Physics - Continuous Phase Transitions 4. http://www.dbc.wroc.pl/Content/994/gonczarek2.pdf - elektroniczna wersja książki Ryszard Gonczarek ”Teoria przejść fazowych - wybrane zagadnienia”, Oficyna Wydawnicza Politechniki Wrocławskiej 2004 2 3 Rozdział 2 Wstęp Kiedy byłam jeszcze na studiach, miałam trójkę znajomych zapaleńców górskich, których największym marzeniem było spędzenie sylwestra na szczycie jakiejś wysokiej góry. Pewnej zimy, zaopatrzeni w super ciepłe śpiwory, butlę gazową i prowiant, pojechali w Tatry. Jak później wspominali - ”Usiedliśmy na szycie góry, wyciągnęliśmy z plecaka butlę gazową i zaczęliśmy gotować jajka na naszą sylwestrową ucztę.” Ku ich zdumieniu jaja, mimo trochę dłuższego niż zwykle gotowania okazały się na wpół surowe. Zaparzona na górze herbata też nie smakowała jak należy. Czary? Złośliwość losu? Oczywiście, że nie. Przyzwyczailiśmy się do tego, że woda gotuje się w temperaturze 1000 C. Zwykle zapominamy jednak, że jest to prawdą dopóki ciśnienie atmosferyczne wynosi 1bar = 1000hP a. Ciśnienie atmosferyczne zależy zaś od tego na jakiej znajdujemy się wysokości - im wyżej tym ciśnienie niższe. Jeżeli mieszkamy na wybrzeżu morskim to ciśnienie atmosferyczne będzie rzeczywiście bliskie 1000hP a(1bar), ale już na Rysach wyniesie tylko 747hP a(0.747bar). No i co z tego? - ktoś mógłby się zapytać? Otóż okazuje się, że przy ciśnieniu 0.747bar woda wcale nie zacznie się gotować w temperaturze 1000 C, tylko w ok. 920 C. Możemy ją gotować oczywiście dłużej, ale woda wyższej temperatury już nie osiągnie - po prostu zacznie się zamieniać w parę. Spójrzcie na rysunek 2.1. Na rysunku tym przedstawiony został tzw. diagram fazowy dla wody. Pokazuje on w jakiej fazie znajduje się woda przy określonym ciśnieniu i temperaturze. Jak wiadomo woda może znaleźć się zarówno w fazie stałej (lód), ciekłej, jak i gazowej (para wodna). Jeżeli spojrzycie na diagram to zobaczycie, że przy ciśnieniu 0.747bar (na Rysach) w temperaturze 1000 C woda jest już parą, więc nie bardzo nadaje się do parzenia herbaty. Czarną herbatę zaparza się w temperaturze 1000 C, jeżeli zalejemy ją zimniejszą wodą nie osiągnie pełni smaku. Niektórzy twierdzą, że właśnie dlatego Górale do kubka herbaty dolewają zawsze ”wzmacniaczy”. Może wobec tego na wyprawy wysokogórskie lepiej zabrać herbatę białą lub zieloną, które parzy się w niższych temperaturach? W Tybecie, gdzie zielona herbata już od prawie 1400 jest podstawowym napojem, dużo łatwiej ją zaparzyć niż we np. Wrocławiu - tam gotująca sią woda będzie miała temperaturę ok. 80 0 C, czyli idealną do parzenia zielonej herbaty. U nas, woda po zagotowaniu ma temperaturę prawie 1000 C, czyli musimy chwilę odczekać zanim zaczniemy herbatę parzyć. Problem w tym, że nie bardzo wiadomo jak długo czekać ... Wróćmy jeszcze na chwilę do diagramu fazowego wody. To co dotychczas pokazałam to nie jest pełny diagram fazowy. Okazuje się, że lód może występować w wielu postaciach (ogółem istnieje szesnaście odmian polimorficznych lodu, oznaczanych symbolicznie licz4 Poziom morza (0 m n.p.m) 1 p [bar] 0.8 Rysy (2500 m n.p.m) 0.6 Tybet (4800 m n.p.m) 0.4 Mount Everest (8848 m n.p.m) 0.2 LÓD 0 −40 −20 WODA 0 20 PARA 40 T [ C] 67 80 100 o Rysunek 2.1: Diagram fazowy dla wody. Ciągłe linie dzielą diagram na trzy obszary, odpowiadające trzem fazom - stałej (lód), ciekłej (płynna woda) i gazowej (para wodna). Jak widać przy ciśnieniu na Rysach (tzn. przy ciśnieniu 0.747 bar) w temperaturze 1000 C woda jest już parą, więc nie bardzo nadaje się do parzenia herbaty. Na Mount Everest jest jeszcze gorzej, bo woda już w temperaturze poniżej 700 C przechodzi w stan gazowy. Biorąc pod uwagę, że żółtko jajka ścina się w temperaturze 65 − 700 C, lepiej nie nastawiać się na gotowanie tam jajek na twardo. Natomiast, jak widać z diagramu, Tybet jest idealnym miejscem do spożywania zielonej herbaty - tam woda zacznie wrzeć w temperaturze ok 800 C, czyli idealnej do zaparzania tego napoju. Rysunek przygotowany na podstawie danych dostępnych na stronie http://www.chemicalogic.com. Dane dla linii topnienia i sublimacji na podstawie W. Wagner, A. Saul, A. Pruß: International Equations for the Pressure along the Melting and along the Sublimation Curve for Ordinary Water Substance, J. Phys. Chem. Ref. Data 23, No 3 (1994) 515 5 bami rzymskimi) i dlatego pełny diagram fazowy wody jest dużo bardziej skomplikowany niż moglibyśmy przypuszczać (rys. 2.2). Phase Diagram: Water - Ice - Steam 1.E+06 Sublimation Line Ice I Line Melting Line (Ice V) Ice III Line 1.E+04 Melting Line (Ice VII) Melting Line (Ice VI) Saturation Line 1.E+05 Ice V Line Ice VI Line Melting Line (Ice III) Ice VII Line 1.E+03 Liquid Critical Point 1.E+02 Melting Line (Ice I) Saturation Line Pressure (bar) 1.E+01 Solid 1.E+00 1.E-01 1.E-02 Triple Point 1.E-03 Sublimation Line 1.E-04 Vapor 1.E-05 1.E-06 1.E-07 0 100 200 300 400 Temperature (K) 500 600 700 800 Copyright © 1998 ChemicaLogic Corporation. Rysunek 2.2: Pełny diagram fazowy dla wody przygotowany na podstawie danych dostępnych na stronie http://www.chemicalogic.com. Dane dla linii topnienia i sublimacji na podstawie W. Wagner, A. Saul, A. Pruß: International Equations for the Pressure along the Melting and along the Sublimation Curve for Ordinary Water Substance, J. Phys. Chem. Ref. Data 23, No 3 (1994) 515 Zwróciliście też może uwagę na pewien szczególny punkt, oznaczony na rysunku 2.2 czarnym kwadratem i opisany jako Critical Point (punkt krytyczny)? To jest rzeczywiście bardzo szczególny punkt, ponieważ jak widać powyżej tego punktu nie istnieje już linia rozdzielająca fazę ciekłą od gazowej. Czyli powyżej tego punktu nie występuje już przejście fazowe. Nie występuje, bo nie ma już dwóch faz. Co w takim razie tam jest? Zachęcam do obejrzenia filmu ze strony http://www.youtube.com/watch?v=yBRdBrnIlTQ, na którym profesor Martyn Poliakoff pokazuje eksperyment pokazujący co znajduje się powyżej punktu krytycznego - nie jest to ani gaz, ani ciecz. Przejście fazowe, które zachodzi w punkcie krytyczny (tzw. ciągłe) zasadniczo różni się od tego, które zachodzi gdy przekraczamy linię współistnienia faz - jakie są to różnice do tego jeszcze wrócimy w dalszej części wykładu. 2.0.1 Diagram fazowy wody Przyjrzyjmy się jeszcze raz diagramowi fazowemu wody (rysunek 2.3). Czarne linie (górny rysunek, przedstawiający diagram fazowy) oznaczają linie współistnienia faz - na liniach tych obie fazy są w równowadze. Czy wiedzielibyście jak wyznaczyć te linie - tzn. jaki jest warunek równowagi? Jeśli nie, to jeszcze do tego wrócimy. Przy przejściu przez linie następuje przejście fazowe - przejście pomiędzy różnymi fazami. Jak zachodzi to przejście? Na dolnym rysunku widać zależność pomiędzy dostarczanym do układu ciepłem a temperaturą. Aby podnieść temperaturę musimy dostarczyć do układu ciepło. Kiedyś koleżanka 6 wykonała następujący eksperyment. Wlała wodę do garnka, włożyła do wody termometr (nie taki, jakim mierzy się temperaturę ciała, bo taki nie ma wystarczająco dużej skali), a potem postawiła garnek na kuchence elektrycznej i zaczęła podgrzewać wodę. Co 10 sekund odczytywała temperaturę wody i zapisywała ją na kartce. Okazało się, że temperatura wody stale rosła w czasie aż do pewnego momentu ... W pewnej chwili mimo, ze garnek z wodą nadal był podgrzewany temperatura przestała się zmieniać. Domyślacie się ile wtedy wynosiła temperatura wody? Dlaczego pomimo dalszego podgrzewania temperatura pozostawała stała? Odpowiedź jest natychmiastowa jeżeli spojrzycie na dolną część rysunku 2.3. Oczywiście analogiczne zjawisko zaobserwujecie, jeżeli włożycie wodę z termometrem do zamrażalnika - temperatura do pewnego momentu będzie malała a potem ... Rysunek 2.3: Schematyczny diagram fazowy gaz-ciecz-ciało stałe oraz (poniżej) zależność pomiędzy dostarczanym do układu ciepłem a temperaturą (Cooling Curve). To doświadczenie z zamrażarką jest szczególnie interesujące. Jeżeli będziecie mieli tro7 chę szczęścia to możecie swoim gościom pokazać niezłą sztuczkę. Zajrzyjcie na stronę youtube i wpiszcie hasło Supercooled Water - znajdziecie tam mnóstwo filmików z zamrażaniem wody. Supercooled Water (w języku polskim ciecz przechłodzona) to taka ciecz, której temperatura jest na tyle niska, że powinna już być w stanie stałym, ale jednak w takim nie jest. Znajduje się w stanie metastabilnym i zaburzenie tej cieczy (wstrząśnięcie naczyniem z cieczą, fala dźwiekowa, wrzucenie kawałeczka lodu lub innego ciała – tzw. zarodków krystalizacji) spowoduje jej natychmiastowe zamrożenie. Ciecz przechłodzoną można otrzymać przez bardzo powolne ochładzanie czystej cieczy w naczyniu o gładkich ściankach, przy braku drgań i wstrząsów mechanicznych lub bardzo szybkie ochładzanie. W wyniku nagłej krystalizacji cieczy przechłodzonej następuje wydzielenie ciepła i podwyższenie temperatury substancji. Zjawisko to wykorzystywane jest przy produkcji ogrzewaczy dłoni. Ogrzewacze dłoni wykorzystujące ciepło krystalizacji roztworów przesyconych dostępne są w formie hermetycznie zamkniętych pojemników z tworzywa sztucznego, wypełnionych cieczą (postać gotowa do użycia) lub kryształkami (po użyciu). W pojemniku znajduje się też odpowiednio ukształtowana, metalowa blaszka, służąca jako „włącznik”. Wykorzystany ogrzewacz tego typu można łatwo zregenerować ogrzewając go we wrzątku. W pojemniku znajduje się sól o dużej skłonności do tworzenia roztworów przesyconych, zazwyczaj uwodnionego octanu lub tiosiarczanu sodu. Sól w wyniku ogrzania pojemnika w temperaturze kilkudziesięciu stopni ulega rozpuszczeniu we własnej wodzie krystalizacyjnej i tworzy jednorodny roztwór. Po schłodzeniu ciecz staje się roztworem przesyconym, lecz ze względu na brak zarodków krystalizacja nie następuje. Aby uruchomić ogrzewacz należy wygiąć zawartą w opakowaniu blaszkę tak, by przybrała drugi ze stabilnych kształtów. Powstająca przy tym fala dźwiękowa, słyszalna jako „kliknięcie” zaburza stan metastabilny roztworu i inicjuje krystalizację, która w ciągu kilkunastu sekund obejmuje całą objętość pojemnika. Wydzielane podczas krystalizacji ciepło rozgrzewa pojemnik, a jego podwyższona temperatura może utrzymywać się od kilkunastu minut do kilku godzin. [źródło: Wikipedia] Jak już wspomniałam ciecz przechłodzona jest z termodynamicznego punktu widzenia stanem metastabilnym, tzn. dla małych zaburzeń stabilnym, ale dla większych niestabilnym. Żeby lepiej zrozumieć czym jest stan metastabilny spójrzcie na rysunek 4.1. Ze stanami metastabilnymi związane jest pojęcie histerezy. Ogólnie w naukach przyrodniczych histereza oznacza zależności aktualnego stanu układu od stanów w poprzedzających chwilach. Na przykład w przemianie fazowej ciało stałe-ciecz histereza występuje kiedy temperatury topnienia i krzepnięcia są różne – np. agar topi się w temperaturze ok. 850 C a krzepnie w zakresie od 32 do 400 C. Oznacza to, że agar stopiony przy temperaturze 850 C pozostaje w stanie ciekłym do temperatury 400 C. Z drugiej strony jeżeli początkowo jest w stanie stałym to aż do temperatury 850 C w takim stanie pozostanie. Dlatego w temperaturach 40 − 850 C agar może być w postaci ciekłej lub stałej w zależności od stanu wyjściowego. Najbardziej znane jednak przypadki histerezy występują w materiałach magnetycznych, głównie w ferromagnetycznych, gdzie namagnesowanie następuje dopiero po pewnym wzroście zewnętrznego pola magnetycznego – do diagramu fazowego dla ferromagne8 stany metastabilne stan stablilny Rysunek 2.4: Kulka - w ”‘górzystym”’ krajobrazie (energia potencjalna) – poglądowe przedstawienie stanów równowagi stabilnej, metastabilnej i niestabilnej. Podobnie może wyglądać energia wewnętrzna układu, w którym realizowane są stany równowagi stabilnej, metastabilnej i niestastabilnej. tyka wrócimy w kolejnym rozdziale. Na razie jeszcze na chwilę wróćmy do dolnej części rysunku 2.3. Jak już powiedzieliśmy wydać z niego po pierwsze, że w momencie przemiany fazowej dostarczanie lub wydzielanie się ciepła nie powoduje zmiany temperatury substancji – ciepło zużyte zostaje na przemianę fazową. To ciepło nazywa się utajonym ciepłem przemiany (latent heat) i występuje tylko przy tzw. nieciągłych przejściach fazowych. Kolejna obserwacja (patrz rys. 2.3) – przy tego rodzaju przejściu mamy obszary współistnienia dwóch faz - w momencie topnienia lodu zarówno lód, jak i woda są obecne w układzie. To współistnienie faz jest również charakterystyczne dla przejść nieciągłych. Do klasyfikacji przejść fazowych jeszcze wrócimy, ale na razie możemy już podsumować, że dla przejść nieciągłych jakimi są między innymi topnienie, krystalizacja, parowanie charakterystyczne jest: • Występowanie utajonego ciepła przemiany - ciepło jest pochłaniane lub wydzielane w trakcie przemiany fazowej przy stałej temperaturze układu. • W trakcie przemiany fazowej obserwujemy współistnienie faz, pomiędzy którymi zachodzi przejście. • Obserwowane są stany metastabilne, a co za tym idzie histerezy - stanu układu zależy od stanów w poprzedzających chwilach. 2.0.2 Diagram fazowy ferromagnetyka 9 Rysunek 2.5: Magnetyzacja w zależności od temperatury. 10 Rozdział 3 Termodynamika przejść fazowych Przejścia fazowe są zjawiskami kooperatywnymi, a więc zjawiskami zachodzącymi w układach wielocząstkowych. Oznacza to, że do ich opisu można użyć albo termodynamiki czyli metody fenomenologicznej 1 , albo mechaniki statystycznej, która jest narzędziem pozwalającym przewidzieć zachowanie układu z dużą liczbą stopni swobody na podstawie praw rządzących na poziomie mikroskopowym. Termodynamika zajmuje się głównie problemami zamiany energii (pracy i ciepła) oraz własnościami równowagowymi. Równowaga jest zjawiskiem makroskopowym i odnosi się do skali czasu znacznie większej niż skala charakteryzująca ruch mikroskopowy. Z punktu widzenia mikroskopowego równowaga jest takim szczególnym stanem ruchu, w którym, w czasie obserwacji, nie zmienia się stan makroskopowy obserwowanego ciała. Podstawą termodynamiki jest założenie, że przy określonych warunkach zewnętrznych dany układ ma jednoznacznie zdefiniowane własności równowagowe. Te zewnętrzne warunki są określone przez zewnętrzne parametry takie jak: temperatura, ciśnienie, pole magnetyczne itd. Oczywiście przy różnych warunkach zewnętrznych układ ma różne własności równowagowe. Przy czym przez własności równowagowe rozumiemy własności strukturalne, termiczne, elektryczne, magnetyczne, elastyczne itd. Zazwyczaj małe zmiany parametrów zewnętrznych np. temperatury powodują niewielkie zmiany własności układu. Są jednak takie punkty na skali temperatur w pobliżu, których bardzo niewielka zmiana temperatury powoduje gwałtowną zmianę własności układu. Taka nagła zmiana własności nosi nazwę przejścia fazowego. Oznacza to, że dla wystąpienia przejścia fazowego potrzebne jest istnienie dwóch różnych równowagowych stanów układu (faz). Gwałtowne, a często również niespodziewane zmiany występują w przeróżnych układach złożonych - poczynając od fizycznych (przejścia fazowe, np. topnienie lodu), poprzez biologiczne (np. wymieranie i powstawanie gatunków), społeczne (np. bunty, rewolucje) aż po ekonomiczne (np. krachy giełdowe). Okazuje się również, że wiele z tych zjawisk wykazuje zaskakujące podobieństwo przynajmniej z formalnego punktu widzenia. 1 Fenomenologia w fizyce: Widzimy jak przebiega dane zjawisko, znajdujemy jakieś regularności, potrafimy przewidzieć, że takie regularności powinny wystąpić gdzie indziej, ale nie potrafimy tego zjawiska wyjaśnić. 11 3.1 Wielkości termodynamiczne Jak już wspomnieliśmy jednym z głównych zagadnień opisywanych przez termodynamikę jest problemem zmiany energii wukładu. Energia wewnętrzna układu, podstawowa funkcja stanu, może być zmieniona przez: 1. zewnętrzne siły, które wykonują pracę dW na tym układzie, ew. układ może wykonać pracę, 2. oddanie (ew. pobranie) ciepła dQ = T dS, 3. zmianę liczby cząstek w układzie (cząstki mogą być różnych typów indeksowanych przez j = 1, 2, ...), wkład do zmiany energii wewnętrznej wynosi wówczas: X µj dNj , (3.1) j gdzie µj jest potencjałem chemicznym cząstek typu j. Opierając się na analogii mechanicznej możemy powiedzieć, że praca równa się sile razy przesunięcie. W zależności od rodzaju układu może mieć postać: • Praca dW wykonana przez napięcie f ciągnące metalowy pręt na dystansie dX jest równa: dW = −f dL. (3.2) • Zewnętrzne pole magnetyczne h wykonuje pracę, przy której wzrost energii obiektu związany jest ze wzrostem namagnesowania: dW = −hdM. (3.3) • Ciśnienie p jest siłą, która powoduje zmianę objętości V , a odpowiadająca temu praca dW = pdV (3.4) Brak znaku minus oznacza, że wzrost ciśnienia powoduje zmniejszanie się objętości. Jak widać wszystkie czynniki 1-3 powodujące zmianę energii wewnętrznej mają postać pracy, przy czym Dystans L, namagnesowanie M , objętość V , liczba cząstek N czy entropia S grają rolę uogólnionych współrzędnych, natomiast napięcie f , pole magnetyczne h, ciśnienie p, potencjał chemiczny µ oraz temperatura T są uogólnionymi siłami zewnętrznymi, które mogą zmienić odpowiednie współrzędne. Te uogólnione współrzędne są współrzędnymi makroskopowymi (termodynamicznymi). Na szczególną uwagę zasługuje entropia, która nie jest typową współrzędną – dzięki niej można wyrazić ruch mikroskopowy cząstek w sposób kolektywny. 12 3.2 Równanie Fundamentalne i Potencjały Termodynamiczne Językiem współczesnej teorii przejść fazowych jest magnetyzm. Poznaliśmy już w czasie kursu fizyki statystycznej równanie fundamentalne dla układu P T V , ale dla porządku przypomnijmy je sobie i wprowadźmy je dla układów magnetycznych. Aby opisać układ można podawać za każdym razem zbiór wszystkich wielkości termodynamicznych, charakteryzujących stan równowagi termodynamicznej, ale żeby opis ten był bardziej przejrzysty i wygodniejszy w użyciu lepiej ograniczyć się do wyboru zmiennych niezależnych. Oczywiście taki wybór nie jest jednoznaczny - możemy traktować na przykład S, V, N (lub S, M, N dla układów magnetycznych) jako zmienne niezależne, a wtedy T, p, µ (odpowiednio T, h, µ) będą mogły być wyrażone przez te zmienne - pamiętacie siły i współrzędne uogólnione są związane ze sobą przez energię. Oczywiście można też wybrać jako trójkę zmiennych niezależnych np. T, V, N lub dokonać jeszcze innego wyboru. Musimy też znaleźć sposób wyrażenie tych zmiennych za pomocą pozostałych wielkości termodynamicznych. Układy w stanie równowagi opisujemy za pomocą pewnych funkcji termodynamicznych - tzw. równania fundamentalnego lub potencjałów termodynamicznych, tzn. transformacji Legendre’a równania fundamentalnego. Wszystkie te funkcje mają tę własność, że dzięki nim możemy określić wszystkie wielkości charakteryzujące dany układ. W przypadku równania fundamentalnego zmiennymi zależnymi są wyłącznie tzw. parametry ekstensywne (patrz dalej), w przeciwieństwie do znacznie ogólniejszego przypadku potencjałów termodynamicznych. 3.2.1 Parametry intensywne i ekstensywne Wszystkie termodynamiczne parametry układu można podzielić na dwie kategorie 1. Addytywne (ekstensywne), tzn. mające taką własność, że wartość tego parametru dla całego układu równa się sumie wartości tego paratemru identycznych podukładów tworzących dany układ. Przykładami takich parametrów są energia, entropia, objętość, magnetyzacja, liczba cząstek: U (λS, λV, λN1 , ..., λNr ) = λU (S, V, N1 , ..., Nr ) 2. Nieaddytywne (intensywne), wartość tego parametru dla całego układu równa się wartości tego paratemru dla każdego z identycznych podukładów tworzących dany układ, np. temperatura czy ciśnienie: T (λS, λV, λN1 , ..., λNr ) = T (S, V, N1 , ..., Nr ) 3.2.2 Równanie Fundamentalne W stanie równowagi układ może być określony jednoznacznie poprzez podanie tzw. równania fundamentalnego, tzn. związku pomiędzy energią wewnętrzną (albo entropią) a pozostałymi parametrami ekstensywnymi. Równanie fundamentalne może więc przybierać następujące postaci: • Dla układów P T V : S = S(U, V, N1 , ..., Nr ) U = U (S, V, N1 , ..., Nr ). 13 (3.5) (3.6) • Dla układów magnetycznych: S = S(U, h, N ) U = U (S, h, N ). (3.7) (3.8) Parametry intensywne można wprowadzić formalnie obliczając różniczkę zupełną: dU = ∂U ∂S ! ∂U dS + ∂V V,N1 ,...,Nr ! dV + r X j=1 S,N1 ,...,Nr ∂U ∂Nj ! dNj (3.9) S,V,...Nk Wprowadźmy następujące oznaczenia: ∂U ∂S ! ∂U − ∂V ! ≡T temperatura (3.10) ≡P ciśnienie (3.11) ≡ µj potencjał chemiczny (3.12) V,N1 ,...,Nr ∂U ∂Nj S,N1 ,...,Nr ! S,V,...Nk Dla układów magnetycznych będziemy mieli oczywiście odpowiednio: dU = ∂U ∂S ! ∂U dS + ∂M V,N ! ∂U dM + ∂N S,N ! dN (3.13) S,V gdzie pojawia się dodatkowo pole magnetyczne jako pochodna magnetyzacji: ∂U ∂M ! ≡ H. (3.14) S,N W przypadku układów magnetycznych liczba cząstek N będzie praktycznie zawsze ustalona, także dN = 0 i nie będziemy zaznaczać, że pracujemy dla N = const. Dodatkowo, żeby uniezależnić zmienne od wielkości układu będziemy zwykle używać zmiennych na cząstkę i oznaczać je małymi literami, np magnetyzacja m = M/N . Jak widać parametry intensywne pojawiają się wówczas jako odpowiednie pochodne cząstkowe parametrów ekstensywnych i można zamiast równania fundamentalnego zapisać 3 równania stanu (napisz analogiczne dla układu magnetycznego): T = T (S, V, N ) = T (s, v) p = p(S, V, N ) = p(s, v) µ = µ(S, V, N ) = µ(s, v) (3.15) Jeżeli znamy dwa z powyższych równań to trzecie możemy wyznaczyć z tzw. relacji Gibbsa-Duhema, która dla układu jednoskładnikowego ma postać (pokaż na ćwiczeniach): SdT − V dP + N dµ = 0. (3.16) Jeżeli mamy już wszystkie 3 równania stanu wówczas możemy odtworzyć równanie fundamentalne, tzn. mamy pełna termodynamiczną informację o układzie. 14 Oczywiście zawsze możemy wyrazić energię wewnętrzną jako funkcję innych zmiennych niż S, V, N (S, M, N ). Na przykład moglibyśmy wyeliminować S z U = U (S, V, N ) i T = T (S, V, N ) w rezultacie otrzymując U = U (T, V, N ). Jednak takie równanie nie daje pełnej informacji o układzie tzn. nie jest równaniem fundamentalnym. Dlaczego? Przypomnijmy sobie, że: T = (∂U/∂S)V,N . Rozważmy teraz zależność U = U (T, V, N ) i zobaczmy czy potrafimy jednoznacznie wyznaczyć z niej zależność U = U (S, V, N ). Jeżeli wykreślilibyśmy przy V, N = const zależność U = U (T ) = U (∂U/∂S) to odpowiadałoby jej nieskończenie wiele zależności U = U (S) o tym samym nachyleniu co U (T ), ale dowolnie poprzesuwanych wzdłuż osi S, ponieważ jak wiecie różniczka za stałej wartości wynosi zero. Wobec tego z zależnosci U = U (S) możemy jednoznacznie wyznaczyć U = U (T ), ale nie odwrotnie. A gdybyśmy chcieli, żeby to nie temperatura była pochodną, ale entropia? Wówczas musimy wprowadzić potencjały termodynamiczne. 3.2.3 Potencjały termodynamiczne Dotychczas termodynamiczną informację o układzie otrzymywaliśmy z równania fundamentalnego, które mogło być zapisane w języku energii albo entropii. W obu tych reprezentacjach parametry ekstensywne odgrywały rolę zmiennych niezależnych a parametry intensywne pojawiały się jako odpowiednie pochodne. Jednakże z punktu widzenia eksperymentu znacznie wygodniej operować parametrami intensywnymi. To właśnie parametry intensywne są łatwo kontrolowane i mierzone. Wygodniej zatem byłoby móc operować nimi jako zmiennymi niezależnymi. Poznaliście już na mechanice klasycznej formalizm, który to umożliwia - transformata Legendre’a. Potencjałami termodynamicznymi będziemy nazywali właśnie różne transformaty Legendre’a równania fundamentalnego. W różnych podręcznikach nazywają się one różnie, ale nie nazwy są dla nas istotne, ale to jak wygląda potencjał w zależności od tego z jakimi parametrami chcemy mieć do czynienia. W ogólności mamy związek: Y = Y (X0 , X1 , ..., Xr ) (3.17) i chcemy aby zmiennymi niezależnymi zamiast Xk były: Pk ≡ ∂Y . ∂Xk (3.18) X (3.19) Umożliwia nam to transformata Legendre’a: Ψ=Y − Pk X k . k Możemy na przykład zastąpić w równaniu fundamentalnym entropię przez temperaturę. Taki potencjał nazywany jest zwykle energią swobodną Helmholtza i oznaczany przez F . Transformacja Legendre’a ma wtedy postać U = U (S, V, N1 , N2 , ...) S → T ∂F S = − ∂T F = U − TS F = F (T, V, N1 , N2 , ...) 15 (3.20) (3.21) Podobnie można otrzymać inne potencjały termodynamiczne, np. entalpię H: U = U (S, V, N1 , N2 , ...) V → P ∂U −P = ∂V H = U +VP H = H(S, P, N1 , N2 ) (3.22) (3.23) (3.24) Innym popularnym potencjałem termodynamicznym jest energia swobodna Gibbsa, w który zamiast entropii zmienną niezależną jest temperatura, a zamiast objętości występuje jako zmienna niezależna ciśnienie: U S V G G 3.3 = → → = = U (S, V, N1 , N2 , ...) T P U − TS + V P G(T, p, N1 , N2 , ...) (3.25) (3.26) Funkcje odpowiedzi Niezwykle ważne z punktu widzenia zrozumienia przejść fazowych, są funkcje, które określają nam jak układ reaguje na zmianę pewnych parametrów zewnętrznych. Takie funkcje nazywamy funkcjami odpowiedzi, są to wielkości termodynamiczne, które są najbardziej przydatne z punktu widzenia eksperymentu. Odpowiedź układu może być dwojakiego rodzaju - termiczna lub mechaniczna. 3.3.1 Odpowiedź termiczna - ciepło właściwe Odpowiedź termiczną mierzy tzw. ciepło właściwe (heat capacity), które określa jak dużo trzeba dodać do układu ciepła, żeby zmienić jego temperaturę: C≡ dQ . dT (3.27) Gdy mierzymy C to staramy się ustalić wszystkie inne zmienne niezależne poza temperaturą. Jeżeli rozważamy układ o ustalonej liczbie cząstek N = const to oczywiście zmienne, które moglibyśmy ew. zmienić to p i V (ew. h i M ). Jednak p jest zależne od V (podobnie h od M ) - możemy więc przyjąć za zmienną niezależną V , wtedy p jest zależne lub p i wtedy V jest zależne (odpowiednio ta sama dyskusja dla magnetykow). W zależności na co się zdecydujemy mamy T, V, N jako zmienne niezależne lub T, p, N i odpowiednio mierzymy ciepło właściwe przy stałej objętości CV lub przy stałym ciśnieniu Cp . Wygodnie jest wyrazić oba te ciepła przy pomocy entropii korzystając ze związku dQ = T dS 16 (ćwiczenia): CV = T Cp = T ∂S ∂T ! ∂S ∂T ! (3.28) V , (3.29) p lub dla układów magnetycznych: cv = T cp = T 3.3.2 ∂s ∂T ! ∂s ∂T ! (3.30) m . (3.31) h Odpowiedź mechaniczna Pierwszą z funkcji odpowiedzi mechanicznej jest tzw. podatność izotermiczna, czyli jak nazwa wskazuje jak układ reaguje na zmianę pewnego zewnętrznego (kontrolnego) parametru przy stałej temperaturze. Co może być tym parametrem skoro T = const? Oczywiście ciśnienie (wpływa na zmianę objętości) lub pole magnetyczne (wpływa na zmianę magnetyzacji) w zależności od rozważanego układu: • Podatność magnetyczna: ξT = ∂m ∂h ! • Ściśliwość izotermiczna: ∂V ∂p 1 κT = V . (3.32) T ! . (3.33) T Szybkie pytanie kontrolne: Dlaczego w równaniu na ściśliwość izotermiczną mamy dzielenie przez V , a w równaniu na podatność magnetyczną nie? Formalnie można również analogicznie zdefiniować podatność adiabatyczną (przy stałej entropii), ale nie będziemy jej używać ze względu na małą użyteczność praktyczną (dlaczego?). Można również zapytać jak będzie reagowała objętość przy zmianie temperatury. Tą informację daje nam tzw. rozszerzalność cieplna: 1 α= V ∂V ∂T ! , (3.34) P jednak ponieważ będziemy się zajmowali głównie układami magnetycznymi, nie będziemy z niej korzystali. 3.4 Warunki równowagi i stabilności Rozważmy teraz izolowany układ, tzn. U = const złożony z dwóch podukładów przedzielonych ścianą, która nie przepuszcza cząstek ale przepuszcza ciepło. Energie podukładów oznaczymy przez U1 i U2 . Z addytywności energii otrzymujemy natychmiast: U1 + U2 = U = const. 17 (3.35) Chcemy teraz znaleźć warunek na równowagę takiego układu. Z drugiej zasady termodynamiki w stanie równowagi: dS = 0. (3.36) Ponieważ entropia jest ekstensywna: S = S1 (U1 , V1 , N1 ) + S2 (U2 , V2 , N2 ). (3.37) Możemy teraz obliczyć: dS = ∂S1 ∂U1 ! ∂S2 dU1 + ∂U2 V1 ,N1 ! dU2 . (3.38) V2 ,N2 Pozostałe wyrazy nie występują ponieważ w rozważanym przykładzie dV1 , dV2 , dN1 , dN2 = 0. Zgodnie z naszą definicją: 1 1 dS = dU1 + dU2 (3.39) T1 T2 Ponieważ U1 + U2 = const, więc: dU1 + dU2 = 0 → dU1 = −dU2 . (3.40) Czyli: 1 1 − dS = dU2 (3.41) T1 T2 Ponieważ w stanie równowagi dS = 0 dla dowolnej wartości dU2 ,tzn. dowolny skończony przepływ energii z podukładu 1 do 2 nie zmienia entropii całego układu, czyli 1 1 = T1 T2 (3.42) Oczywiście dotychczas określiliśmy jedynie warunki równowagi w przypadku gdy podukłady nie zmieniają objętości ani nie wymieniają cząstek. Jakie byłyby warunki równowagi w przypadku gdy możliwa byłaby zmiana objętości i liczby cząstek podukładów (ćwiczenia)? Kolejnym problemem jest zbadanie stabilności takiej równowagi, tzn. znalezienie warunku, dla którego dS 2 < 0, dU 2 > 0. Dopuszcza się możliwość wzbudzeń, przy których tylko jedna z tych nierówności jest spełniona. Stan taki nazywamy stanem równowagi metastabilnej. Stany metastabilne realizowane są na przykład przy przegrzaniu lub przechłodzeniu. Można pokazać (ćwiczenie), że warunek stabilności równowagi ma postać: cv , κT > 0 (3.43) Jeżeli kryterium stabilności nie jest spełnione wówczas układ rozpada się na dwa lub więcej faz. Ten rozpad nazywamy przejściem fazowym. 3.5 Klasyfikacja przejść fazowych Każdy nas chyba codziennie spotyka się z przejściami zachodzącymi w wodzie - gotując wodę czy mrożąc lód do napojów. W normalnych warunkach są to tak zwane przejścia nieciągłe (albo pierwszego rodzaju). Można się łatwo domyśleć, że skoro istnieją 18 przejścia nieciągłe to są również ciągłe. Modelowym przykładem przejścia ciągłego jest przemiana żelaza z postaci paramagnetycznej w ferromagnetyczną w temperaturze Curie Tc = 1043K. W temperaturze T > Tc żelazo (miedź, cynk) jest paramagnetyczne, tzn. nie ma pola magnetycznego. Natomiast dla T < Tc materiał jest w stanie ferromagnetycznym, tzn. jest namagnesowany nawet bez zewnętrznego pola, natomiast w polu moment magnetyczny obraca się natychmiast w kierunku przyłożonego pola. Parametrem pozwalającym eksperymentalnie podzielić wszystkie przejścia fazowe jednoznacznie na ciągłe i nieciągłe jest ciepło utajone przemiany. Przejścia nieciągłe są to takie przejścia, w których występuje ciepło przemiany, tzn. w trakcie przejścia z fazy wysokotemperaturowej do niskotemperaturowej w pobliżu temperatury przejścia wydziela się skończona ilość ciepła, zwana ciepłem przemiany. Wszystkie przejścia fazowe, w których nie występuje ciepło przemiany klasyfikujemy jako ciągłe. Większość przejść fazowych I rodzaju redukuje się w pewnym punkcie do przejścia ciągłego. Ciepło utajone przemiany q jest energią potrzebną do przeniesienia cząstki z jednej fazy do drugiej. Niech Ni oznacza liczbą cząstek w i-tej fazie oraz: i = Ei Ni vi = Vi Ni si = Si Ni (3.44) oznaczają odpowiednio energię, objętość i entropię przypadającą na cząstkę w i-tej fazie. Z pierwszej zasady termodynamiki (zasady zachowania energii), wiemy że: dE = dQ − dW → dQ = dE + dW = dE + pdV (3.45) gdzie dE oznacza zmianę energii wewnętrznej układu, dQ ilość ciepła dodaną układowi, a dW = pdV pracę wykonaną przez układ. Czyli ciepło utajone przemiany: q = (1 − 2 ) + p(v1 − v2 ). (3.46) Z warunku równowagi: µ1 = µ2 T1 = T2 = T p1 = p2 = p. (3.47) Potencjał chemiczny układu złożonego z identycznych cząstek jest po prostu potencjałem termodynamicznym Gibbsa na cząstkę: µi = Gi Ei − T Si + pVi = = i − T si + pvi . Ni Ni (3.48) Czyli: µ1 −µ2 = (1 −2 )−T (s1 −s2 )+p(v1 −v2 ) = [(1 −2 )+p(v1 −v2 )]−T (s1 −s2 ) = 0 (3.49) Korzystając teraz ze wzoru (3.46) otrzymujemy: q − T (s1 − s2 ) = 0 ⇒ q = T (s1 − s2 ). (3.50) Ciepło utajone przemiany jest parametrem pozwalającym eksperymentalnie podzielić wszystkie przejścia fazowe na ciągłe, przy których obserwuje się skok entropii i q 6= 0 oraz ciągłe, w których entropia zmienia się w sposób ciągły i w związku z tym q = 0 19 3.6 Co to jest potencjał chemiczny? Jak napisałam w poprzednim rozdziale potencjał chemiczny układu złożonego z identycznych cząstek jest po prostu potencjałem Gibbsa termodynamicznym na cząstkę. Czy to jest takie oczywiste? Jak można to pokazać? Można to pokazać niemal natychmiast jeżeli skorzystamy ze szczególnej postaci równania Eulera: U = T S − pV + µN. (3.51) Wówczas z transformaty Legendre’a otrzymamy: G = U − T S + pV = T S − pV + µN − T S + pV = µN. (3.52) Skąd bierze się równanie Eulera (3.51)? Żeby je wyprowadzić musimy skorzystać z pewnej istotnej własności energii wewnętrznej – ekstensywności, która oznacza: U (λS, λX1 , ...) = λU (S, X1 , ...) (3.53) Zróżniczkujmy to obustronnie po λ: ∂U (λS, λX1 , ...) ∂(λS) ∂U (λS, λX1 , ...) ∂(λX1 ) + + ... = U (S, X1 , ...). ∂(λS) ∂λ ∂(λX1 ) ∂λ (3.54) To ma być prawda dla dowolnego λ, a więc również λ = 1: ∂U ∂U S+ X1 + ... = U. ∂S ∂X1 (3.55) Czyli dla układu jednoskładnikowego P V T otrzymujemy: U = T S − pV + µN 20 (3.56) 21 Rozdział 4 Parametr Porządku i Teoria Landaua W tym rozdziale dowiemy się jak teoretycznie opisać przejścia fazowe, a w szczególności ciągłe przejścia fazowe. Pierwszym krokiem w tym kierunku będzie wprowadzenie tak zwanego parametru porządku, a uwieńczeniem genialna teoria Landaua z 1937. Załóżmy, że mamy do czynienia z kryształem, którego komórka elementarna jest prostą komórką kubiczną. Infinityzymalne przemieszczenie węzłów sieci może doprowadzić do przejścia komórki kubicznej w tetragonalną, a więc do zmiany symetrii. Podobnie symetria fazy paramagnetycznej jest inna niż ferromagnetycznej. Ideę Landaua można sprowadzić do założenia, że przy tego typu przejściach fazowych zawsze można znaleźć wielkość, której mała zmiana powoduje zmianę symetrii. Wielkość tę nazywamy parametrem porządku. Rysunek 4.1: Który twoim zdaniem układ ma wyższą symetrię - ten po lewej (T < Tc ) czy po prawej (T > Tc ). Zastanów się dobrze - co się stanie gdy odwrócisz rysunki do góry nogami? 4.0.1 Parametr porządku Do opisu każdego przejścia fazowego ciągłego można zdefiniować tzw. parametr porządku φ, tzn. parametr, który pozwala rozróżnić nam poszczególne fazy. Jest to wielkość, która jest różna poniżej punktu krytycznego jest różna od zera, a powyżej tego punktu równa 22 przejście fazowe parametr porządku własność ciecz-gaz gęstość skalar ferro-paramegnetyk magnetyzacja wektor antyferro-paramagnetyk magnetyzacja podsieci wektor polaryzacja wektor ferro-paraelektryk nadciekłość amplit. fun. fal. He4 zespolone pole skalarne amplit. fun. fal. par elektronów zespolone pole skalarne nadrzewodnictwo ω+ −ω− Wszechświat skalar ω+ +ω− ωL −ωR Życie skalar ωL +ωR Tabela 4.1: Przykłady parametru porządku. ω± oznacza liczbę cząstek i antycząstek, ωL,R liczbę lewo- i prawoskrętnych aminokwasów. zero. Znikanie parametru porządku jest związane z podwyższeniem symetrii, a więc pojawieniem sie jakiegoś nowego elementu symetrii. Przykłady parametrów porządku zebrane zostały w tabeli. W przypadku przejścia ciecz-gaz parametrem porządku jest różnica gęstości cieczy i gazu; φ = (ρciecz − ρgaz ). Dla ferromagnetyka natomiast będzie to po prostu spontaniczna magnetyzacja φ = M . 4.0.2 Dwupunktowa funkcja korelacyjna i promień korelacji Wiele naszej wiedzy o ciągłych przejściach fazowych pochodzi z eksperymentów, w których rozpraszane są cząstki (np. fotony, fonony, elektrony czy neurony) w układach znajdujących się w pobliżu stanu krytycznego. Okazuje się, że analiza rozpraszania prowadzi prawie natychmiast do dwupunktowej funkcji korelacyjnej 1 : G(ri , rj ) = hφ(ri )φ(rj )i =< φ(ri ) >2 + hδφ(ri )δφ(rj )i (4.1) W ogólności wartość parametru porządku zależy od położenia ri . Możemy jednak zawsze podzielić nasz parametr porządku na dwie części: średnią φ =< φ(ri ) > oraz fluktuacje δφ(ri ). Wówczas parametr porządku w punkcie ri możemy zapisać jako: φ(ri ) = φ + δφ(ri ). (4.2) Jeżeli policzymy teraz funkcję korelacyjną to otrzymamy: hφ(ri )φ(rj )i = D E φ2 + φ(δφ(ri ) + δφ(rj )) + δφ(ri )δφ(rj ) + hδφ(ri )δφ(rj )i = φ2 + hδφ(ri )δφ(rj )i . (4.3) Pierwsza część tej funkcji tzn. φ2 opisuje daleki porządek parametru porządku, a drugi Gzw (ri , rj ) = hδφ(ri )δφ(rj )i - bliski porządek. Eksperymenty z rozpraszaniem pokazują, że dla T = Tc ogon funkcji korelacyjnej, tzn. gdy r = |ri − rj | jest duże opisywana jest również prawem potęgowym: Gzw (r) ∼ 1 1 rd−2−η , (4.4) Nie będziemy tego tutaj pokazywać, ale zainteresowani mogą odnaleźć odpowiedni rachunek w książce J.J. Binney, N. J. Dowrick, A. J. Fisher, M. E. Newman ”Zjawiska krytyczne. Wstęp do teorii grupy renormalizacji”, PWN 1998. 23 wykładnik krytyczny zależność α c ∼ |T − Tc |−α β φ ∼ |T − Tc |−β γ κT ∼ |T − Tc |−γ η G(r) ∼ r2−d−η ν ξ ∼ |T − Tc |−ν Fe ∼ −0.03 ∼ −0.37 ∼ 1.33 ∼ 0.07 ∼ 0.69 Tabela 4.2: Wykładniki krytyczne gdzie d jest wymiarem układu, a η wykładnikiem krytycznym. Praw potęgowych i wykładników krytycznych mamy zresztą w teorii przejść fazowych znacznie więcej i wkrótce je poznamy. Dla temperatur dalekich od krytycznej można przyjąć, że asymptotycznie (tzn. dla dużych r): ! r Gzw (r) ∼ exp − , (4.5) ξ gdzie ξ jest tak zwanym promieniem korelacji. Ogólnie można zapisać: Gzw (r) ∼ exp − rξ rd−2−η . (4.6) Promień korelacji ξ jest kluczowym pojęciem współczesnej teorii przejść fazowym i oznacza odległość, na której fluktuacje parametru porządku są znacząco skorelowane. Dzięki pojęciu promienia korelacji możemy wprowadzić ogólną, precyzyjną definicję punktu krytycznego: T → Tc ⇒ ξ → ∞. (4.7) 4.0.3 Wykładniki krytyczne i klasy uniwersalności Poznaliśmy już jeden wykładnik krytyczny η, okazuje się, że wiele wielkości termodynamicznych wykazuje rozbieżność przy ciągłym przejściu fazowym. Jest rzeczą zdumiewającą, że czasem wykładniki krytyczne dla zupełnie odmiennych przejść są identyczne. Ta cecha, która oznacza, że układy niepodobne do siebie mają takie same wykładniki krytyczne jest nazywana uniwersalnością. Do tej samej klasy uniwersalności należą układy, które mają te same wykładniki krytyczne. 4.1 Teoria Landaua ciągłych przejść fazowych Teoria Landaua jest genialna przynajmniej z dwóch powodów 2 i chociażby z tej przyczyny muszę tu o niej wspomnieć. Po pierwsze jest absolutnie uniwersalna i opisuje wszystkie bez wyjątku ciągłe przejścia fazowe przy pomocy tego samego formalizmu. Po drugie, co jest chyba jeszcze bardziej fenomenalne, tłumaczy zjawisko, którego istotą są fluktuacje, zupełnie te fluktuacje zaniedbując. Teoria Landaua pierwotnie została zaproponowana do opisu przejść fazowych ciągłych i oparta jest na dwóch założeniach: 2 czytaj więcej w J. Sznajd ”Introduction to the modern theory of phase transitions” w ”Patterns of Symmetry Breaking” H. Arodz et al. (eds.) 139-159 (2003) Kluwer Academic Publisher 24 • Dla każdego przejścia ciągłego można znaleźć wielkość, która spełnia rolę miary uporządkowania układu - parametr porządku. • Potencjał termodynamiczny można w pobliżu punktu krytycznego rozwinąć w szereg potęgowy względem parametru porządku. O parametrze porządku już wspominaliśmy, przypomnijmy tylko, że powinien on mieć następujące własności: • W fazie nieuporządkowanej (o wyższej symetrii) φ = 0, a w fazie uporządkowanej (o niższej symetrii) φ 6= 0. • Parametr porządku musi dążyć do zera w sposób ciągły gdy T → Tc . • Poniżej punktu krytycznego parametr porządku nie jest w pełni określony przez warunki zewnętrzne i przy tych samych warunkach może przybierać dwie lub więcej różnych wartości. Potencjał termodynamiczny, np. energię swobodną Gibbsa G = U + xX − T S możemy przedstawić jako funkcje zmiennych termodynamicznych X, T oraz φ, przy czym φ powinno być wyznaczone z minimalizacji G przy zadanych X, T . Przypomnijmy, że X jest odpowiednią siłą uogólnioną, np. ciśnieniem XX = X) dla cieczy lub polem (X = h) dla magnetyka, a x jest odpowiednią współrzędną uogólnioną (np. V lub M odpowiednio). Ponieważ zakładamy, że zmiana stanu w pobliżu punktu krytycznego odbywa się w sposób ciągły, a więc G przybiera dowolnie małe wartości to możemy G(X, T, φ) rozwinąć w szereg potęgowy Taylora względem φ. Myślę, że wszyscy pamiętają jak wygląda rozwinięcie w szereg Taylora. Na wszelki wypadek przypomnijmy sobie, że każda funkcja f (z) analityczna wewnątrz pewnego koła o środku a, może być w każdym punkcie tego koła przedstawiona jednoznacznie w postaci szeregu potęgowego: f (z) = ∞ X cn (z − a)n = n=0 ∞ X f (n) (a) (z − a)n . n! n=0 (4.8) Wobec tego: G(X, T, φ) = G0 + αφ + Aφ2 + βφ3 + Bφ4 + . . . , (4.9) Jak już mówiliśmy równaniem stanu może być równanie fundamentalne (reprezentacja U lub S) lub dowolny potencjał termodynamiczny. Okazuje się, że również warunek równowagi może być sformułowany w każdej z wymienionych reprezentacji. W reprezentacji Gibbsa i dla X = p (tzn. gdy stan układu zadajemy potencjałem Gibbsa) warunek równowagi brzmi: Wartość równowagowa dowolnego parametru układu będącego w kontakcie z termostatem o ustalonej temperaturze Tr i ciśnieniu pr minimalizuje potencjał Gibbsa w stałej temperaturze T = Tr i ciśnieniu p = pr . Warunek ten można wyprowadzić z warunku minimalizacji energii wewnętrzej U (patrz H.B. Callen ”‘Thermodynamics”’). Wobec tego, z warunku równowagi w reprezentacji Gibbsa: α= ∂G ∂φ ! 25 = 0. X,T (4.10) Jeżeli ponadto rozważamy układy symetryczne ze względy na zmianę φ → −φ, to współczynniki również β = 0 i otrzymujemy: G(X, T, φ) = G0 + Aφ2 + Bφ4 + . . . . (4.11) Warunek równowagi stabilnej jest następujący: ∂G = 2φ(A + 2Bφ2 ) = 0 ∂φ ∂ 2G = 2(A + 6Bφ2 ) > 0. ∂φ2 (4.12) (4.13) Z pierwszego warunku otrzymujemy natychmiast dwa rozwiązania: φ=0 (4.14) φ = ± −A/2B. (4.15) q q Wiemy, że φ = 0 odpowiada fazie nieuporządkowanej, a φ = ± −A/2B fazie uporządkowanej, czyli biorąc pod uwagę drugi warunek: ∂ 2G = 2A > 0 ⇒ A > 0 ∂φ2 ∂ 2G = −4A > 0 ⇒ A < 0. ∂φ2 Faza nieuporządkowana: Faza uporządkowana: (4.16) (4.17) Wynika stąd, że w punkcie przejścia A zmienia znak. Landau założył najprostszą możliwą postać A spełniającą ten warunek, tzn. A = a(T −Tc ). To założenie natychmiast prowadzi do wyniku: q q φ = ± −a(T − Tc )/2B = ± −a/2B(T − Tc )1/2 ∼ (T − Tc )β . (4.18) Oczywiście jeżeli: A = a(T − Tc ) = A > 0 T > Tc A < 0 T < Tc A = 0 T = Tc (FN) (FU) (4.19) to wówczas warunek stabilności w T = Tc : ∂ 2G = 2(A + 6Bφ2 ) = 12Bφ2 > 0 ⇒ B > 0. 2 ∂φ 4.1.1 (4.20) Ciepło właściwe i entropia dla B > 0 Dla B > 0 teoria Landaua opisuje nam ciągłe przejścia fazowe. Co się dzieje przy takim przejściu z entropią? Pamiętamy, że przy ciągłych przejściach fazowych nie ma ciepła przemiany, a co za tym idzie skoku entropii. Czy rzeczywiście teoria Landaua prawidłowo opisuje tę własność ciągłych przejść fazowych? Obliczmy wartość entropii w obu fazach - nieuporządkowanej S N oraz uporządkowanej S U . Najpierw musimy obliczyć wartość potencjału w obu fazach. Korzystając z naszych rozwiązań: φ=0q φ = ± −A/2B A = a(T − Tc ) 26 (FN) (FU) (4.21) Otrzymujemy: GN = G0 (4.22) a a (T − Tc ) = F0 − (T − Tc )2 2B 2B (4.23) 2 GU = G0 − a(T − Tc ) Czyli odpowiednie entropie: ∂GN ∂F0 = |F N → φ = 0| = − = S0 ∂T ∂T ∂GU ∂F0 a2 a2 SU = − =− − (T − Tc ) = S0 − (T − Tc ). ∂T ∂T B B SN = − (4.24) (4.25) W punkcie przejścia tzn. dla T = Tc mamy: S N − S U = S0 − S0 + 0 = 0 (4.26) czyli nie ma skoku entropii zgodnie z obserwacją doświadczalną. A jak zachowuje się ciepło właściwe? cN = T ∂S N a2 ∂S U = c0 cU = T = c0 − Tc ∂T ∂T B (4.27) czyli: a2 6= 0. (4.28) B Czyli w przypadku ciągłych przejść fazowych mamy do czynienia ze skokiem ciepła właściwego przy jednoczesnym braku skoku entropii. Przypomnijmy tu definicję indeksu krytycznego związanego z zachowaniem się w pobliżu punktu krytycznego ciepła właściwego (patrz tabela 4.2): c ∼ |T − Tc |−α . Wobec tego otrzymujemy natychmiast, że w teorii Landaua α = 0 (bo w cieple właściwym nie ma zależności od temperatury w żadnej z faz). W ten sposób wyznaczyliśmy w teorii Landaua dwa indeksy krytyczne: α = 0, β = 1/2. Z teorii tej można wyznaczyć dalsze indeksy δ = 3 i γ = 1 odpowiedzialne za zachowanie się podatności magnetycznej (w zależności od pola magnetycznego i temperatury). Zainteresowanych odsyłam do podręcznika J. Klamuta i innych ”‘Wstęp do fizyki przejść fazowych”’. δc = cN − cU = Tc 4.1.2 Uogólnienie: B ujemne Ten rozdział nie jest obowiązkowy dla studentów ekonofizyki. Jedyne co powinni zapamiętać to fakt, że dla B < 0 istnieje zakres temperatur, dla których mogą istnieć dwie fazy i wobec tego dla B < 0 teoria Landaua opisuje przejścia nieciągłe. Zainteresowanych (i fizyków teoretyków) zapraszam do dalszej lektury rozdziału i samodzielnejo wykonania kilku rachunków. Widzieliśmy, że warunek równowagi stabilnej w punkcie T = Tc nałożył warunek na współczynnik B > 0. Co jednak stałoby się gdyby B < 0. Wówczas w rozwinięciu potencjału termodynamicznego uwzględnia się wyższe potęgi: G(X, T, φ) = F0 + Aφ2 + Bφ4 + Cφ6 . 27 (4.29) Teraz już nie można założyć, że przejście występuje dla A = 0. Przyjmijmy jednak przez analogię z poprzednim przypadkiem, że A = a(T − Θ), chociaż oczywiście Θ nie jest teraz temperaturą przejścia (nie wiemy w ogóle na razie czym jest). Warunkiem koniecznym dla istnienia minimum potencjału (a co za tym idzie równowagi) jest oczywiście: ∂G = 2φ(A + 2Bφ2 + 3Cφ4 ) = 0. ∂φ (4.30) Podobnie jak poprzednio możliwe są dwa rozwiązania φ = 0 i φ 6= 0. Napiszmy dodatkowo warunek równości potencjałów: GN = 0 GU = F0 + Aφ2 + Bφ4 + Cφ6 GN = GU ⇒ φ2 (A + Bφ2 + Cφ4 ) = 0 (4.31) Mamy więc układ równań, który pozwala wyznaczyć φ w fazie uporządkowanej oraz temperaturę równych energii stanów N i U (ćwiczenia). A + 2Bφ2 + 3Cφ4 = 0 A + Bφ2 + Cφ4 = 0 (4.32) Z tego otrzymujemy w punkcie równych energii φ2 = −2A/B oraz A = B 2 /4C. Podstawiając A = a(T − Θ) dostajemy, że temperatura, w której energie obu stanów są równe to: B2 T0 = Θ + . (4.33) 4aC To wyrażenie ma sens przy założeniu, że współczynniki B i C są w szerokim zakresie niezależne od temperatury, co nie zawsze musi być prawdziwe. Na razie jednak załóżmy, że z pewnym przybliżeniem można tak przyjąć. Wówczas w punkcie równych energii: A B2 B = −2 =− (4.34) B 4CB 2C Oczywiście warunek konieczny minimum potencjału pozwala wyznaczyć φ również poza punktem równych energii (przeliczyć to na ćwiczeniach): √ −B ± B 2 − 3AC 2 φ = . (4.35) 3C Jeżeli C > 0 to wówczas jedynym fizycznym rozwiązaniem jest: √ −B + B 2 − 3AC 2 φ = . (4.36) 3C φ2 = −2 Ostatecznie okaże się, że mamy zakres temperatur A ∈ [0, B 2 /3C], dla których mogą istnieć dwie fazy. W punkcie A = 0 φ2 = −2B/3C, natomiast w punkcie równych energii A = B 2 /3C, φ2 = −B/2C. W punkcie powyżej, którego faza U nie może być już realizowana (wartość wyrażenia pod pierwiastkiem zmienia znak - nie ma już rozwiązań rzeczywistych): A = B 2 /3C, φ2 = −B/3C. Dla A ∈ [0, B 2 /3C] mogą istnieć dwie fazy, przy czym dla A < B 2 /4C warunek minimum absolutnego spełnia faza U , a dla A > B 2 /4C faza N . Przy przejściu w punkcie równych energii tzn. dla A = B 2 /4C skok parametru porządku wynosi φ2 = −B/2C. Wobec tego dla B < 0 teoria Landaua opisuje przejścia nieciągłe. 28 4.1.3 Gdzie są fluktuacje? Jak już wielokrotnie podkreślałam, fluktuacje odgrywają niezwykle istotną, można powiedzieć fundamentalną rolę w przejściach fazowych. Nie tylko determinują zachowanie się wielkości w pobliżu przejścia, ale przede wszystkim samo przejście. A jednak, przedstawiona w tym rozdziale teoria Landaua całkowicie zaniedbuje fluktuacje parametru porządku. Fluktuacje te jednak można wprowadzić zapisując parametr porządku w znanej już nam formie: φ(ri ) = φ + δφ(ri ), (4.37) gdzie δφ(ri ) opisuje fluktuacje parametru porządku w punkcie ri . Założenie, które zrobił Landau polegało na przyjęciu φ(ri ) = φ, czyli δφ(r) = 0. Rozszerzeniem jego teorii jest tzw. teoria Landaua-Ginsburga, która uwzględnia występowanie fluktuacji (najniższy rząd) w układach izotropowych. Teoria ta Jak wiemy w przypadku fluktuacji parametru porządku funkcję korelacyjną możemy zapisać jako: G(ri , rj ) = hφ(ri )φ(rj )i =< φ(ri ) >2 + hδφ(ri )δφ(rj )i (4.38) Jeżeli dopuścimy zależność parametru porządku od położenia to w rozwinięciu Landaua, obok wyrazów proporcjonalnych do φ(r) musimy uwzględnić również pochodne parametru porządku względem zmiennych przestrzennych. Dla układu izotropowego najniższego rzędu wyraz tego rodzaju ma postać c[∇φ(r)]2 . Wykorzystując dla tak zmodyfikowanego rozwinięcia warunek na minimum funkcjonału G otrzymamy wówczas wspominaną już wcześniej postać funkcji korelacyjnej (postać Orsteina-Zernike): Gzw (r) ∼ exp − rξ rd−2−η . (4.39) W 2003 roku Nagrodę Nobla z fizyki dostali: Witalij Ginzburg (Rosja) i Aleksiej A. Abrikosow (Rosja, a ostatnio USA) za ”pionierski wkład do teorii nadprzewodnictwa” oraz Anthony J. Leggett (Wielka Brytania i ostatnio USA) za ”pionierski wkład do teorii nadciekłości”. Fragment wykładu Noblowskiego wygłoszonego przez Alexeia A. Abrikosova 8 grudnia 2003: In 1950, Vitalii Ginzburg and Lev Landau published their famous paper on the theory of superconductivity. The approach was based on the general theory of the second order phase transitions proposed by Landau in 1937. There Landau introduced the main variable, the so called “order parameter” which was finite below the transition and zero above it. Different phase transitions had different order parameters, and whereas it was evident for, e. g., the ferromagnetic transition, namely, the spontaneous magnetization, it was far less evident for the superconducting transition. Ginzburg and Landau had a stroke of genius, when they chose, as the order parameter some sort of wave function. (...) Fragment artykułu ”‘Nobel z fizyki: za nadprzewodnictwo i nadciekłość”’, Gazeta Wyborcza 07.10.2003 Nagrodą Nobla nagrodzono fizyków, których teorie pomogły okiełznać dwa niezwykłe zjawiska przyrody: nadprzewodnictwo (w materiałach, w których 29 prąd elektryczny płynie bez żadnych strat energii) oraz nadciekłość (w cieczy, która nie ma lepkości, a więc każdy wir trwa w niej wiecznie). Jak płynie wieczny prąd Zacznijmy od elektryczności, bo to ona stała u podstaw rewolucji technicznej XX wieku. W powietrzu, w wodzie i na ziemi siła tarcia hamuje wszystko, co się porusza. Podobnie prąd elektryczny, czyli strumień elektronów, napotyka opór w metalach, nawet dobrych przewodnikach. Opór sprawia, że energia prądu się rozprasza, a materiał, przez który płynie prąd, rozgrzewa się. Dobrze o tym wie każdy, kto trzymał w ręce rozgrzane prądem żelazko. Dzięki temu również świeci rozżarzone do białości włókno żarówki. Niespodziewanie na początku XX wieku holenderski fizyk Heike KamerlinghOnnes odkrył, że istnieją materiały, w których opór elektryczny całkowicie znika. W odróżnieniu od zwykłych przewodników (np. miedzi, aluminium) nazwano je nadprzewodnikami, a samo zadziwiające zjawisko - nadprzewodnictwem. W pętli wykonanej z nadprzewodnika prąd będzie krążył wiecznie, bo jego energia nie ulegnie rozproszeniu. Praktyczne równania Przez niemal pół wieku bezskutecznie starano się wyjaśnić to zjawisko. Dopiero na początku lat 50. rosyjscy uczeni Lew Landau i Witalij Ginzburg przedstawili równania, które świetnie radziły sobie z opisem własności nadprzewodników. Wprawdzie nie tłumaczyły one, co takiego dzieje się z prądem w mikroskali - na poziomie elektronów (to dopiero później było zasługą tzw. teorii BCS nagrodzonej Noblem), ale teoria okazała się nieoceniona dla praktycznego wykorzystania nowych materiałów w technice i badaniach naukowych. Niecałą dekadę później Aleksiej Abrikosow wykorzystał ich metodę do opisu tzw. nadprzewodników II rodzaju, których ”cudowne” własności nie znikają nawet w silnych polach magnetycznych. Dzięki temu nadprzewodniki zaczęły robić wielką karierę w badaniach naukowych. Konstruuje się z nich silne elektromagnesy, w które są wyposażone najlepsze laboratoria - np. akceleratory i detektory cząstek elementarnych. Korzysta się z nich w medycynie - w szpitalnych tomografach, skanerach rezonansu jądrowego i dosłownie wszędzie tam, gdzie potrzeba silnego pola magnetycznego. Cieplej, coraz cieplej Do niedawna nadprzewodniki musiały być schładzane ciekłym helem, który skrapla się w temperaturze minus 269 st. C. W połowie lat 80. okazało się, że nadprzewodnictwo nie jest ograniczone wyłącznie do temperatur zbliżonych do zera bezwzględnego. Odkryto materiały ceramiczne, które nadprzewodzą w wyższych temperaturach. Dziś trwa pogoń za takimi nadprzewodnikami, w których prąd będzie płynąć wiecznie w temperaturze takiej, jaka panuje na powierzchni Ziemi. Dlaczego? Można byłoby z nich zbudować linie przesyłowe, które dostarczą prąd z elektrowni do domów i fabryk bez kosztownych strat (dziś po drodze traci się średnio 30 proc. energii). Mogłyby powstać elektromagnesy, które nie będą wymagały nieustannego i kosztownego chłodzenia, a z ich pomocą - rozpowszechnić pociągi na poduszkach magnetycznych i tanie szpitalne tomografy. Dalszej miniaturyzacji uległaby też elektronika (dziś procesory nie mogą mieć zbyt małych rozmiarów, bo przegrzewają się). 30 Stare teorie, których podstawy ułożyli m.in. Ginzburg i Abrikosow, są wciąż używane, również do opisu nadprzewodników nowego typu i mogą przyczynić się do prawdziwej rewolucji technologicznej. I pewnie dlatego spotkały się z uznaniem Komitetu Noblowskiego. Można też podejrzewać, że nadrabia on opóźnienia w nagradzaniu często kiedyś niedocenianych osiągnięć naukowców, którzy pracowali w b. ZSRR. Jak wiecznie wiruje ciekły hel Jury noblowskie jednocześnie nagrodziło Anthony’ego J. Leggetta za teoretyczny opis zachowania się ciekłego helu-3 w niskiej temperaturze. Ale co ma wspólnego ciekły hel z wiecznie płynącym prądem? Wbrew pozorom wiele. Gdy hel zostanie schłodzony prawie do zera bezwzględnego, z cieczy podobnej do tych, jakie znamy na co dzień, zmienia się w ciecz kwantową. Traci lepkość, co oznacza, że gdy np. wiruje, nie traci energii na wewnętrzne tarcie i może poruszać się bez końca. Jego cieniutka warstewka przykleja się i ślizga po powierzchni, może np. ”wypełznąć” po ściankach z naczynia. Deszcz z nadciekłego helu swobodnie przeciekałby przez parasole, bo przeciska się on nawet przez najmniejsze dziurki rzędu zaledwie dziesiątek mikrometrów. Rosyjski fizyk Piotr Kapica, który po raz pierwszy zaobserwował to dziwne zjawisko, nazwał je nadciekłością. Okazuje się przy tym, że atomy nadciekłego helu-3 zachowują się podobnie jak elektrony prądu, które bez straty energii płyną w nadprzewodniku. 31 32 Rozdział 5 Model Perkolacji w Ekonomii 5.1 Model Conta-Bouchaud Model został zaproponowany przez dwóch fizyków, a obecnie finansistów, Rama Conta i Jean-Philippa Bouchaud (Rama Cont i Jean-Philipp Bopuchaud, HERD BEHAVIOR AND AGGREGATE FLUCTUATIONS IN FINANCIAL MARKETS, Macroeconomic Dynamics, 4, 170–196 (2000)). Rozważmy układ składający się z N agentów, oznakowanych przez liczby naturalne 1 ¬ i ¬ N , handlujących w pewnym dobrem, którego cenę w chwili t oznaczymy przez x(t). W każdym przedziale czasowym (każdej chwili czasu) agent może albo kupować albo sprzedawać albo w ogóle nie handlować. Dla uproszczenia przyjmiemy, że w każdym przedziale czasowym agent może handlować tylko pojedynczą jednostką kapitału. Wobec tego stan każdego agenta i reprezentowany jest przez zmienną losową φi = 0, −1, 1, przy czym: -1 bear 0 φi = 1 bull chce sprzedać nie handluje chce kupić (5.1) Skumulowany nadmiar popytu nad podażą w chwili t jest wobec tego: D(t) = N X φi (t). (5.2) i=1 Zakładamy, że początkowy rozkład roszczeń agentów jest symetryczny, tzn. P (φi = +1) = P (φi = −1) = a0.5cmP (φi = 0) = 1 − 2a. (5.3) Wobec tego średnio D = 0 czyli układ fluktuuje wokół stanu równowagi. Pojawia się teraz pytanie jak zdefiniować cenę lub jej zmianę (tzw. zwrot). Autorzy założyli, że zwrot jest proporcjonalny do D, czyli: ∆x = x(t + 1) − x(t) = N 1X φi (t), λ i=1 (5.4) gdzie λ jest parametrem mierzącym wrażliwość ceny na fluktuacje podaży. Oczywiście związek między nadwyżką podaży a zwrotem ceny nie musi być liniowy i w ogólności 33 kształtowanie się ceny to bardzo złożony proces. Jednak w modelu CB uproszczenia przyjęto zależność liniową Zacznijmy od najprostszego przypadku, tzn. φi są niezależnymi zmiennymi losowymi o tym samym rozkładzie (independent identically distributed random variables). W takim przypadku łączny rozkład agentów jest po prostu rozkładem Gaussa zgodnie z centralnym twierdzeniem granicznym. Jednakże agenci w prawdziwym rynku nie są niezależni. Musimy jakoś wprowadzić miedzy nimi komunikację. Jedną z możliwości jest założenie istnienia pewnej struktury komunikacji między agentami, ale pytanie jaka to powinna być struktura? Wyniki prawdopodobnie silnie zależałyby od wybranej przez nas struktury. Innym pomysłem jest założenie, że struktura komunikacji na rynku jest stochastyczna. Jedną z możliwości w takim przypadku są losowe spotkania agentów i że do transakcji dochodzi wówczas gdy agent który chce sprzedać spotka takiego, który chce kupić. Taka procedura nosi w literaturze nazwę random matching (RM). Innym pomysłem na wygenerowanie losowej struktury jest rozważenie klastrów jakie tworzą agenci poprzez proces RM i założenie, że handel nie odbywa się wewnątrz grup, ale wszyscy agenci należący do tego samego klastra dostosowują się do pewnej wspólnej strategii. Różne grupy mogą ze sobą nawzajem handlować. Takie klastry mogą reprezentować grupy inwestorów. Taki właśnie pomysł pojawił się w pracy Conta-Bouchaud. Teraz przejdźmy do bardziej szczegółowego opisu modelu. Załóżmy, że wszyscy agenci należący do danego klastra mają takie same żądanie φα , gdzie α = 1...k indeksuje klastry. Wobec tego: ∆x = 1X kWα φα (t), λ α=1 (5.5) gdzie Wα jest wielkością klastra, a φalpha (wspólną) decyzją agenta w danym klastrze α. Klaster tworzą agenci, którzy są połączeni. Niech pij będzie prawdopodobieństwem, że agenci i i j są połączeni. Dla uproszczenia załóżmy, że wszystkie połączenia są równo prawdopodobne, tzn. pij = p. Oczywiście (N − 1)p jest średnią liczbą połączeń agentów z jednym wybranym agentem. Oczywiście nas interesuje, jak zwykle w teorii przejść fazowych, granica N → ∞. Wobec tego p powinno być tak wybrane, żeby (N − 1)p miało lim skończoną granicę N → ∞ (N − 1)p = c. Naturalnym wyborem jest pij = p = c/N , gdzie c mierzy stopień sklastrowania agentów. Taka struktura znana jest jako graf losowy (random graph). Można pokazać, że jeżeli c = 1 wówczas rozkład wielkości klastrów dany jest prawem potęgowym: A (5.6) P (W ) ∼ 5/2 , W podczas gdy dla c < 1, ale takich, że (0 < 1 − c << 1) rozkład wielkości klastrów jest obcięty przez wykładniczy ogon tzn. A (c − 1)W P (W ) ∼ 5/2 exp − W W0 ! . (5.7) Oznacza to, że dla c = 1 rozkład ma nieskończoną wariancję, podczas gdy dla c < 1 wariancja staje się skończona. 34 5.2 Samoorganizujący się model perkolacji fluktuacji na rynku finansowym W roku 1999 Dietrich Stauffer i Didier Sornette zaproponowali modyfikację powyższego modelu. Model C-B zakładał, że inwestorzy są połączeni z pewnym prawdopodobieństwem i w ten sposób tworzą klastry. Następnie utworzone losowo klastry (tzn. wszyscy inwestorzy w danym klastrze) podejmują decyzję kupić z prawdopodobieństwem a czy sprzedać z a, czy też nie handlować z prawdoodobieństwem 1 − 2a. To jest w gruncie rzeczy idea oparta na modelu perkolacji. W modelu C-B założono dodatkowo, że zwrot ceny zależy liniowo od różnicy między popytem a podażą. Dla małych a zwykle handluje najwyżej jeden klaster i w konsekwencji rozkład zwrotów P (R) skaluje się zgodnie z dobrze znanym rozkładem wielkości klastrów w teorii perkolacji. Dla dużej aktywności a i bez nieskończonego klastra (p < pc ), zwroty są sumą wielu klastrów i wówczas zgodnie z centralnym twierdzeniem granicznym rozkład jest normalny (Gaussowski). Dla niskiej aktywności a w progu perkolacji p = pc , kiedy pojawia się nieskończony klaster obserwujemy prawo potęgowe. Dla p 6= pc liczba klastrów zanika wykładniczo (p < pc ) lub stretched exponential (p > pc ). Czasowe korelacje zmienności można zmierzyć pozwalając inwestorom powoli dyfundować do najbliższego sąsiedztwa. Ta dyfuzja pozwala na zmianę w czasie grup inwestycyjnych. Przypomnijmy, że zmienność jest zdefiniowana jako wartość bezwzględna ze zwrotu i jej korelacje czasowe powinny być dalekozasięgowe w przeciwieństwie do korelacji czasowych samych zwrotów. Zmienność zachowuje się podobnie jak średnia wielkość klastra i czasowe korelacje spowodowane są powolną dyfuzją z typowym zanikiem wolniejszym niż wykładniczy. Wobec tego model C-B w progu perkolacji zgadza się jakościowo (ale nie ilościowo) z trzema znanymi własnościami rynku (stylized facts): 1. średni zwrot R = 0, pod warunkiem, że nie ma inflacji i odrzucimy inne stale trendy, 2. ogon rozkładu zwrotów P (R) zanika zgodnie z prawem potęgowym 3. Czasowa korelacja zmienności V (t) =< R(t)2 >1/2 zanika powoli do zera. Pojawia się pytanie: 1. Dlaczego rynek miałby coś wiedzieć w progu perkolacji i pracować właśnie w tym progu? Żeby poradzić sobie z tym problemem zaproponujemy teraz pewną modyfikację C-B. Dlaczego p = pc ? Nowy pomysł polega na tym, że p w ogóle nie musi być stałe. Nie ma powodu, żeby tak było. Jak zmieniać p? Najprościej wybierać nowe losowe p w każdym kroku czasowym. W konsekwencji rozkład zwrotów będzie uśrednieniem po 35 36 Rozdział 6 Modele Ten rozdział jest w trakcie uzupełniania - zachęcam do korzystania z literatury, notatek z wykładu oraz prezentacji PPT dostępnej na panoramixie. 37 38 Rozdział 7 Co wiemy na pewno? - czyli ścisłe wyniki w teorii przejść fazowych Ten rozdział jest w trakcie uzupełniania - zachęcam do korzystania z literatury i notatek z wykładu. 7.0.1 Jednowymiarowy model Isinga z polem i dwuwymiarowy bez pola. 7.0.2 Model Perkolacji typu bond na sieci kwadratowej. 7.0.3 Twierdzenie van Hove’a Żaden układ o skończonym zasięgu oddziaływań nie może wykazywać dalekiego porządku w temperaturach wyższych od zera. 7.0.4 Twierdzenie Mermina-Wagnera Twierdzenie Mermina-Wagnera mówi, że w jedno- i dwuwymiarowych sieciowych układach spinowych nie istnieje uporządkowanie dalekiego zasięgu w dodatnich temperaturach, jeśli układ posiada ciągłą grupę symetrii (jak np. model Heisenberga lub XY). Twierdzenie to, mimo iż jest znane od 40 lat, ciągle jest jednym z ważniejszych faktów w dziedzinie przejść fazowych. Zainteresowanych odsyłam do pracy źródłowej, która ukazała się w roku 1966 w niezwykle prestiżowym czasopismie fizycznym Physical Review Letters (PRL): N. D. Mermin and H. Wagner ’Absence of Ferromagnetism or Antiferromagnetism in one- or two-dimensional isotropic Heisenberg models’, PRL 17, 1133 (1966) 39 40 Rozdział 8 Metoda Średniego Pola - Mean Field Approximation (MFA) Teoretyczny opis zjawiska fizycznego składa się zazwyczaj z trzech etapów: 1. Skonstruowania lub wyboru spośród już istniejących odpowiedniego modelu. 2. Rozwiązania modelu, a więc wyznaczenie wielkości mierzalnych eksperymentalnie. 3. Interpretacji otrzymanych wyników. Podstawą etapów pierwszego i trzeciego jest coś nie do końca zdefiniowanego, a nazywanego zwykle intuicją fizyczną. Natomiast etapu drugiego umiejętność sensownego ”psucia matematyki”, tzn. umiejętność wyboru i zastosowania właściwego przybliżenia, które będzie na tyle proste, że da się efektywnie zastosować, a jednocześnie na tyle wiarygodne, że nie będzie zachodziła obawa, iż otrzymane wyniki bardziej zależą od użytego przybliżenia niż od rozważanego modelu. Najprostszą możliwie teorią, a jednocześnie bardzo ważną jest teoria pola średniego MFA. W wielu skomplikowanych problemach fizyki statystycznej jest to praktycznie jedyne dostępne narzędzie badawcze. Chociaż przybliżenie MFA jest bardzo grube i niekiedy całkowicie błędne, to prostota tej metody zapewnia jej ciągle ważne miejsce w mechanice statystycznej, a do końca lat 60-tych była ona właściwie jedyną teorią przejść fazowych. Podstawowym problemem przy analizie układów doznających przejść fazowych jest konieczność uwzględnienia ogromnej liczby stopni swobody istniejących w takim układzie. W najmniejszym układzie, który możemy uznać za makroskopowy mamy do czynienia z N ∼ 102 3 cząstek, z których nawet w najprostszym modelu Isinga każda ma dwa stopnie swobody, a więc układ może zajmować 2N stanów. Przy takiej ogromnej liczbie stanów znalezienia sumy stanów jest oczywiście zadaniem beznadziejnym. Naturalną drogą postępowania jest więc wybranie małego kawałka badanego układu i analizując własności tego kawałka próba odtworzenia własności całego układu. Najprostszym wyborem jest oczywiście ograniczenie się tylko do jednego elementu badanego układu, a więc np. do jednego spinu i zastąpienie oddziaływania tego spinu z pozostałymi pewnym polem zwanym polem molekularnym, albo polem średnim. Oznacza to, oczywiście, założenie, że w każdym miejscu układu mamy ten sam obraz, a każdy element (spin) jest niezależny i porusza się w ustalonym otoczeniu określonym przez średnią wartość takich niezależnych ruchów. Innymi słowy podstawowe założenie teorii pola średniego mówi, że przy badaniu własności danego układu można zaniedbać wszelkie fluktuacje. To oczywiście nie zawsze, a 41 nawet nieczęsto jest prawdę. W szczególności wiemy, już że w pobliżu punktu krytycznego fluktuacje stają się nieskończone, więc założenie MFA wydaje się zupełnie bezsensowne. Zwykle gdy opowiadam o tym studentom, wybałuszają oczy i mówią, że to nie możliwe żeby robić takie rzeczy ... Cóż nie od dzisiaj wiadomo, że fizycy to czarodzieje (albo oszuści, jak mówią zazdrośnicy). Prawdą jest, że z oczywistych powodów metoda pola średniego nie zawsze daje dobre wyniki, ale z drugiej strony często jest jest jedyną dostępną metodą analityczną. Z tego też powodu, przez kilka następnych godzin zatrzymamy w świecie średniego pola i zobaczymy jak w tym świecie wyglądają różne znane nam już i nieznane jeszcze modele. Punktem wyjścia dla metod przybliżonych jest twierdzenie Peierlsa i właśnie od niego zaczniemy wykład poświęcony MFA. 8.0.5 Twierdzenie Peierlsa Twierdzenie Peierlsa mówi tyle, że modelowe (przybliżone) wyrażenie dla sum stanów leży poniżej ścisłej wartości. Dowód tego twierdzenia zainteresowani mogą znaleźć w skrypcie do wykładu Pękalskiego z teorii przejść fazowych. 8.0.6 Metoda MFA dla modelu Isinga Oczywiście hamiltonian modelu Isinga bez pola wszyscy już znakomicie pamiętają, ale dla porządku zapiszmy: X H = −J Si Sj . (8.1) <i,j> Pamiętacie jeszcze tą sztuczkę? Si =< Si > +δSi = m + δSi . (8.2) Wstawiając to do hamiltonianu otrzymujemy: H = −J X (m + δSi )(m + δSi ) = −J <i,j> 2 X (m2 ) + mδSi + mδSj + δSi δSj ) <i,j> = N Jzm − 2mJz X i Si − J X δSi δSj , (8.3) <i,j> gdzie z to liczba najbliższych sąsiadów. Żeby nie było załatwo to oczywiście policzymy to dokładnie na ćwiczeniach. Na razie musicie uwierzyć na słowo, że wynik jest właśnie taki. Przybliżenie pola średniego polega na pominięciu fluktuacji, a więc średnio-polowy Hamiltonian Isinga ma następująca postać: HM F A = N Jzm2 − 2mJz X Si . (8.4) i Jak widać więc założenie o braku fluktuacji doprowadziło nas do wyniku, że hamiltonian można przedstawić jako sumę dwu członów - pewnej stałej N Jzm2 oraz oddziaływania P pojedyńczej cząstki z pewnym efektywnym polem −2mJz i Si . Teraz jak to zwykle bywa musimy policzyć sumę stanów, a następnie energię swobodną itd. Ale to już zostawmy sobie na ćwiczenia. 42 8.0.7 Metoda MFA dla modelu Perkolacji Bardzo lubię ten przykład zastosowania metody średniego pola, ponieważ pokazuje on, że czasami średnie pole potrafi wyprodukować przejście fazowe tam gdzie wcale go nie ma. Mam nadzieję, że wszyscy pamiętają model perkolacji. Rozważmy problem perkolacji wiązań. Interesuje nas więc pytanie jaka jest krytyczna wartość koncentracji wiązań (mostów), przy której powstanie nieskończony klaster. Niech prawdopodobieństwo tego, że dwa dowolne węzły sieci są połączone (tzn. że istnieje wiązanie) wynosi p, a prawdopodobieństwo, że i-ty węzeł należy do nieskończonego klastra Pi . Oczywiście prawdopodobieństwo tego, że węzeł i-ty nie należy do nieskończonego klastra jest równe 1 − Pi . Żeby dany węzeł należał do nieskończonego klastra to musi on mieć przy najmniej jednego sąsiada j, z którym jest połączony mostem, i który sam należy do nieskończonego klastra. Prawdopodobieństwo tego jest równe iloczynowi prawdopodobieństw pPj . Prawdopodobieństwo tego, że sąsiad j-ty nie spełnia tych warunków jest równe 1 − pPj . Zakładając, że liczba najbliższych sąsiadów jest równa z mamy: 1 − Pi = z Y (1 − pPj ). (8.5) j=1 Założenie średniego pola mówi, że ”w każdym punkcie układu mamy to samo”, czyli ∀i Pi = P , czyli w przybliżeniu MFA otrzymujemy: 1−P = z Y (1 − pP ) = (1 − pP )z . (8.6) j=1 Wyobraźmy sobie teraz układ jednowymiarowy. Jak myślicie jakie musi być p, żeby postał nieskończony klaster? Oczywiście, jeżeli zabraknie tylko jednego mostu to już nie przejdziemy z jednego końca układu na drugi, a to znaczy, że nie będzie istniał nieskończony klaster. Czyli dla sieci jednowymiarowej p musi być równe jeden, żeby istniał nieskończony klaster. Nie istnieje więc żadna wartość krytyczna pc . A co mówi wynik średniopolowy? Dla sieci jednowymiarowej z = 2, czyli mamy: 1−P = z Y (1 − pP ) = (1 − pP )2 . (8.7) j=1 To równanie ma dwa rozwiązania P = 0 i P = (2p − 1)/p2 . Oznacza to, że dla p > 1/2 istnieje niezerowe prawdopodobieństwo pojawienia się nieskończonego klastra, bo wówczas P > 0. Jak widać MFA daje czasami zupełnie absurdalne wyniki 43 44 Rozdział 9 Metody Monte Carlo Metoda Monte Carlo jest metodą obliczania wielkości dających się przedstawić w postaci wartości oczekiwanej pewnych rozkładów probabilistycznych. Niech a oznacza poszukiwaną wielkość, może to być na przykład magnetyzacja układu spinów Isinga, i jest wartością oczekiwaną a = EX pewnej zmiennej losowej X. Jeżeli jesteśmy w stanie generować niezależne wartości S1 , S2 , ... z rozkładu zmiennej X, to z mocnego prawa wielkich liczb wynika, że: 1 (9.1) lim (S1 + ... + Sn ) = a. n→∞ n Metoda Monte Carlo polega więc na szacowaniu wielkości a przez średnią z pewnej odpowiednio dobranej n elementowej próby. W swojej autobiografii, twórca metody Monte Carlo i wybitny polski matematyk, Stanisław Ulam wspomina ”(...) Pomysł ten, nazwany później metodą Monte Carlo, wpadł mi do głowy, kiedy podczas choroby stawiałem pasjanse. Zauważyłem, że znacznie praktyczniejszym sposobem oceniania prawdopodobieństwa ułożenia pasjansa (takiego jak Canfield, gdzie umiejętności gracza nie mają większego znaczenia) jest wykładanie kart, czyli eksperymentowanie z procesem i po prostu zapisywanie procentu wygranych, niż próba obliczenia wszystkich możliwości kombinatorycznych, których liczba rośnie wykładniczo i jest tak wielka, że pomijając najprostsze przypadki, jej oszacowanie jest niemożliwe. (...)”. A jak sytuacja przedstawia się w przypadku fizyki statystycznej? W najmniejszym układzie makroskopowym znajduje się przynajmniej N ≈ 1023 cząstek. Zwykle rzeczywiście nie udaje nam się rozwiązać zagadnień fizyki statystycznej ściśle. W takiej sytuacji metody Monte Carlo są często najbardziej wiarygodnymi spośród wszystkich metod jakimi dysponuje współczesna fizyka statystyczna. Jak wspominałam, mocne prawo wielkich liczb zapewnia, że możliwe jest szacowanie różnych wielkości przez średnie z pewnej odpowiednio dobranej próby. Oczywiście sedno sprawy tkwi w stwierdzeniu ”‘odpowiednio dobranej”’. W jaki sposób należy dobrać próbę w przypadku modeli fizyki statycznej? Odpowiedź na to pytanie możemy znaleźć w podstawowych postulatach termodynamiki i fizyki statystycznej: • Każdy układ przy niezmiennych warunkach zewnętrznych znajduje się w stanie równowagi termodynamicznej, a jeżeli przy takich warunkach nie jest w stanie równowagi to w końcu do stanu równowagi termodynamicznej przechodzi. • Temperatura jest parametrem określającym równowagę termodynamiczną. 45 • Niech Eα będzie energią mikrostanu oznaczonego indeksem α. Jeżeli układ jest w równowadze termicznej z termostatem o temperaturze T to prawdopodobieństwo pα , że układ znajduje się w mikrostanie α jest proporcjonalne do exp(−βEα ), gdzie β = 1/kB T , kB = 1.38 ∗ 10−23 J ∗ K −1 jest stałą Boltzmanna. To podstawowe założenie fizyki statystycznej często zastępuje się innym, wiążącym entropię z objętością przestrzeni fazowej, ale dla naszych potrzeb wygodniejsza będzie relacja opisującą prawdopodobieństwo znalezienia układu w stanie o danej energii. Z powyżej przyjętego, podstawowego założenia fizyki statystycznej można wyprowadzić wszystkie niezależne od czasu charakterystyki układu w równowadze termodynamicznej. Ponieważ układ zawsze musi być w jednym z możliwych stanów, więc suma z prawdopodobieństw po wszystkich stanach musi być równa 1. Znormalizowane prawdopodobieństwo (oznaczymy je jako Peq (α), ponieważ jest to prawdopodobieństwo równowagowe) jest więc równe: Peq (α) ≡ pα = 1 exp(−βEα ), Z (9.2) P Gdzie czynnik normalizujący Z = α exp(−βEα ) nosi w polskiej literaturze nazwę sumy stanów (partition function). Rozkład prawdopodobieństwa zdefiniowany wzorem (9.2) nosi nazwę rozkładu Gibbsa i przy jego pomocy można wyznaczyć średnią termodynamiczną < X > dowolnej wielkości X: < X >= X α pα Xα = X Peq (α)Xα = α X α exp(−βEα ) Xα . l exp(−βEl ) P (9.3) Oczywiście, aby obliczyć te średnie musimy znać zarówno wszystkie mikrostany układu, jak i ich energie oraz wartości Xα jakie przyjmuje X w każdym z mikrostanów. Z punktu widzenia teorii prawdopodobieństwa X jest niczym innym jak pewną zmienną losową, która może przyjmować jedną z dopuszczalnych wartości Xα zgodnie z rozkładem prawdopodobieństwa Gibbsa pα zadanego wzorem (9.2). Wyobraźmy sobie, że rozkład prawdopodobieństwa naszej zmiennej losowej zmienia się w czasie. Dla ustalenia uwagi, niech naszą zmienną losową będzie magnetyzacja: m= N 1 X Si N i=1 (9.4) układu N spinów Isinga bez pola zewnętrznego. Początkowo układ znajduje się w pewnym konkretnym stanie początkowym - na przykład wszystkie spiny ustawione są ”‘do góry”’, tzn. m(0) = m0 = 1 (co odpowiada jednemu z dwóch stanów niskotemperaturowych T → 0, w których ogólnie |m| = 1 ). Rozkład początkowy naszej zmiennej losowej w tym przypadku jest deltą Diracka Pm (0) = δm,m0 = δm,1 . Interesuje nas natomiast jaka będzie wartość naszej zmiennej losowej w pewnej temperaturze T = T1 >> 0. Z postulatów fizyki statystycznej wiemy, że układ będzie dążył do równowagi z termostatem, więc spodziewamy się ewolucji naszej zmiennej losowej. Ewolucja ta ma również swój odpowiednik w teorii prawdopodobieństwa - jest to tak zwany proces stochastyczny. Najprościej rzecz ujmując, procesem stochastycznym nazwiemy funkcję, która każdej chwili t przypisuje pewną zmienną losową Xt . Warto również zauważyć, że z punktu widzenia fizyki statystycznej proces stochastyczny można w gruncie rzeczy traktować jako zespół realizacji procesu (tzw. trajektorii). W naszym przykładzie zmienną losową była magnetyzacja, 46 ale z punktu widzenia fizyki statystycznej odpowiedniejszym wyborem dla tego samego układu byłaby konfiguracja σ opisująca mikrostan układu. W takim przypadku proces stochastyczny miałby pewną bardzo wygodną własność - byłby procesem markowskim. 9.1 Łańcuch Markowa i równanie Master Procesy Markowa to procesy stochastyczne polegające na tym, że warunkowe rozkłady prawdopodobieństwa przyszłych stanów procesu są zdeterminowane wyłącznie przez jego bieżący stan, bez względu na przeszłość. Bardzo ważne w symulacjach Monte Carlo i szczególnie interesujące, z punktu widzenia zastosowań w fizyce, są procesy Markowa, będące łańcuchem Markowa, tzn. 1. Zbiór wartości procesu jest dyskretny 2. Czas jest dyskretny i przyjmuje wartości całkowite Należy przy tym zauważyć, że nie wszyscy autorzy wymagają spełnienia obu punktów, a na przykład van Kampenn dodaje do powyższej definicji jeszcze własność stacjonarności. Najczęściej wymaga się jednak spełnienia tylko drugiej własności - w takim ujęciu łańcuch Markowa jest procesem Markowa z dyskretnym czasem. Badania nad tym niezwykle ważnym dla fizyki, nowym typem procesu stochastycznego, A. A. Markov rozpoczął już w 1907. Zdefiniujmy proces stochastyczny z czasem dyskretnym t1 < t2 < . . . < tn , dla układu ze skończoną liczbą możliwych stanów σ1 , σ2 , σ3 , . . . , σN . Zmienna losowa Xt opisuje stan układu w chwili t. Warunkowe prawdopodobieństwo na to, że Xtn = σin można zapisać: P (Xtn = σin |Xtn−1 = σin−1 , Xtn−2 = σin−2 , ..., Xt1 = σi1 ), (9.5) zakładając, że w poprzednim czasie zmienna losowa Xtn−1 była w stanie σin−1 , i etc. Dla procesu Markowa, w którym prawdopodobieństwo warunkowe jest zależne tylko od poprzedniego stanu: P (Xtn = σin |Xtn−1 = σin−1 , ..., Xt1 = σi1 ) = P (Xtn = σin |Xtn−1 = σin−1 ). (9.6) Powyższe prawdopodobieństwo warunkowe może być interpretowane jako prawdopodobieństwo przejścia ze stanu i do stanu j Wij = W (σi → σj ) = P (Xtn = σj |Xtn−1 = σi ). (9.7) Wij ­ 0, Wij = 1, (9.8) Spełnia ono warunki: X j które są wymagane dla prawdopodobieństwa przejścia. Możemy zatem, w przypadku łańcucha Markowa, zapisać prawdopodobieństwo P (Xtn = σj ) tego, że w czasie tn układ znajdzie się w stanie σj jako: P (Xtn = σj ) = P (Xtn = σj |Xtn−1 = σi )P (Xtn−1 = σi ) = Wij P (Xtn−1 = σi ). 47 (9.9) Równanie master opisuje dynamikę takiego układu, czyli zmianę prawdopodobieństwa P w czasie t (przy założeniu, że interwały czasowe są nieskończenie małe możemy przejść do postaci ciągłej P (Xtn = σj ) = P (σj , t)): X X dP (σj , t) =− Wji P (σj , t) + Wij P (σi , t). dt i i (9.10) Równanie to jest zwane także równaniem bilansu czy równaniem fundamentalnym. Zgodnie z wcześniej wymienionymi postulatami fizyki statystycznej żądamy aby P (σj , t) osiągnęło rozkład równowagowy Gibbsa: Peq (σj ) = Z −1 e−E(σj )/T . (9.11) Takie żądanie narzuca naturalnie pewne ograniczenia na prawdopodobieństwa przejścia Wij . Zwykle zakładamy, że prawdopodobieństwa te powinny spełniać warunek równowagi szczegółowej (inaczej warunek mikroodwracalności): Wji Peq (σj ) = Wij Peq (σi ). (9.12) W ogólności układ może nie osiągać stanu równowagowego, lecz jedynie stan stacjonarny, tzn. dP (σj , t) = 0. (9.13) dt W takim przypadku, z równanie fundamentalnego: X Wji Pstady state (σj ) = i X Wij Pstady state (σi ). (9.14) i Powyższy warunek nosi nazwę warunku stacjonarności. Naturalnie warunek równowagi szczegółowej jest znacznie silniejszym warunkiem niż warunek stacjonarności, jednak żaden z nich nie definiuje jednoznacznie prawdopodobieństw przejścia Wij . W przypadku zastosowania metody Monte Carlo w zespole kanonicznym, warunek równowagi szczegółowej spełnia np. funkcja Metropolisa Wij = min(1, exp(−β∆H)). 9.2 (9.15) Model Isinga i dynamika Glaubera Rozważmy układ spinów Isinga Si = ±1, i = 1, 2, ..., N , gdzie Si oznacza stan i-tego spinu. Jak wspominałam, w takim przypadku wygodnie będzie jako zmienną losową wybrać stan układu σ. Początkowo układ znajduje się w pewnym określonym stanie (na przykład wszystkie spiny ”‘w dół”’), ale pod wpływem zadanego procesu, w kolejnych chwilach czasu t może się znaleźć w innych stanach σ z prawdopodobieństwem P (σ, t). Ewolucja czasowa prawdopodobieństw P (σ, t) zadana jest, zgodnie z poprzednim rozdziałem, równaniem fundamentalnym, które w postaci dyskretnej ma postać: P (σ, t + 1) − P (σ, t) = X [P (σ 0 , t)w(σ 0 → σ) − P (σ, t)w(σ → σ 0 )] . σ0 48 (9.16) Prawa strona równania opisuje bilans ’zysków i strat’, tzn. różnicę pomiędzy przejściami ze stanów σ 0 do interesującego nas stanu σ i przejściami z σ do innych stanów σ 0 , a w(σ 0 → σ) i w(σ → σ 0 ) określają częstości tych przejść. Jak już wspomniałam, w fizyce statystycznej żądamy, żeby P (σ, t) osiągnęło po pewnym czasie rozkład równowagowy: lim P (σ, t + 1) = P (σ, t) = Peq (σ). (9.17) t→∞ Wobec tego z równania fundamentalnego (9.16): X [Peq (σ 0 )w(σ 0 → σ) − Peq (σ)w(σ → σ 0 )] = 0. (9.18) σ0 Powyższy warunek jest warunkiem stacjonarności. W praktyce, jak już wspomniałam, zakłada się zwykle dużo silniejszy warunek równowagi szczegółowej: Peq (σ 0 )w(σ 0 → σ) − Peq (σ)w(σ → σ 0 ) = 0. (9.19) Ponieważ rozkład równowagowy w fizyce statystycznej zadany jest rozkładem Gibbsa (9.2), więc dodatkowo otrzymujemy warunek na prawdopodobieństwa przejścia: w(σ → σ 0 ) = exp(−β(E(σ 0 ) − E(σ))) w(σ 0 → σ) (9.20) Oczywiście, jak już wspomniałam, powyższy warunek nie określa jednoznacznie prawdopodobieństw przejścia w(σ → σ 0 ), w(σ 0 → σ) i rzeczywiście jest wiele możliwych wyborów, które spełniają równanie (9.20). Jednym z możliwych wyborów jest tzw. dynamika Glaubera. W przypadku tej dynamiki zmiana stanu układu polega na obróceniu pojedynczego spinu i wówczas: i Xh d P (σ, t) = w(σ i → σ)P (σ i , t) − w(σ → σ i )P (σ, t) , dt i (9.21) gdzie σ i oznacza konfigurację otrzymaną z σ poprzez obrócenie i-tego spinu, a w(σ → σ i ) jest prawdopodobieństwem przejścia ze stanu σ do σ i , zdefiniowanym w przypadku dynamiki Glaubera w następujący sposób: α 1 w(σ → σ ) = 1 − γSi (Si−1 + Si+1 ) , 2 2 i (9.22) gdzie Si−1 , Si , Si+1 oznaczają stany spinów indeksowanych jako i − 1, i, i + 1, α jest stałą definiującą skalę czasową, a γ = tanh (2J/kB T ). Tak zdefiniowane prawdopodobieństwa przejścia zapewniają, że spełnione są dwa warunki: 1. warunek równowagi szczegółowej, 2. P (σ, t) osiąga po pewnym czasie rozkład równowagowy Gibbsa. Jeżeli przyjmiemy, że krok czasowy α = 1 i interesować nas będzie przypadek temperatury T = 0, który jest przedmiotem niniejszej rozprawy, wówczas: (0) Wi (σ) i ≡ w(σ → σ )T =0 1 1 = 1 − Si (Si−1 + Si+1 ) . 2 2 49 (9.23) Zauważmy, że: (0) Si−1 Si Si+1 Wi (σ) ↑ ↑ ↑ 0 ↓ ↓ ↓ 0 ↓ ↑ ↓ 1 ↑ ↓ ↑ 1 ↓ ↑ ↑ 1/2 ↑ ↑ ↓ 1/2 ↓ ↓ ↑ 1/2 ↑ ↓ ↓ 1/2 (9.24) co oznacza, że przejścia ↑↓↑→↑↑↑, ↓↑↓→↓↓↓, dla których następuje spadek energii realizowane są w T = 0 z prawdopodobieństwem 1, natomiast przejścia przy których energia jest zachowana zachodzą z prawdopodobieństwem 1/2. 50 51 Rozdział 10 Skalowanie Jak wam się wydaje jakie skutki miałoby skonstruowanie słonia nadnaturalnych rozmiarów 1 ? Natura nie tworzy raczej takich dziwactw, ale człowiek bardzo chętnie. Inżynierowie budują coraz wyższe domy i coraz dłuższe mosty. Większy dom musi mieć jednak mocniejsze fundamenty i grubsze ściany. O ile grubsze? Tu przychodzi nam z pomocą skalowanie. Zanim przejdziemy do skalowania w naturze i technice zacznijmy jednak od najprostszego ze skalowań - izometrii, czy inaczej geometrycznego podobieństwa. Weźmy dla przykładu dwa sześciany różnej wielkości - pierwszy o boku L1 , drugi o boku L2 = kL1 . Powiedzmy, że interesuje nas stosunek objętości obu sześcianów, oczywiście: V1 = L31 , V2 = L32 = (kL1 )3 = k 3 L31 = k 3 V1 (10.1) Stosunek objętości sześcianów nie jest więc taki sam jak stosunek liniowy, ale odpowiada wartości współczynnika podniesionej do potęgi trzeciej. Przytoczmy tu dobrze znane fakty: S ∼ L2 V ∼ L3 S ∼ V 2/3 . (10.2) Jak by to wyglądało gdybyśmy spróbowali przedstawić którąkolwiek z tych zależności w skali podwójnie logarytmicznej? Zauważmy, że: y = axb log(y) = log(axb ) log(y) = log(a) + blog(x) y 0 = log(a) + bx0 . (10.3) Czyli w skali podwójnie logarytmicznej otrzymamy prostą, której nachylenie da nam wykładnik potęgi. Żywe stworzenia nie są izometryczne, ale mimo to ich wymiary zmieniają się zgodnie z prawami potęgowymi. Na przykład zależność tempa metabolizmu od masy ciała u ssaków wyraża się prawem potęgowym o wykładniku 0.74, masa jaja od masy ciała ptaków prawem potęgowym o wykładniku b = 0.77. Takie skalowanie w biologii nazywamy allometrycznym. Więcej przykładów skalowania w biologii, geologii, literaturze znajdą 1 Dla zainteresowanych polecam książkę Knuta Schmidt Nielsena ’Dlaczego tak ważne są rozmiary zwierząt? Skalowanie’ 52 Państwo w prezentacji PPT zamieszczonej w materiałach do wykładu. Okazuje się, że prawem potęgowym opisane jest większość katastrof: rozkład huraganów, deszczów, trzęsień Ziemi, epidemii itd. opisane jest prawem potęgowym. Jak fizyk szuka prawa potęgowego? Jak już wspomniałam wizualizując dane w skali podwójnie logarytmicznej. Jeżeli ukaże się mu prosta, wtedy oznacza, że ma do czynienia z prawem potęgowym. Dlaczego o skalowaniu mówimy w przypadku funkcji potęgowej, a przy wykładniczej już nie? Eksponenta jest również powszechna, ale nie daje skalowania (czy inaczej niezależności od skali). Nie wierzycie? To bardzo łatwo pokazać. Załóżmy, że mamy dwie różne skale a0 (np. centymetry) i a1 = na0 (np. metry, w tym przypadku a1 = 100a0 ). Pewna wielkość (np. objętość) dana jest przez funkcję f . Jeżeli f jest potęgowa wówczas: x b a0 b b b x x x x x f = = = n−b = n−b f a1 a1 na0 a0 a0 f x a0 = (10.4) Mamy więc do czynienia z tą samą funkcją tylko przemnożoną przez czynnik n−b . Co by było gdyby f było eksponentą? Wówczas: x x = exp f a0 a 0 x x x = exp = exp f a1 a1 na0 (10.5) W tym przypadku czynnik skali nie może być wyłączony i zmienia się zależność funkcyjna, nie mamy więc do czynienia ze skalowaniem. 10.1 Hipoteza skalowania w teorii przejść fazowych Pełna teoria ciągłych przejść fazowych powinna pozwolić wyznaczyć temperaturę krytyczną jako funkcję parametrów modelu, oraz określić charakter krytycznych osobliwości tzn. wyliczyć wartości indeksów krytycznych. Hipoteza skalowania pozwala znaleźć odpowiedź na nieco inne pytania: czy zachowania krytyczne różnych wielkości fizycznych są niezależne, albo innymi słowy czy wszystkie indeksy krytyczne są niezależne czy może istnieje jakaś niewielka liczba indeksów, przy pomocy których możemy wyrazić wszystkie pozostałe. Rushbrooke (1963), Griffiths (1965), Josephson (1967) i Fisher (1969) pokazali, że sześć wykładników krytycznych spełnia 4 nierówności, a tym samym nie jest nie Pierwszą konsekwentną próbą znalezienia odpowiedzi na to pytanie była Hipoteza Widoma oparta na założeniu o uogólnionej jednorodności funkcji termodynamicznych. Zgodnie z definicją funkcja n zmiennych f (x1 , x2 , ....xn ) jest jednorodną funkcją stopnia p jeżeli spełniona jest równość: f (λx1 , λx2 , . . . , λxn ) = λp f (x1 , x2 , . . . , xn ). 53 (10.6) Taką funkcją jest na przykład energia wewnętrzna. Jeżeli przez s i v oznaczymy odpowiednio entropię i objętość na jedną cząstkę s = S/N, v = V /N to E(N s, N v) = N f (s, v), (10.7) a więc jest funkcją jednorodną pierwszego stopnia. Hipoteza Widoma wymaga jednorodności w pewnym ogólniejszym sensie, a mianowicie f (λa1 x1 , λa2 x2 , . . . , λan xn ) = λp f (x1 , x2 , . . . , xn ). (10.8) Funkcja spełniająca ten ostatni warunek nosi nazwę uogólnionej funkcji jednorodnej. Zgodnie z hipotezą Widoma taką funkcją jest energia swobodna, która w przypadku układu magnetycznego zależy od temperatury i pola magnetycznego F (T, H). Wprowadzając zmienne zredukowane: τ = (T − Tc )/Tc , h = H/Tc , (10.9) hipotezę o uogólnionej jednorodności energii swobodnej możemy zapisać w postaci równości: f (λy τ, λx h) = λp f (τ, h), (10.10) która musi być spełniona dla dowolnej wielkości λ. Zróżniczkujmy to równanie obustronnie względem h: ∂f (τ, h) τ, λx h) = λp . x ∂λ h ∂h x ∂f (λ λ y (10.11) ale zgodnie z definicją: ∂f (τ, h) = −m ∂h (10.12) czyli: m(λy τ, λx h) = λp−x m(τ, h) (10.13) Zachowanie magnetyzacji w okolicy punktu krytycznego opisują dwa indeksy krytyczne: β, opisujący zachowanie się m dla h = 0 i τ → 0, oraz δ dla τ = 0 i h → 0. Dla h = 0 m(τ, 0) ∼ (−τ )β (10.14) m(λy τ ) = λp−x m(τ ) ⇒ (−λy τ )β = λp−x (−τ )β (10.15) λyβ τ β = λp−x τ β ⇒ λyβ = λp−x . (10.16) a z ostatniego równania czyli: Ponieważ ta równość ma być spełniona dla dowolnego λ, więc yβ = p − x i ostatecznie: β= p−x . y 54 (10.17) Dla τ = 0, m(0, h) ∼ h1/δ , a z równania skalowania dla magnetyzacji mamy: m(λx h) = λp−x m(h) ⇒ (λx h)1/δ = λp−x h1/δ . Stąd podobnie jak poprzednio: δ= x . p−x (10.18) (10.19) Podobnie, różniczkując obustronnie równanie skalowania dla namagnesowania (10.13) otrzymujemy równanie skalowania dla podatności izotermicznej: τ, λx h) p−x ∂m(τ, h) = λ . ∂λx h ∂h x ∂m(λ λ y (10.20) Ponieważ podatność magnetyczna: χ= ∂m , ∂h (10.21) więc otrzymujemy: λx χ(λy τ, λx h) = λp−x χ(τ, h). (10.22) Wiemy, że w pobliżu punktu krytycznego: χ ∼ τ −γ , (10.23) czyli: λx (λy τ )−γ = λp−x τ −γ λx λ−yγ τ −γ = λp−x τ −γ x − yγ = p − x → γ = 2x − p . y (10.24) Dwukrotne zróżniczkowanie równania skalowanie dla energii swobodnej (10.10) względem temperatury pozwala na wyznaczenie indeksów krytycznych dla ciepła właściwego: f (λy τ, λx h) y x y ∂f (λ τ, λ h) λ ∂λy τ 2 ∂ f (λy τ, λx h) λ2y ∂(λy τ )2 λ2y c(λy τ, λx h) = λp f (τ, h) ∂f (τ, h) = λp ∂τ 2 ∂ f (τ, h) = λp ∂τ 2 = λp c(τ, h). (10.25) Ponieważ w pobliżu punktu krytycznego: c ∼ τ −α → λ2y (λy τ )−α = λp τ −α . (10.26) Ostatecznie otrzymujemy kolejny, czwarty już związek pomiędzy indeksem krytycznym a x, y, p: λ2y−yα = λp → α = 55 2y − p . y (10.27) Podsumowując, otrzymaliśmy następujące związki: p−x y x δ = p−x 2x − p γ = y 2y − p α = . y β = (10.28) (10.29) (10.30) (10.31) Można łatwo pokazać, że powyższe związki prowadzą do zależności: α + 2β + γ = 2, α + β(δ + 1) = 2, znanych jako prawa Rushbrooke’a i Griffithsa. 56 (10.32) (10.33) 57 Rozdział 11 Grupa Renormalizacyjna (GR) W poprzednim rozdziale zapoznaliśmy się z jedną z metod analizowania problemów fizycznych, w których istnieje konieczność uwzględnienia dużej liczby stopni swobody - metodą pola średniego. Jak widzieliśmy nie zawsze daje ona poprawne wyniki - np. otrzymujemy przejście fazowe tam, gdzie go wcale nie ma. Inną, bardziej wyrafinowaną metodą, jest grupa renormalizacyjna. W większości problemów w fizyce, a w szczególności wtedy gdy badamy zjawiska krytyczne, mamy do czynienia z olbrzymią liczbą stopni swobody. Typowy układ makroskopowy zawiera co najmniej 1023 cząstek, np. elektronów, a każda współrzędna, każdego elektronu jest stopniem swobody. W najprostszym nietrywialnym modelu - modelu Isinga, każda cząstka - ”spin”, ma tylko dwa stopnie swobody ±1, co i tak daje niewyobrażalną 23 liczbę 210 stopni swobody dla całego układu. Zazwyczaj ogromna liczba stopni swobody może być w istotny sposób ograniczona bez straty istoty rzeczy badanego zjawiska i rozważenie bardzo małej mikroskopowej części makroskopowego układu pozwala na poprawne odtworzenie jego własności. Biorąc pod uwagę ekstensywny charakter energii można się spodziewać, że znając np. energię układu zbudowanego z kilku tysięcy spinów znamy energię dowolnie dużego układu. Powstaje jednak pytanie czy jest jakieś graniczna wartość rozmiaru układu, poniżej której jego redukcja może prowadzić do istotnych błędów. Takim granicznym, minimalnym rozmiarem, który powinno się uwzględnić przy analizie zjawiska jest rozmiar rzędu promienia korelacji ξ. Promień korelacji zależy oczywiście od stanu układu i w korzystnych, z punktu widzenia teoretycznego opisu, warunkach jest on rzędu jednej lub kilku stałych sieci. Kiedy promień korelacji jest taki mały istnieje wiele metod, opartych na prostej redukcji liczby stopni swobody, pozwalających badać interesujący nas układ. Najprostsze i jednocześnie najbardziej popularne to metody oparte na idei pola średniego, a więc np. teoria pola molekularnego Weissa czy metoda HartreeFocka. Wszystkie tego typu metody oparte są na wspólnym założeniu, że własności całego układu są jednoznacznie określone przez własności małego klastra. W szczególnych przypadkach promień korelacji jest wielokrotnie większy od stałej sieci, tzn., że w zakresie rzędu promienia korelacji mamy bardzo dużo stopni swobody. Przy czym bardzo dużo oznacza tysiące czy miliony, a w granicznym przypadku nieskończenie dużo stopni swobody. Metoda grupy renormalizacyjnej (RG) dostarcza narzędzia umożliwiającego badanie układów z bardzo dużą liczbą stopni swobody w zakresie rzędu promienia korelacji, poprzez redukcję opartą jednakże nie na prostym ograniczeniu rozmiarów próbki rozważanego układu. Redukcja stopni swobody wykonywana jest w wielu krokach i może być realizowana na kilka sposobów. W istocie sposoby te można podzielić 58 na dwie klasy. Do pierwszej należą te oparte bezpośrednio na konstrukcji Kadanoffa, w których redukcja odbywa się w przestrzeni rzeczywistej i noszą one nazwę renormalizacji w przestrzeni rzeczywistej (Real Space RG), a do drugiej metody oparte na podejściu teorio-polowym, gdzie redukcja odbywa się w przestrzeni odwrotnej (Momentum Space RG). Wprawdzie to drugie podejście zostało zaproponowane wcześniej, ale zaczniemy od pierwszego, które zarówno pojęciowo jak i rachunkowo jest prostsze. Jak pokażemy dalej RSRG jest przydatna raczej do opisu układów niskowymiarowych, podczas gdy MSRG do układów trój- lub więcej wymiarowych. 11.1 Renormalizacja w przestrzeni rzeczywistej. Rozważmy układ spinów isingowskich S0 = ±1 rozmieszczonych na sieci o stałej sieci a0 . Podzielmy nasz układ na komórki o rozmiarach liniowych La0 . Przyporządkujmy każdej takiej komórce efektywną zmienną spinową S1 = ±1. Te nowe zmienne spinowe tworzą sieć o stałej sieci a1 = La0 . Powtarzając tę procedurę otrzymujemy sieć o stałej sieci a2 = La1 = L2 a0 , następnie a3 = L3 a0 , itd. Oczywiście w każdym kroku redukcji istnieje konieczność skonstruowania (wyznaczenia) efektywnego oddziaływania pomiędzy efektywnymi stopniami swobody. Tego typu procedura może być prowadzona aż do momentu gdy w zakresie rzędu promienia korelacji znajduje się już tylko kilka stopni swobody. Innymi słowy w każdym kroku redukcji promień korelacji mierzony w efektywnych stałych sieci zmniejsza się dwukrotnie, czyli: ξ1 = 1 1 1 1 ξ0 , ξ2 = ξ1 = 2 ξ0 , . . . , ξn = ξn−1 L L L L (11.1) Jeżeli układ możemy opisać przy pomocy hamiltonianu, jak ma to miejsce na przykład w przypadku modelu Isinga, to procedurę redukcji stopni swobody możemy uznać za transformację Hamiltonianu w przestrzeni jego parametrów. Jeżeli oznaczymy tę transformację przez R to przejście od układu oryginalnych spinów na sieci o stałej a0 , opisanego Hamiltonianem H0 do układu efektywnych spinów na sieci o stałej a1 , opisanego Hamiltonianem H1 można symbolicznie zapisać jako: R(H0 ) = H1 , R(H1 ) = H2 , . . . , R(Hn−1 ) = Hn . (11.2) Rozważmy układ spinów Isinga Sr z oddziaływaniem pomiędzy najbliższymi sąsiadami J. Hamiltonian jest w tym przypadku funkcjonałem zależnym od układu zmiennych dynamicznych Sr i parametru oddziaływania J. Wprowadzając oznaczenie K = J/T , oraz zakładając, że w każdym kroku transformacji będziemy mieli do czynienia ze zmiennymi dynamicznymi o tym samym charakterze, możemy przyjąć, że Hamiltonian jest jednoznacznie zdefiniowany poprzez wielkość K. Przy takim założeniu transformacja Hamiltonianu oznacza zmianę K: R(H0 ) = H1 → K1 = f (K0 ) R(H1 ) = H2 → K2 = f (K1 ) ... R(Hn−1 ) = Hn → Kn = f (Kn−1 ) 59 (11.3) Jeżeli mamy transformację R, która jest powtarzana wielokrotnie to najprostszą rzeczą, która może się zdarzyć jest to, że ciąg Hamiltonianów osiąga punkt stały transformacji, który oznaczymy przez H ∗ (i odpowiednio K ∗ ): R(H ∗ ) = H ∗ → K ∗ = f (K ∗ ) (11.4) Okazuje się, że punkt stały ma związek z punktem krytycznym. Jaki? Jak już wspomniałam przy transformacji renormalizacji o czynnik L promień korelacji zmienia się zgodnie z relacją: ξn = 1 ξn−1 . L (11.5) Oczywiście zmiana promienia korelacji zależy od zmiany K. Jeżeli oznaczymy ξn ≡ ξ(Kn ), wówczas możemy powyższą relację skalowania zapisać jako: ξ(Kn ) = 1 ξ(Kn−1 ) → ξ(Kn−1 ) = Lξ(Kn ). L (11.6) W punkcie stalym transformacji mamy Kn−1 = Kn = K ∗ , czyli: ξ(K ∗ ) = Lξ(K ∗ ). (11.7) Ponieważ L > 1, to powyższe równanie ma tylko dwa rozwiązania ξ = 0, które odpowiada układowi, w którym nie ma żadnych korelacji fluktuacji, oraz ξ = ∞, co zgodnie z definicją oznacza punkt krytyczny. W najprotszym przypadku możemy mieć dwa punkty stałe przyciągające, opowiadające zachowaniu się układu w temperaturze T = 0 i T = ∞. Oba te punkty odpowiadają promieniowi korelacji ξ = 0. Każdy z tych punktów ma swój obszar przyciągania. Obszary przyciągania tych punktów rozdzielone są punktem stałym odpychającym odpowiadającym temperaturze krytycznej (w tym przypadku ξ = ∞). 11.2 Zastosowanie idei GR do polityki Pod koniec lat 90-tych francuski fizyk Serge Galam zaproponował model oparty na idei GR do opisu procesów politycznych. Załóżmy, że mamy grupę ludzi – część z nich oznaczymy literką A - zwolennicy jednej partii, a drugą część przez B - zwolennicy partii opozycyjnej do A. Powiedzmy, że społeczeństwo składa się w części p1 z osób typu A, a w części 1 − p1 z osób typu B. Losujemy grupy po 3 osoby i wybieramy ich reprezentanta (może to odpowiadać wyborom na najniższym poziomie). Jeżeli w grupie znajdą się 3 osoby A to reprezentant będzie również A, jeżeli będą 2A i B to reprezentant będzie też A, w pozostałych przypadkach reprezentantem grupy będzie B. Taka procedura jest zgodna z ideą wyborów demokratycznych. Następnie głosowanie odbywa się na wyższym szczeblu. W drugim kroku iteracji z grupy reprezentantów losujemy grupy po 3 osoby i wybieramy ich reprezentanta itd. Odpowiada to dokładnie procedurze GR. Interesuje nas kto wygra. Jeżeli na najniższym szczeblu mamy p1 osób A to ile będzie ich na szczeblu 2, 3 itd. Ostatni, najwyższy szczebel mógłby odpowiadać prezydenturze. Obliczmy jakie jest prawdopodobieństwo p2 osób typu A na szczeblu drugim: p2 = p31 + 3p21 (1 − p1 ). 60 (11.8) Ogólnie: pn+1 = p3n + 3p2n (1 − pn ). (11.9) Takie odwzorowanie ma 3 punkty stałe: 1 p = p3 + 3p2 (1 − p) → p = 0, 1, . 2 (11.10) Dwa pierwsze są przyciągające, a trzeci jest odpychający. Oznacza to, że jeżeli na najniższym poziomie p1 < 1/2 to wówczas ostatecznie osiągniemy punkt p = 0, który odpowiada brakowi osób typu A. Natomiast dla p1 > 1/2 ostatecznie osiągniemy punkt p = 1, który odpowiada brakowi osób typu B. Oczywiście sprawa się komplikuje, jeżeli wybieramy grupy nie trzech, ale na przykład 4 osób. Co zrobić jeżeli w danej grupie znajdą się dwie osoby typu A i dwie typu B? Galam założył, że w takim przypadku wybrana zostanie osoba z partii, która jest u władzy. Jeżeli więc u władzy jest B, to wówczas: p2 = p41 + 4p31 (1 − p1 ). (11.11) Można wyliczyć, że w takim przypadku mamy następujące √ punkty stałe: jak zwykle dwa trywialne przyciągające p = 0, 1 i trzeci krytyczny p = 1+6 13 ≈ 0.77. Oznacza to, że musi być więcej niż 77% zwolennikow A na najniższym poziomie (w społoczeństwie), żeby A mógł być wybrany na prezydenta. 11.3 Transformacja GR i Model Isinga W najogólniejszym przypadku transformację GR można zapisać w postaci: exp[H 0 (σ)] = T rP (σ, S) exp[H(S)], (11.12) gdzie P (σ, S) jest operatorem rzutowania przestrzeni oryginalnych spinów S na przestrzeń jakiś efektywnych spinów σ. Można też traktować P (σ, S) jako pewną operację prowadzącą do redukcji stopni swobody poprzez transformację oddziaływań pomiędzy oryginalnymi zmiennymi a efektywnymi. Wybór tej operacji (operatora) jest pierwszym krokiem w technice GR. Mówiąc, że nie można napisać książki kucharskiej na temat GR, twórcy tej metody mieli na myśli przede wszystkim to, że nie ma jednoznacznej metody wyboru operatora P . Istnieją jednak pewne naturalne kryteria wyboru takie jak: 1. P musi być tak wybrane, aby nie zmieniała się suma stanów badanego układu. 2. Transformacja GR musi zachowywać wszystki symetrie badanego układu. Oczywiście te kryteria i tak pozostawiają ogromną dowolność wyboru. 11.3.1 Decymacja w jednowymiarowym modelu Isinga Najprostszą transformacją GR jest tak zwana decymacja, z którą mieliśmy już do czynienia w modelu perkolacji bond. W przypadku modelu Isinga metode tą można jednak efektywnie stosować tylko w przypadku jednowymiarowym. Decymacja polega na kolejnym wykonywaniu częściowej sumy stanów względem tylko niektórych stopni swobody, 61 a więc eliminowaniu np. co drugiego spinu. Rozważmy zamknięty łańcuch spinów Isinga opisany bezwymiarowym hamiltonianem: H= f −β H =K N X Si Si+1 , (11.13) i=1 gdzie K = βJ. Transformacja, a więc działanie operatora P polegać będzie na podzieleniu wszystkich spinów na dwie grupy, co drugi nazwiemy S, a pozostałe σ i wykonaniu sumy jedynie względem stopni swobody spinów S: exp[H 0 (σ)] = T rS exp[H(σ, S)] = T rS exp K[σ1 S2 + S2 σ3 + . . . + Sn σn+1 ] (11.14) = T rS exp[Kσ1 S2 ] exp[KS2 σ3 ] . . . exp[KSn σn+1 ] (11.15) = T rS2 exp[KS2 (σ1 + σ3 )] + . . . + T rSn exp[KSn (σn−1 + σn+1 )](11.16) Wykonanie śladu oznacza podstawienie za Si ich możliwych wartości, a więc w tym przypadku ±1. Zakładając dodatkowo cykliczne warunki brzegowe σn+1 = σ1 otrzymujemy: exp[H 0 (σ)] = exp[K(σ1 + σ3 )] + exp[−K(σ1 + σ3 )] + . . . = 2 cosh[K(σ1 + σ3 )] + . . . + 2 cosh[K(σn−1 + σn+1 )] (11.17) (11.18) Czyli efektywny hamiltonian: H 0 (σ) = ln {2 cosh[K(σ1 + σ3 )] + . . . + 2 cosh[K(σn−1 + σn+1 )]} (11.19) Ale z drugiej strony efektywny hamiltonian powinien mieć postać wyjściowego, czyli dla pary spinów i, j: H 0 (σ) = G + K 0 σi σj . (11.20) Otrzymujemy więc następującą równość: G + K 0 σi σj = ln {2 cosh[K(σi + σj )]} , (11.21) która w istocie jest układem dwóch równań: σi = σj → ln {2 cosh[2K]} σi = −σj → ln 2 = G − K 0 . Rozwiązując te równania znajdziemy łatwo: 1 K 0 = ln {cosh[2K]} 2 1 1 G = K 0 + ln 2. 2 2 (11.22) (11.23) (11.24) (11.25) Pierwsze wyrażenie jest równaniem rekurencyjnym na stałą oddziaływania. Żeby znaleźć ewentualny punkt krytyczny musimy jak zwykle znaleźć punkty stałe transformacji, tzn: 1 K ∗ = ln {cosh[2K∗]} →, K ∗ = 0, K ∗ = ∞. (11.26) 2 Nasza transformacja ma więc tylko dwa trywialne punkty stałe - jeden w temperaturze T = 0K ∗ = ∞, a drugi dla nieskończenie wysokich temperatur K ∗ = 0. Można zuważyć, że K > K1 > K2 > K3 > . . . > Kn , czyli K ∗ = 0 jest stabilnym (przyciągającym punktem stałym), a K ∗ = ∞(T = 0) niestabilnym. Oznacza to, że układ w trakcie transformacji będzie się przesuwał do fazy nieuporządkowanej. Zgodnie z oczekiwaniami trzymaliśmy więc wynik, że w jednowymiarowym modelu Isinga nie ma punktu kryrtycznego. 62 11.3.2 Transformacja blokowa w dwuwymiarowym modelu Isinga W poprzednich rozdziałach wykorzystywaliśmy transformację typu decymacji, gdzie część węzłow była usuwana. Ogólniejszą metodą jest metoda blokowa, w której sieć dzielona jest na bloki składające się z kilku spinów i każdemu takiemu blokowi przypisywany jest efektywny spin. Na tej metodzie oparty był również poznany już model wyborów politycznych Galama. Pierwszym krokiem w przypadku metody blokowej jest renormalizacja sieci, przy czym sieć efektywna powinna być izomorficzna z oryginalną siecią. Drugim krokiem procedury jest wybór projektora. Jeżeli przez ZS i Zσ oznaczymy odpowiednio sumę stanów dla problemu wyjściowego (węzłów) i efektywnego (komórek) to żeby transformacja GR nie zmieniała fizyki musi zachodzić: ZS = Zσ (11.27) ZS = T rS exp[H(S)] Zσ = T rσ exp[H 0 (σ)] (11.28) (11.29) exp[H 0 (σ)] = T rS P (σ, S) exp[H(S)], (11.30) Zσ = T rσ exp[H 0 (σ)] = T rσ T rS P (σ, S) exp[H(S)] = T rS exp[H(S)]T rσ P (σ, S). (11.31) (11.32) (11.33) gdzie: Ponieważ: więc: Czyli aby ZS = Zσ musi zachodzić: T rσ P (σ, S) = 1. (11.34) Jeżeli potrafilibyśmy rozwiązać ściśle równanie: exp[H 0 (σ)] = T rS P (σ, S) exp[H(S)], (11.35) dla każdego projektora spełniającego warunek T rσ P (σ, S) = 1. (11.36) oraz zachowującego wszystkie symetrie problemu to otrzymalibyśmy poprawne wyniki. Niestety nie jest to zwykle możliwe. Jak już wcześniej wspominaliśmy nie ma przepisu na transformację GR, jednak w przypadku modelu Isinga na sieci trójkątnej wybór zaproponowany przez Niemejera i Van Leuvena w 1974 wydaje się bardzo naturalny. Jest on oparty na tak zwanej majority rule (regule większości). Metode tą poznaliśmy przy okazji socjofizycznego modelu Galama. Metoda ta mówi, że kierunek wypadkowego spinu jest taki jak kierunek większości spinów w komórce. W ekonofizyce popularna jest również inna reguła, tzw. minority (mniejszość), która jest oczywiście przeciwieństwem majority. Taka reguła używana jest do budow tak zwanych minority games, w których sukces 63 zapewnia zachowanie przeciwne do większości (typu - wszyscy kupują, więc ja powinienem sprzedać). Wracając do majority rule dla modelu Isinga na sieci trójkątnej zapiszmy projektor w postaci: Y 1 (11.37) P (σ, S) = pα , pα = (1 + σα Mα ), 2 gdzie M = ±1 jest spinem wypadkowym komórki. Jeżeli σM = 1 to pα = 1 i taki stan daje wkład do efektywnej sumy stanów, natomiast dla σM = −1 mamy pα = 0. Spin wypadkowy ma natomiast postać: 1 Mα = (S1 + S2 + S3 − S1 S2 S3 ). 2 (11.38) Można łatwo sprawdzić, że M ma żądane własności, tzn. równa sie +1 jeżeli przynajmiej dwa spiny są równe +1 i −1 gdy przynajmiej dwa spiny są równe −1. Znalezienie sumy stanów i energii dla pojedyńczej komórki jest wprawdzie łatwe, ale już wyznaczenie ścisłych równań rekurencyjnych jest niemożliwe. Stosuje się wobec tego różne metody przybliżone, najczęściej rozwinięcie kumulantowe lub przybliżenie klastrowe. Metody te nie będą jednak przedmiotem tego wykładu. 64