• Nie Znaleziono Wyników

Być fizykiem – to brzmi dumnie

N/A
N/A
Protected

Academic year: 2021

Share "Być fizykiem – to brzmi dumnie"

Copied!
48
0
0

Pełen tekst

(1)

Nie wiem jak Was, drodzy Czytelnicy, ale mnie rozpiera duma z tego, że astrofi- zycy potrafią opisywać naukowo początek Wszechświata, a przy współczesnych technicznych możliwościach – możemy sięgać do jego krańców. Szykujemy się na podbój naszego Układu Słonecznego. Nauka i technika rozwijają się w zawrotnym tempie. Na innych polach osiągnięcia fizyków i techników też są oszałamiające.

Dokonały się one praktycznie w czasie jednego pokolenia. Weźmy dla przykładu wpływ fizyki i techniki na medycynę. Społeczeństwo w zasadzie zdaje sobie z tego sprawę, choćby dzięki Wielkiej Orkiestrze Świątecznej Pomocy, ale skala tego wpływu i jego doniosłość poraża, gdy się ma osobiste doświadczenia, gdy zdarzy się człowiekowi zachorować. 70 lat temu moje chore płuca były diagnozowane aparatem rentgenowskim, w którym naświetlało się kliszę fotograficzną. Dzisiaj takie badanie wykonuje się techniką tomografii komputerowej. Obraz badanej czę- ści ciała jest niesłychanie dokładny i analizuje się go komputerowo, przy użyciu zaawansowanych programów, a nie, jak niegdyś kliszę, „oczami lekarza”.

Gdy 60 lat temu uległam wypadkowi motocyklowemu, lekarz również dys- ponował jedynie kliszą zdjęcia rentgenowskiego. Obecnie, by zbadać stan i dzia- łanie mojego mózgu, zamknięto mnie w urządzeniu nazywanym potocznie re- zonansem magnetycznym, żeby przebadać jak najdokładniej nie tylko strukturę mózgu, ale i jego funkcjonowanie. Pamiętam, jak na studiach uczyłam się o zja- wisku rezonansu magnetycznego i wyobraźnia nie podpowiadała mi takich cu- downych jego zastosowań.

Taki błyskawiczny rozwój fizyki i techniki rzuca wyzwanie nauczycielom fizyki. Jak kształcić tych, którzy będą dalej rozwijać te dziedziny? Niektóre z dobrych rozwiązań edukacyjnych były znane już wcześniej, można wręcz po- wiedzieć, że nihil novi sub sole, lecz były one stosowane w innych warunkach i niejako amatorsko. To w dzisiejszych czasach nie wystarcza. Potrzebne są ba- dania na ich temat i powstanie zracjonalizowanych metod. Trwają poszukiwa- nia dobrych wzorców i pewnych zaleceń. Mam na myśli na przykład tak zwane nauczanie przez dociekanie, czyli po angielsku Inquiry Based Learning (IBL).

W tym zeszycie znajdziecie Państwo raport z wizyt w szkołach europejskich pro- wadzących zajęcia tą metodą.

Prezentujemy również artykuły z Kosmologii, jeden na temat Nagrody Nobla za rok 2019, drugi dotyczący materii kometarnej.

Zapraszamy do lektury!

Z.G.-M.

(2)

Contents

Being a physicists. How proud it sounds!

Zofia Gołąb-Meyer ... 1 Emission of cometary matter – two mechanisms of the phenomenon

Marcin Wesołowski ... 4 Nobel Prize 2019 in physics

Leszek M. Sokołowski ... 16 Nuclear physics in medicine

Dorota Wierzuchowska ... 24 Computed microtomography at the Jagiellonian University

Bartosz Leszczyński ... 30 Developing research competences

– a report on field visits in a few European schools

Dagmara Sokolowska ... 34

(3)

Być fizykiem – to brzmi dumnie

Zofia Gołąb-Meyer ... 1 Emisja materii kometarnej – dwa mechanizmy zjawiska

Marcin Wesołowski ... 4 Nagroda Nobla z fizyki za rok 2019 dla kosmologa

Leszek M. Sokołowski ... 16 Fizyka jądrowa w medycynie

Dorota Wierzuchowska ... 24 Mikrotomografia komputerowa na Uniwersytecie Jagiellońskim

Bartosz Leszczyński ... 30 Kształcenie kompetencji badawczych

– raport z wizyt studyjnych w kilku szkołach europejskich

Dagmara Sokolowska, Mateusz Wojtaszek ... 34

(4)

Emisja materii kometarnej – dwa mechanizmy zjawiska

Marcin Wesołowski Kolegium Nauk Przyrodniczych, Instytut Nauk Fizycznych, Uniwersytet Rzeszowski, Centrum Innowacji i Transferu Wiedzy Techniczno-Przyrodniczej Uniwersytetu Rzeszowskiego Abstrakt

Aktywność komet może przejawiać się w bardzo różnorodny sposób. W artyku- le tym zostaną przedstawione dwa mechanizmy świadczące o aktywności tych ciał niebieskich. Pierwszym z nich jest emisja materii z powierzchni jądra ko- mety. Główną przyczyną tego zjawiska jest intensywna sublimacja poszczegól- nych lodów kometarnych. Oszacowane zostały wymiary ziaren, które mogą być uniesione z powierzchni jądra w danych warunkach fizycznych. Lodowo–pyłowe okruchy materii kometarnej są w ten sposób transportowane do komy komety.

Drugim mechanizmem związanym z szeroko pojętą emisją jest zjawisko wybu- chu blasku komety. Pod tym pojęciem należy rozumieć nagły, nieoczekiwany wzrost jasności komety o więcej niż jedną wielkość gwiazdową. Zazwyczaj jej blask w czasie wybuchu wzrasta przeciętnie od –2 do –5 wielkości gwiazdo- wych, chociaż odnotowane zostały przypadki wybuchu rzędu –1 do –9 magni- tudo. Oznacza to że w czasie jednego potencjalnego wybuchu zmiana jasności danej komety wyniosła np. –2 magnitudo, a podczas kolejnego wybuchu np.

–5 magnitudo. Wyniki obliczeń numerycznych, które zostały przedstawione w tym artykule, związane są z kometą hipotetyczną należącą do rodziny Jowisza (ang. Jupiter Family Comets – JFC).

Wstęp

W Układzie Słonecznym oprócz planet i ich księżyców występują także małe cia- ła niebieskie. Zaliczamy do nich między innymi komety i asteroidy. Powszech- nie uważa się, że pod nazwą kometa kryje się ciało niebieskie o nieregularnym kształcie, zjawiające się nieoczekiwanie, stosunkowo szybko przesuwające się na sferze niebieskiej i obdarzone długimi warkoczami. Podstawowym skład- nikiem każdej komety jest jej jądro – trwała struktura, będąca nośnikiem masy kometarnej. Jądro komety jest nieregularną bryłą o wymiarach rzędu od kilku do kilkudziesięciu kilometrów. Zbudowane jest ono z lodu wodnego z domieszką zestalonych substancji takich jak: CO, CO2, NH3, itp. Jądra komet zawierają tak- że okruchy skalne oraz pył. Poruszają się one wokół Słońca po krzywych będą- cych w przybliżeniu elipsą, parabolą lub hiperbolą.

Według obecnych teorii komety pochodzą z dwóch źródeł:

• z tzw. Obłoku Oorta – sferycznej warstwy o promieniu rzędu 100 000 j. a.,

(5)

Podczas wędrówki przez Układ Słoneczny, wraz ze wzrostem temperatury pochodzącej od Słońca, wygląd komet ulega zmianie. W dalszych odległościach heliocentrycznych jądro komety nie przejawia żadnej aktywności, gdyż tempe- ratura jest stosunkowo mała. Zbliżając się do Słońca, pod wpływem jego pro- mieniowania, kometa rozbudowuje swoją strukturę do trzech podstawowych składowych: głowy wraz z jądrem oraz warkoczy: pyłowego i jonowego. Jeżeli będziemy rozpatrywać komety okresowe – czyli takie, które powracają w pobli- że Słońca po okresie nie dłuższym niż 200 lat – to z każdym takim powrotem kometa traci pewien ułamek swojej masy – średnio około 0,5%. Po dostatecznie dużej liczbie powrotów w pobliże Słońca jądro komety traci wszystkie lotne sub- stancje i staje się martwym obiektem kosmicznym; może nawet ulec zniszczeniu.

Wśród komet na szczególną uwagę zasługują tzw. komety długookresowe, które niosą ze sobą pierwotną materię kosmiczną. Można więc stwierdzić, że komety ze względu na stosunkowo małe rozmiary nie zmieniły znacząco swojej struktury od chwili powstania. Stanowią więc one zapis formowania się Układu Słonecz- nego – zawierają pierwotną materię, z której to powstał nasz Układ Planetarny.

Rys. 1. Zmiana wyglądu komety w czasie jej obiegu wokół Słońca

Charakterystyka orbity komety

Przedstawione w tym artykule rozważania będą dotyczyły hipotetycznej kome- ty z rodziny Jowisza. Kometa ta należy do komet okresowych, porusza się po orbicie eliptycznej. W oparciu o kryterium Tisseranda dla komet Jowiszowych możemy zapisać:

T aa

a

J J 2 a

J

2 cos (1 (1)

gdzie: TJ – parametr Tisseranda (TJ = 2,5), aJ – wielka pół oś orbity Jo- wisza (aJ=5,2 j.a.), a – wielka półoś orbity komety (a), i – inklinacja or- bity (i = 0°) oraz mimośród (e = 0,80). W oparciu o tak przyjęte założe- nia na podstawie równania (1) wyznaczamy dłuższą półoś orbity komety:

a = 3,23 j.a.

(6)

Rys. 2. Orbita eliptyczna rozważanej komety wraz z zaznaczonymi podstawowymi parametrami orbitalnymi. Przyjęto następujące oznaczenia: q – peryhelium – odległość między Słońcem a kometą w momencie ich największego zbliżenia, Q – aphelium – odległość między Słońcem

a kometą w momencie ich największego oddalenia, K – kometa, F, F’ – ogniska, których odległość wynosi 2ea

W kolejnym kroku musimy wyznaczyć peryhelium i aphelium orbity rozwa- żanej komety (w oparciu o rys. 2). Ponieważ w naszych rozważaniach założy- liśmy, że mamy do czynienia z kometą, która porusza się po orbicie eliptycznej, skorzystamy w tym miejscu z równania biegunowego elipsy:

r (1 ) , (2)

gdzie  oznacza kąt pomiędzy wektorem wodzącym r poprowadzonym od Słoń- ca do poruszającej się komety a wielką półosią orbity komety. Warto w tym miej- scu zauważyć, że w trakcie ruchu komety kąt  będzie się zmieniał od 0° (dla peryhelium) do 180° (dla aphelium).

Wykonując proste przekształcenia równania (2), można pokazać, że odległość rozważanej komety w peryhelium jej orbity dana jest następującą zależnością:

q = a ∙ (1 – e). (3)

Podobnie w przypadku aphelium mamy:

Q = a ∙ (1 + e). (4)

Podstawiając odpowiednie wartości liczbowe (podane powyżej) do równań (3) i (4), możemy w łatwy sposób obliczyć, że odległość komety w jej peryhe- lium wynosi q ≈ 0,65 j.a. Postępując w analogiczny sposób, możemy pokazać, że odległość komety w aphelium jej orbity wynosi Q ≈ 5,80 j.a.

Wyznaczone odległości peryhelium i aphelium orbity komety zostaną wyko- rzystane do numerycznego modelowania emisji materii kometarnej. Dla uprosz- czenia naszych dalszych rozważań zakładamy, że jądro komety oraz ziarna (okru- chy materii kometarnej) mają kształt kulisty.

(7)

Jedną z głównych przyczyn transportu materii kometarnej do komy komety jest intensywna sublimacja lodów kometarnych. Lodowo-pyłowe ziarna, czyli okru- chy materii kometarnej znajdujące się na powierzchni sublimującego jądra ko- mety, poddane są następującym oddziaływaniom:

• sile grawitacji komety Fg,

• sile parcia sublimujących molekuł lodów kometarnych Fp,

• sile odśrodkowej bezwładności Fod wynikającej z faktu, że jądro komety wiru- je względem osi przechodzącej przez środek jego masy.

Rys. 3. Siły działające na cząstkę pyłową P, leżącą na fragmencie powierzchni jądra komety

Zauważmy, że w naszych rozważaniach wykorzystujemy tylko trzy siły – te, które mają dominujące znaczenie w kontekście unoszenia ziarna z powierzchni komety.

Zakładając dla uproszczenia, że jądro komety ma kształt kulisty, warunek na to, aby ziarno kometarne zostało uniesione z powierzchni jądra komety, możemy zapisać w następujący sposób:

2 2 2 2 2 N gr

grdd 2 21 π (D gr g gr) g gr Ncos 2 , R GM m

m C a ggg grgrgrgr))22 ggg mmgrgrgrgr 22RRNNNNNNcos2 (5) gdzie: MN, mgr, RN, agr, ug, ugr, ρg, ω, φ – masa jądra komety, masa ziaren pyłu, promień jądra komety, promień ziarna unoszonego z powierzchni jądra komety, prędkość przepływu gazu, prędkość unoszonego ziarna pyłu, gęstość gazu, pręd- kość rotacji jądra komety oraz szerokość kometocentryczną (rys. 3).

W powyższym równaniu pojawił się także parametr CD – jest to zmodyfiko- wany współczynnik oporu, który możemy zapisać jako:

C s

s s s s

s s

s T

D T

2 3

2 4 2

4 gr

g

2 1exp 4 4 1

2 erf( ) 3 , (6)

gdzie: erf (s) jest tzw. funkcją błędu zdefiniowaną jako:

(8)

2 2

erf( )s  π



e d .t t (7)

Natomiast parametr s wyrażamy zależnością:

s RT

M 2

r g

, (8)

przy założeniu, że: ug >> ugr.

W powyższych równaniach poszczególne symbole oznaczają: R – uniwersal- ną stałą gazową, Tg – temperaturę gazu, μ – jednostkę masy atomowej, M – masę molekuł sublimujących lodów kometarnych.

Prędkość sublimujących molekuł materii kometarnej wynika z rozważań ter- modynamicznych. Wyznaczamy ją w oparciu o następujące równanie:

υ

g

2

k T

,

M (9)

gdzie: k jest stałą Boltzmanna.

Korzystając z równań od (5) do (9), można pokazać, że maksymalny promień ziarna kometarnego, które może być uniesione z powierzchni jądra komety, dany jest następującą zależnością:

a C M Z

G R

G P

max D g

gr N N

2

N 2

9

32 υ cos . (10)

W równaniu (10) przyjęto następującą notację: amax – maksymalny promień ziarna, Z – tempo sublimacji danego lodu kometarnego, G – stała grawitacji, ρgr – gęstość ziaren znajdujących się na powierzchni komety, ρN – gęstość jądra komet, RN – promień jądra, a P – okres jego rotacji. Pozostałe symbole mają taki sam sens jak powyżej.

W powyższym równaniu pojawił się bardzo ważny czynnik, który ma decy- dujący wpływ na wielkość unoszonego ziarna kometarnego – tempo sublima- cji Z [molekuł/m2·s]. Parametr ten jest funkcją temperatury, którą wyznaczamy w oparciu o równanie bilansu energetycznego.

S A

d T L T Z

N K T T

(1 ) x

4 co ( ) ( )∆

2 4 ∆ . (11)

Lewa strona powyższego równania opisuje moc promieniowania elektro- magnetycznego Słońca, które jest pochłaniane przez jądro komety. Pierwszy człon prawej strony równania oznacza moc wypromieniowaną z jądra kome- ty, drugi człon oznacza moc przeznaczoną na sublimację lodów kometarnych, a trzeci jest mocą przewodzoną do wnętrza komety. Wszystkie moce oblicza- ne są na jednostkę powierzchni jądra komety. Poszczególne symbole oznaczają odpowiednio: S – stała słoneczna, A – albedo, d – odległość heliocentryczna, ε – zdolność emisyjna, σ – stała Stefana Boltzmanna, TS – temperatura na po-

(9)

Dodatkowo zauważmy, że czynnik: ddTx oznacza wartość gradientu tempe- ratury tuż pod powierzchnią jądra komety.

W tym miejscu należy zauważyć, że istnieją skomplikowane formuły opisu- jące tempo sublimacji materii kometarnej w funkcji temperatury na powierzchni jądra komety, jego struktury oraz ciśnienia nasyconych par sublimujących lodów kometarnych. Przy rozwiązywaniu równania (11) należy uwzględnić również równania orbity komety podające zależność odległości heliocentrycznej komety od czasu oraz równanie stanu Clausiusa–Clapeyrona dla par nasyconych subli- mujących lodów kometarnych.

Analiza numeryczna zjawiska emisji

Na podstawie matematycznego opisu zjawiska emisji materii kometarnej za- prezentowane zostaną wyniki odnoszące się do rozkładu wielkości ziaren kome- tarnych. Cała symulacja będzie przeprowadzona dla trzech następujących lodów kometarnych: H2O, CO2 i CO. Aby uściślić i pokazać konkretne wyniki symula- cji, określamy cztery charakterystyczne punkty wzdłuż całej orbity, dla których przeprowadzimy kolejne analizy emisji ziaren kometarnych. Będą to następujące odległości heliocentryczne: a) 0,65 j.a., b) 1,5 j.a., c) 3,5 j.a. oraz d) 5,8 j.a.

Rys. 4. Rozkład wielkości ziaren kometarnych, które zostały uniesione do komy komety przez sublimujące lody kometarne. Przyjęto, że: jądro komety jest kulą o promieniu RN = 1km, gęstość jądra ρN = 400 kg/m3. Rozważyliśmy dwa przypadki: a) jądro komety nie rotuje, b) jądro komety rotuje z okresem P = 10 h. Obliczenia wykonane dla odległości heliocentrycznej równej d = 0,65

j.a. (peryhelium)

Rys. 5. Sytuacja analogiczna jak na rys.4, ale dla odległości heliocentrycznej d = 1,5 j.a.

(10)

Rys. 6. Sytuacja analogiczna jak na rys.4, ale dla odległości heliocentrycznej d = 3,5 j.a.

Rys. 7. Sytuacja analogiczna jak na rys.4, ale dla odległości heliocentrycznej d = 5,8 j.a.

(aphelium). W tej odległości heliocentrycznej pomijamy H2O, gdyż jej zasięg sublimacji szacowany jest na około 5 j.a.

Fot. 1. Zdjęcie jądra komety 103P/Hartley 2 (Fot. NASA)

Wybuch blasku komety – fizyka zjawiska

Badając fizyczną ewolucję komet, nie sposób pominąć gwałtownych zmian ich jasności. Należy zaznaczyć, że w literaturze znane są różne mechanizmy, który-

(11)

dzić, że żaden z zaprezentowanych mechanizmów wybuchów kometarnych nie wyjaśnia w pełni wszystkich cech morfologicznych omawianego zjawiska. Dla- tego wydaje się wielce prawdopodobne, że za wybuchy kometarne mogą być odpowiedzialne różne mechanizmy lub nawet kombinacja kilku z nich. Jednakże astronomowie na całym świecie uważają, że przyczyną pojaśnienia komet jest odrzucenie zewnętrznej części warstwy powierzchniowej jądra. W wyniku tego procesu z głębszych obszarów jądra zostaje uwolniona bardziej lotna materia ko- metarna, która znacznie lepiej rozprasza padające światło słoneczne. W efekcie możemy zaobserwować zmianę jasności komety – jej wybuch.

W celu oszacowania zmiany blasku jasności komet wykorzystamy prawo Pogso- na. Wówczas amplituda skoku jasności komety wyrażana jest następującym wzorem:

2.5 log ( ) ( )

( )

ice sca 2 ice sca

ice sca 1

m p C t p

p C t , (12)

gdzie: pice(θ) jest funkcją fazową, którą określa się przez znajomość współczynnika asymetrii dla danego lodu kometarnego oraz kąt θ, pod jakim widoczna jest kometa z Ziemi (dla uproszczenia rozważań przyjmujemy, że wartość tego kąta w fa- zie spokojnej, jak i podczas wybuchu jest taka sama), Csca (t1) i Csca (t2) to cał- kowity przekrój rozproszeniowy pyłowo-lodowych cząstek lodu kometar- nego, które zostały uniesione przez sublimujące gazy, odpowiednio w fazie spokojnej (1) oraz w czasie wybuchu (2), Csca (e) to przekrój rozproszenio- wy wyrzuconych w czasie wybuchu cząstek kometarnych, które pochodzą z destrukcji odrzuconej warstwy jądra komety.

Przekroje rozproszeniowe Csca (ti) (gdzie: i = 1 lub i = 2) oraz Csca (e) dane są następującymi zależnościami:

C ti N ti Q a m f a a a

a

sca( ) p max ( , , ) ( )* 2 (13a)

oraz

C esca( ) Ne maxQ a( , , ) ( )m f a* 2 . (13b) W dwóch powyższych równaniach poszczególne symbole oznaczają: Np(ti) – całkowitą ilość cząstek o łącznym przekroju rozproszeniowym Cr (ti), Ne – całkowi- tą ilość kometarnych ziaren wyrzucona w czasie wybuchu, Q (λ, a, m*) – efektywny współczynnik rozpraszania (obliczany na postawie teorii Mie), a – promień cząstki (amax jest rzędu 10–3 m dla sublimacji kontrolowanej przez CO i CO2), m*– współ- czynnik refrakcji m* = mp/ma, gdzie mp określa współczynnik refrakcji dla cząstecz- ki zaś ma dla próżni; f(a) – funkcję rozkładu ilości cząstek względem wymiarów ich promieni. W obliczeniach przyjęto następującą postać funkcji:

f a k a

a a

( ) 1 0 a0 (14)

(12)

W powyższej zależności k1 jest stałą normalizacyjną, parametr M jest funkcją odległości d komety od Słońca obliczaną z warunku:

(15) Natomiast parametr N określa nachylenie spadku krzywej dystrybucji, która dla dużych cząstek jest rzędu 4. Wykorzystując powyższe równania, możemy wyznaczyć ostateczną postać zmiany amplitudy blasku komety, która spowodo- wana jest jej wybuchem:

MAX MAX

MIN MIN

MAX MAX

MIN MIN

MAX

MIN M

MIN

2 '

2 N h 0 ej

ice ice

g g g

2 2

1 N h 0

ice

g g 3

( , , ) ( ) , , ) ( ) d

3 π ( ) χ 3

( ) 4 ) d

Δ 2.5log

( , , ) ( ) d 3 π ( ) χ

( ) d

a

a a a

Q a m f a a a Q a m f a

t R ZR m M

f a a a f a a a

m

Q a m f a a a t R ZR m

p

f a a a

g g

g

AX

.(16)

Warto zauważyć, że w równaniu (16) poszczególne symbole oznaczają: R´hpromień głowy komety w czasie wybuchu, Rh – promień głowy komety w fazie spokojnej. Pozostałe symbole mają taki sam sens jak powyżej. W tym miejscu na- leży dodać, że przyjęte granice całkowania spełnianą następującą zależność:

, (17)

i wynoszą odpowiednio: aMIN = 10–7 m, aMAX = 10–2 m.

Wybuchy blasku – wyniki obliczeń

Korzystając z formalizmu matematycznego z poprzedniego rozdziału, będziemy sy- mulować numerycznie skok jasności komety pochodzącej z rodziny Jowisza. Prze- prowadzona analiza numeryczna zmiany jasności jądra komety będzie dotyczyła tych samych odległości heliocentrycznych jak w przypadku emisji ziaren z powierzchni jądra komety. Dla uproszczenia naszych rozważań zakładamy, że aktywność komety wzdłuż całej orbity jest kontrolowana przez sublimację lodu wodnego.

Na poniższych wykresach przedstawiono wyniki symulacji numerycznych skoku jasności komety.

Rys. 8. Zmiana jasności jądra komety w funkcji masy odrzuconej. Założono, że aktywność komety w fazie spokojnej zachodzi tylko z ułamka całkowitej powierzchni jądra komet równej:

η(t1) = 0,5% i η(t1) = 5%. Kometa znajduje się w peryhelium swojej orbity (d= 0,65 j.a.)

(13)

Rys. 9. Sytuacja analogiczna jak na rys. 8, ale kometa znajduje się w odległości d= 1,5 j.a.

Rys. 10. Sytuacja analogiczna jak na rys. 8, ale kometa znajduje się w odległości d= 3,5 j.a.

Rys. 11. Sytuacja analogiczna jak na rys. 8, ale kometa znajduje się w aphelium swojej orbity (d= 5,8 j.a.)

(14)

Uwaga:

W tym miejscu należy zaznaczyć, że zmiana jasności komety w aphelium jej orbity właściwie nie zależy od powierzchni jądra η(t1), która jest aktywna sublimacyjnie w fazie spokojnej. Stwierdzenie to wynika z faktu, że w odległo- ściach powyżej 5 j.a. tempo sublimacji Z dla głównego składnika budowy jąder kometarnych (lodu wodnego) jest praktycznie zaniedbywalne. Dlatego na rys.

11 został przedstawiony tylko jeden wykres dla powierzchni aktywnej równej η(t1) = 0,5%. Dodatkowo warto zauważyć, że biorąc pod uwagę otrzymane wyni- ki skoku jasności komety Δm, można wnioskować, że amplituda blasku komety jest większa wtedy, gdy powierzchnia η(t1) jest mniejsza.

Ciekawostka:

Słynnym przykładem megawybuchu była kometa 17P/Holmes z 2007 roku.

W nocy z 23 na 24 października 2007 roku kometa znajdowała się w odległości około 2,5 j.a. i jasność jej winna wynosić 16,5m, natomiast obserwatorzy poinfor- mowali o osiągnięciu przez tą kometę względnej jasności równej 2,5m w ciągu 42 godzin. Widoczna była ona okiem nieuzbrojonym jako rozmyta „żółtawa gwiaz- da za mgłą” przesuwająca się na tle gwiazdozbioru Perseusza.

Fot. 2. Kometa 17P/Holmes w maksimum wybuch w 2007 roku (Fot. NASA)

Podsumowanie

Emisja materii z powierzchni jądra komety, jak i wybuch blasku, są jedy- nymi mechanizmami, które podlegają bezpośredniej obserwacji. Według obec- nych teorii naukowych nie istnieje jeden wspólny mechanizm odpowiedzial- ny za zmianę jasności tych ciał niebieskich. Niezwykle ciekawym faktem jest to, że pomimo gwałtownego wybuchu blasku jądro komety po przejściu do fazy spokojnej pozostaje w dalszym ciągu na swojej orbicie. Z dotych- czas przeprowadzonych badań astrofizycznych wynika, że o ewolucji komet w głównym stopniu mogą decydować procesy fizyko-chemiczne zachodzące w strukturze jądra komety.

(15)

Badając ewolucję komet, trudno się nie zgodzić z powiedzeniem słynnego badacza tych ciał niebieskich, Davida Levy’ego:

Komety są jak koty, mają ogony i robią dokładnie to, co chcą.

Literatura

[1] A’Hearn M.,F., et al., 2005, Sci, 310, 258.

[2] Belton M.,; Melosh, J. 2009, Icarus, 200, 280.

[3] Davidsson B.J.R., & Skorov Y.V. 2002b, Icarus, 159, 239.

[4] Fanale F.P., ; Salvail J.R. 1990, Icarus, 84, 404.

[5] Gronkowski P.; Wesołowski M. 2012, Astron. Nachr. 333, 721.

[6] Gronkowski P.; Wesołowski M. 2014, Meteoroids 2013, UMA Poznań, p.267.

[7] Gronkowski P., Wesołowski M., 2015, MNRAS 451, 3068.

[8] Gronkowski P., Wesołowski M., 2016, EM&P 119, 23.

[9] Gronkowski P., Tralle I., Wesołowski M., 2018, Astron. Nachr. 339, 37.

[10] Ivanova O., et al. 2011, Icarus, 211, 559.

[11] Kossacki K. J., & Szutowicz S. 2011, Icarus, 212, 847.

[12] Wesołowski M., Gronkowski P., 2018, New Astronomy 62, 55.

[13] Wesołowski M., Gronkowski P., 2018, EM&P 121, 105.

[14] Wesołowski M., Gronkowski P., Tralle I., 2019, MNRAS 484, 2309 [15] Wesołowski M., 2019, Journal of Astrophysics and Astronomy 40:20.

[16] Wesołowski M., Gronkowski P., 2019, Symulacja gwałtownego wzrostu jasności komet w aspekcie zanieczyszczenia nieba sztucznym światłem – publikacja w monografii pokon- ferencyjnej – Zanieczyszczenie światłem – Źródła, obserwacje, skutki, Centrum Badań Kosmicznych Polskiej Akademii Nauk, Warszawa, str. 185-197.

Fot. 3. Jądro komety 9P/Tempel widziane z pokładu sondy kosmicznej Deep Impact

(Fot. NASA)

Fot. 4. Materia kometarna, która została wyrzucona z jądra komety 9P/Tempel po uderzeniu w nią modułu sondy kosmicznej

Deep Impact (Fot. NASA)

(16)

Nagroda Nobla z fizyki za rok 2019 dla kosmologa

Leszek M. Sokołowski Obserwatorium Astronomiczne Uniwersytetu Jagiellońskiego

Ściśle biorąc, połowa nagrody, bo drugą połowę dostali dwaj astronomowie za odkrycie planety wokół gwiazdy podobnej do Słońca, o czym pisze ktoś inny.

Cieszy, bo to pierwszy laureat, który jest fizykiem-kosmologiem i został nagro- dzony za prace teoretyczne. Wszyscy poprzedni laureaci z fizyki poza Układem Słonecznym, byli nagradzani za odkrycia obserwacyjne: promieniowanie relik- towe, pulsary, fale grawitacyjne. Wprawdzie tegoroczni laureaci zajmowali się zupełnie odmiennymi rzeczami i łączy ich jedynie to, że obiekty ich zaintere- sowań leżą bardzo daleko od Ziemi, jednakże Komitet Noblowski zgrabnie ujął ich łącznie stwierdzając, że dostają nagrodę za wkład w nasze zrozumienie ewo- lucji Wszechświata i miejsca Ziemi w kosmosie, a w konkluzji swoich wyjaśnień uznał, że ich odkrycia na zawsze zmieniły nasze wyobrażenia o świecie.

Za teorię budowy i własności Wszechświata nagrodzony został Phillip James Edwin Peebles, urodzony w 1935 r., z pochodzenia Kanadyjczyk, przedstawia- jący się i podpisujący wiele swoich pism jako Jim Peebles. Całe swoje naukowe życie związał z uniwersytetem w Princeton, gdzie jest od kilkunastu lat emery- tem i nosi dumny tytuł Albert Einstein Professor Emeritus of Science at Prince- ton University. Jego dokonania Komitet Noblowski objaśnia następująco:

Dociekania Jamesa Peeblesa w obszarze kosmologii fizycznej wzbogaciły całą tę dziedzinę badań i stworzyły podstawy dla przekształcenia w ciągu ostatnich pięćdziesięciu lat kosmologii z wiedzy spekulatywnej w naukę ścisłą. Rozwija- ne przez niego od połowy lat sześćdziesiątych konstrukcje teoretyczne stanowią bazę naszych obecnych poglądów o Wszechświecie.

James Peebles był w stanie zinterpretować zakodowane w kosmicznym promie- niowaniu reliktowym właściwości dziecięcego Wszechświata i odsłonić nowe zjawiska fizyczne. W wyniku ukazał się nam Wszechświat, w którym 5% jego zawartości stanowi znana nam materia tworząca gwiazdy, planety i nas. Reszta, 95%, to nieznana nam ciemna materia i ciemna energia. Są one tajemnicą i wy- zwaniem dla dzisiejszej fizyki.

Przedostatnie zdanie jest raczej nietrafnie adresowane do laureata, bo Peebles ciemną energią, hipotetycznym tworem, którego istnienie jest nader wątpliwe, a własności zupełnie tajemnicze, nie zajmował się; on badał to, co rzeczywiste.

Pomijając tę kwestię, chcę skomentować opinię Komitetu, że jego odkrycia na

(17)

• 1964-65: ponownie przewidział istnienie i własności promieniowania relikto- wego (CMBR),

• po 1965: był jednym z twórców teorii pierwotnej nukleosyntezy pierwiastków chemicznych,

• później zajął się powstawaniem galaktyk w bezpostaciowym gazie wodoro- wo–helowym,

• od 1974: poszukiwał możliwych śladów ciemnej materii w galaktykach i wo- kół nich (z J. Ostrikerem i A. Yahilem),

• badał stabilność dynamiczną galaktyk,

• jest autorem czterech podręczników kosmologii i podręcznika mechaniki kwantowej.

Peebles zajmował się najważniejszymi problemami kosmologii, a ponieważ są to dokonania sprzed kilkudziesięciu lat, to nagroda niewątpliwie jest „za cało- kształt”. Tu jednak chcę się skoncentrować na jego najważniejszym osiągnięciu, na istotnym wkładzie w dokonanie przełomu, dzięki któremu kosmologia z pe- ryferyjnego i kontrowersyjnego działu badań na pograniczu fizyki i astronomii, stała się kosmologią fizyczną, wiarygodną i doniosłą nauką o Wszechświecie, jedną z najintensywniej rozwijanych i budzącą wielkie zainteresowanie. W tym celu trzeba przedstawić w maksymalnym skrócie najważniejsze etapy i kłopoty naszych dociekań o świecie jako całości.

Kosmologia jest najstarszą z nauk przyrodniczych, narodziła się jako astrono- mia i fizyka oraz filozofia w poglądach pierwszych jońskich filozofów przyrody w VI wieku p.n.e. Było to naturalne, bo myśliciele ówcześni nie potrafili wydzie- lić – jak się to czyni obecnie – pojedynczego zjawiska przyrodniczego ze wszyst- kiego, co się dzieje i mówili o wszystkim jednocześnie. Później kosmologia grec- ka przyjęła postać geocentrycznego systemu świata. Kosmologia wykraczająca poza Układ Słoneczny i obejmująca „wszystko, co istnieje”, pojawiła się w po- łowie XIX wieku i przyjęła (w ślad za Newtonem) poprawnie, że siłą spajającą cały świat jest grawitacja. Z rozmaitych przyczyn uznano wtedy, że kosmicz- na materia, niczym powietrze w pokoju, w którym to piszę, jest nieruchomym jednorodnym gazem (jego atomami są gwiazdy) wypełniającym dokładnie całą nieskończoną przestrzeń euklidesową. I tu pojawiła się zasadnicza trudność. Ta- kiego nieskończonego i nieruchomego gazu nie da się opisać prawem powszech- nego ciążenia Newtona. Wbrew swej nazwie, prawo to nie jest powszechne, czyli uniwersalne, bo nie stosuje się do nieskończonego ośrodka. Pod koniec XIX wie- ku kosmologia załamała się jako dziedzina nauki i uznano, że o Wszechświecie można dumać filozoficznie, lecz nie badać go metodami fizyki.

Przełom nastąpił w listopadzie 1915 r., gdy Einstein podał pełne sformułowa- nie nowej teorii grawitacji, ogólnej teorii względności (OTW). Dwa lata później, w 1917 r., zorientował się, że nowa teoria w naturalny sposób pokonuje prze- szkodę, na jakiej wywróciła się grawitacja Newtona i można ją zastosować do

(18)

wszechświata wypełnionego jednorodnym gazem gwiazd. I dalej popełnił istot- ny błąd: bez wahania wpisał się w dostojną tradycję pochodzącą od pierwszych greckich filozofów, głoszącą, iż wszechświat jako całość jest niezmienny. Lokal- nie, jak widzimy gołym okiem, zmian jest bez liku, lecz w sumie kasują się i ca- łość trwa wiecznie niezmieniona. Greccy filozofowie mieli powody, by tak wie- rzyć, lecz w czasach Einsteina nie było to już konieczne. Co więcej, jego teoria stawiła mu opór i nie chciała opisywać świata statycznego. Zamiast zorientować się, że prawa fizyki są mądrzejsze od poglądów filozoficznych, Einstein tak wie- rzył w niezmienność Wszechświata, że zdecydował się zmodyfikować równania rządzące grawitacją (wprowadził tzw. stałą kosmologiczną) i stracił szansę na podanie jako pierwszy poprawnego (zgodnego z obserwacjami) relatywistycz- nego (tzn. zgodnego z OTW) modelu Wszechświata. (Termin „model” oznacza tu uproszczoną teorię Wszechświata, taką, jaką jest sens zbudować. Dokładnego opisu pola grawitacyjnego w każdym miejscu w Kosmosie nie zbudujemy nigdy, bo taki opis musiałby uwzględniać każde istniejące w świecie ciało, w tym każ- dego z nas, zatem byłby on przerażająco skomplikowany i nawet gdybyśmy do- stali go w prezencie od Stwórcy, to byłby absolutnie nie do użycia. Grawitacyjny model Wszechświata i kosmicznej materii opisuje rzeczywistość w przybliżeniu, w skali odległości pomiędzy gromadami galaktyk; pojedynczych gwiazd, a na- wet całych galaktyk on nie uwzględnia). Statyczny model wszechświata Einste- ina z 1917 r. szybko wywrócił się z przyczyn teoretycznych i obserwacyjnych.

W latach 1922-24 rosyjski matematyk Aleksander Friedmann podaje model ewoluującego rozszerzającego się („ekspandującego”) wszechświata i to on sta- nowi matematyczną podstawę dzisiejszej kosmologii.

W 1924 r. Amerykanin Edwin Hubble wykazuje, że tajemnicze „mgławice pozagalaktyczne” to odrębne galaktyki, podobne do naszej Drogi Mlecznej;

Wszechświat odtąd postrzegamy jako rojowisko nie gwiazd, lecz galaktyk.

W 1927 r. na scenie pojawia się belgijski duchowny Georges Lemaître (1894-1966). Ponownie odkrywa ekspandujący jednorodny izotropowy model kosmologiczny Friedmanna, który po krytyce wyrażonej przez Einsteina poszedł w odstawkę. Lemaître czyni następny krok: dotąd kosmologia była matematycz- na – zajmowała się kosmiczną grawitacją, czyli geometrią czasoprzestrzeni. On inicjuje kosmologię fizyczną, mówiącą, co się dzieje z materią w tym świecie.

Skoro czasoprzestrzeń rozszerza się, powiada Lemaître, to materia rozbiega się i odległości między ciałami kosmicznymi rosną. Podaje liniowe prawo Le- maître’a–Hubble’a oddalania się ciał i opierając się na dostępnych mu wynikach obserwacji, szacuje wartość stałej Lemaître’a–Hubble’a w tym prawie na dzie- więć razy większą niż wartość obecnie przyjmowana.

W 1929 r. Hubble, opierając się na obserwacjach cudzych i własnych, ogłasza

„powszechną ucieczkę galaktyk” (stąd nazwy „prawo Hubble’a” i „stała Hub- ble’a” przez kilkadziesiąt lat powszechnie występujące w literaturze).

(19)

niezmiennego. Filozofia ustępuje miejsca fizyce.

W 1931 r. Lemaître argumentuje, że jeżeli w rozszerzającym się Wszechświe- cie będziemy cofać się w czasie, to kosmiczna materia w końcu zbiegnie się do jednego punktu. I na odwrót, Wszechświat rozpoczął ekspansję (narodził się) w wyniku wybuchu tego „pierwotnego atomu”.

Einstein i naukowy opiekun Lemaître’a, sławny astrofizyk angielski Arthur Eddington, odnieśli się nieufnie do koncepcji pierwotnego atomu, niepodobnego do znanej materii i nie wiadomo dlaczego eksplodującego. To nadmiernie przy- pominało religijną kreację świata. Prawa zachowania materii (masy) i energii musiały być w tym osobliwym punkcie czasoprzestrzeni złamane. Model Fried- manna–Lemaître’a miał dodatkowy kłopot: jeżeli czas liczyć od momentu wy- buchu, to pomiar stałej Lemaître’a–Hubble’a (Hubble ok. 1936 r.) dawał wiek Wszechświata mniejszy niż wiarygodnie ustalony geologicznie wiek Ziemi.

Od 1948 r. kosmologia fizyczna Lemaître’a miała groźnego konkurenta: wy- bitny astronom angielski Fred Hoyle (1915-2001) zaproponował teorię stanu stacjonarnego Wszechświata. Przestrzeń się rozszerza, galaktyki rozbiegają się („uciekają”), więc gęstość materii powinna maleć. Hoyle wysunął koncepcję, że istnieje niewyczerpywalne źródło materii, kreujące w całej przestrzeni Kosmosu atomy dokładnie w takiej liczbie, by skompensować ich ubytek wskutek eks- pansji. Wszechświat jest w tym sensie w ruchu, a jednocześnie nie zmienia się.

Ta koncepcja nigdy nie uzyskała porządnej podstawy fizycznej (co kreuje nowe atomy i to w ściśle wymaganej ilości?), lecz miała atrakcyjny walor – usuwała niechcianą przez większość fizyków i astronomów pierwotną osobliwość cza- soprzestrzeni, czyli początek świata. Hoyle użył tej niechęci jako argumentu za swoją teorią również wobec szerszej publiczności: w audycji popularnonaukowej radia BBC w 1949 r. stwierdził, że według poglądów Lemaître’a świat zaczął się od „wielkiego bum!”. To drwiące określenie („big bang!”) miało zdyskredytować te poglądy. Hoyle nie przewidział, że dwadzieścia lat później szydercza nazwa awansuje i stanie się poważnym terminem naukowym powszechnie stosowanym w literaturze fachowej (wymogi języka polskiego sprawiły, że przekład jest po- ważniejszy i brzmi „Wielki Wybuch”). W owym czasie niektórzy nazywali Le- maître’a „eksplozywnym jezuitą”.

Od wczesnych lat czterdziestych kosmologią fizyczną opartą na modelu Friedmanna–Lemaître’a interesował się amerykański fizyk rosyjskiego pocho- dzenia, George Gamow (1904-1968), do tego czasu znany z dokonań w fizy- ce jądrowej: podał kwantowomechaniczną teorię rozpadu jądra z emisją cząstki alfa (jądro helu) oraz przedstawił kroplowy model jądra atomowego. W latach 1946-1953 Gamow wraz ze współpracownikami, swoim doktorantem Ralphem Alpherem, Robertem Hermanem i znanym astrofizykiem niemieckim, Hansem Bethem (1906-2005), opublikował około 20 prac o fizyce Wielkiego Wybuchu i jego konsekwencjach. Gamow widział tu dwa zagadnienia: skąd się wzięły pier-

(20)

wiastki chemiczne i czy po Wielkim Wybuchu pozostały jakieś ślady świadczą- ce o jego zajściu? Odnośnie pierwszej kwestii uznał, że pierwiastki nie istniały w obecnych ilościach od samego początku, lecz zostały wytworzone wkrótce po nim. W 1948 r. powstaje teoria bg syntezy pierwiastków w bardzo wczesnym Wszechświecie (nazwa nie pochodzi od nazw cząstek promieniowania jądrowe- go, alfa – jądra helu, beta – elektronów i gamma – fotonów, lecz od nazwisk Alpher, Bethe, Gamow; Bethe został dopisany przez Gamowa w tym celu, o co do końca życia Alpher miał do niego żal). Gamow założył, że na samym początku materia składała się wyłącznie z protonów i neutronów, a wszystkie pierwiastki powstały przez wychwyt kolejno pojedynczych neutronów, poczynając od od- dzielnych protonów. Teoria była błędna i podawała w miarę poprawnie tylko ilo- ści wodoru, jego izotopu deuteru i helu, czyli niewiele.

Po drugie, Gamow zastanawiał się, czy pierwotna mieszanina protonów i neu- tronów była zimna czy gorąca. Początkowo sądził, że była zimna, lecz potem uznał, że bardzo gęsta (świat był skurczony do bardzo małej objętości) plazma była gorąca, co było konieczne dla zajścia reakcji syntezy jądrowej. W gorącej naładowanej elektrycznie plazmie było promieniowanie elektromagnetyczne po- zostające w równowadze termodynamicznej z plazmą, zatem można mu przypi- sać temperaturę tej plazmy. W miarę rozszerzania się przestrzeni plazma rozrze- dza się i ochładza, podobnie maleje temperatura promieniowania, co przejawia się tym, że długość fali każdego fotonu jest rozciągana w takim samym stopniu jak sama przestrzeń. Gdy temperatura spadnie do ok. 6000 K, elektrony łączą się ze swobodnymi protonami (których jest większość), znika naładowana plazma, a na jej miejsce pojawia się neutralny gaz wodorowo–helowy, który dla światła jest bardziej przejrzysty od powietrza. Fotony przestają oddziaływać z materią i rozchodzą się swobodnie w tym gazie. Rojowi fotonów nadal przypisujemy temperaturę, która stale maleje w miarę rozszerzania się Wszechświata. Zatem dzisiaj w całej przestrzeni kosmicznej powinno istnieć promieniowanie o niskiej temperaturze, będące reliktem tamtej gorącej epoki.

W 1948 r. Gamow ogłosił, że promieniowanie reliktowe powinno istnieć, a Alpher i Herman wyliczyli, że obecnie ma ono temperaturę T ≈ 5 K, zatem dominują w nim fotony mikrofalowe (długość fali rzędu 1 mm). Oba te wyniki Gamow przedstawił w 1948 r. na zjeździe Amerykańskiego Towarzystwa Fizycz- nego; spotkał się z ogólnym niedowierzaniem. Nie jest całkiem pewne dlaczego;

przypuszczalnie dominowała niechęć do idei początku Wszechświata, ponadto były to początki radioastronomii i wykrycie promieniowania termicznego o tak niskiej temperaturze było skrajnie trudne (aczkolwiek nie niemożliwe). Grupa Gamowa, niezrażona niechęcią, kontynuowała badania.

W 1949 r. Gamow poprawnie ustalił, że synteza protonów i neutronów w deu- ter zaczyna się wtedy, gdy temperatura plazmy i fotonów obniży się na tyle, że fotony nie będą w stanie rozbijać nowo powstałych jąder deuteru. Alpher i Her- man powtórzyli swoje rachunki i zmienili aktualną temperaturę promieniowania reliktowego na T = 28 K, czyli oddalili się od faktycznej wartości.

(21)

smologii fizycznej faktycznie ustały.

W latach pięćdziesiątych XX wieku w dość wąskim kręgu astronomów poza- galaktycznych i kosmologów koncepcje Lemaître’a i grupy Gamowa były znane, lecz spotykały się z niedowierzaniem. Silniejsza była hipoteza świata stacjonar- nego Hoyle’a, ale i ona nie zyskała szerokiego uznania. Rosyjski fizyk Władimir Fock (1898-1974) w znanym podręczniku OTW (z 1955 r.) określił kosmologię jako dziedzinę science-fiction. Kosmologię wczesnego Wszechświata dodat- kowo pogrążała kwestia pochodzenia pierwiastków. W 1957 r. Fred Hoyle we współpracy z małżeństwem Margaret i Geoffreyem Burbidge oraz Williamem Fowlerem wykazał, że wszystkie pierwiastki o jądrach cięższych od helu (za wy- jątkiem litu i berylu) są syntetyzowane w gwiazdach, głównie tych cięższych;

obecnie jest to powszechnie przyjęta teoria powstawania pierwiastków.

Przypuszczalnie w latach 1955-57 dokonano dwukrotnie przypadkowego od- krycia promieniowania reliktowego, we Francji i w ZSRR; w obu przypadkach nie rozpoznano, co znaleziono.

Pomimo niechętnego nastawienia do kosmologii, sprawy powoli dojrzewały.

Po 1960 r. kosmologią zainteresował się wybitny fizyk amerykański, Robert H.

Dicke (1916-1997), teoretyk i konstruktor nowych przyrządów pomiarowych.

Wrócił on do idei promieniowania reliktowego i oszacował jego obecną tem- peraturę na ok. 40 K. Również w ZSRR koncepcja wczesnego Wszechświata (chociaż może nie samego jego początku) zaczęła być poważnie rozpatrywana.

W 1962 r. Jakow Zeldowicz (1914-1987), zajmujący się wcześniej teorią szyb- kiego spalania i jej zastosowaniem do broni jądrowej, przerzucił się na politycz- nie bezpieczniejsze tematy i rozważał hipotezę zimnego Wielkiego Wybuchu.

Z kolei młodzi astrofizycy, Igor Nowikow i A. Doroszkiewicz wrócili w latach 1963-64 do idei Gamowa, Alphera i Hermana i zaproponowali poszukiwania pro- mieniowania reliktowego.

W 1964 r. sprawy gwałtownie przyspieszyły. Robert Dicke sformował gru- pę do badań kosmologicznych złożoną z radioastronomów Davida Wilkinsona (1935-2002) i P. G. Rolla oraz teoretyka J. Peeblesa. Peebles prawidłowo wyko- nał obliczenia i przewidział istnienie termicznego promieniowania reliktowego osiągającego maksimum natężenia dla mikrofal rzędu 1 mm, zatem grupa Dic- kego przystąpiła do konstruowania radioteleskopu dostosowanego do obserwacji takiego promieniowania, dochodzącego do Ziemi nie z jednego kierunku, lecz z całej sfery niebieskiej. Mieli pecha.

Nieco wcześniej, w pobliskich Laboratoriach Bella dwaj fizycy, Arno Penzias i Robert Wilson, zbudowali czułą antenę do detekcji fal radiowych odbitych od satelity telekomunikacyjnego Echo, zatem interesowała ich łączność satelitar- na, a nie jakiekolwiek badania astrofizyczne. Ich antena nadawała się do łapania bardzo słabych sygnałów na mikrofalach. Dla fal o długości 7,35 cm odkryli uporczywy szum dochodzący z całego nieba, którego nie byli w stanie usunąć

(22)

pomimo intensywnych starań. Mieli szczęście (iskrę bożą?), iż nie uznali tego za złośliwość rzeczy martwych, lecz za coś ważnego. Opisy dalszego biegu wyda- rzeń różnią się w szczegółach, lecz różnice te nie są istotne. Penzias dowiedział się od znajomego fizyka, że niejaki Peebles napisał artykuł, jeszcze nie opubliko- wany, krążący w preprincie (w czasach przed Internetem prace naukowe zanim ukazały się po recenzji w czasopiśmie naukowym, były przez autorów rozsyłane do głównych ośrodków badawczych w postaci druku zwanego preprintem), który może być im pomocny. Penzias przeczytał artykuł i skontaktował się z szefem grupy, Dickem i zaprosił go do ich radioteleskopu. Dicke obejrzał wyniki pomia- rów Penziasa i Wilsona i stwierdził, że są zgodne z przewidywaniami Peeblesa – zarejestrowali promieniowanie reliktowe. Teoria spotkała się w końcu z obser- wacjami.

Uzgodniono, że obie grupy opublikują odrębne artykuły cytujące się nawza- jem. W 1965 r. w czołowym czasopiśmie astrofizycznym Astrophysical Journal Letters ukazały się obok siebie dwie krótkie prace. Pierwsza, zatytułowana Co- smic black-body radiation, licząca tylko pięć stron, podpisana na końcu (jak list) kolejno przez Dickego, Peeblesa, Rolla i Wilkinsona, wykłada zwięźle teorię pro- mieniowania reliktowego. Autorzy zaczynają od wymienienia możliwych hipo- tez kosmologicznych: teorii stanu stacjonarnego, wpływu zjawisk kwantowych na gęstą plazmę (do dziś w tej kwestii jest dużo więcej zuchwałych pomysłów niż uzasadnionych twierdzeń) oraz świata przestrzennie zamkniętego, który wie- lokrotnie przechodzi cykl rozszerzania się do maksymalnych rozmiarów, a potem kurczenia się do minimum, dzięki czemu istnieje dowolnie długo i nie ma po- czątku. Następnie (pomijając teorię Hoyle’a) stwierdzają, że wystarczy rozważyć przeszłość, gdy świat był mały i bardzo gęsty, więc powinien był być bardzo go- rący i przedstawiają zwięźle „termiczną historię” świata i jej stan obecny: istnieć winno promieniowanie termiczne jako relikt tamtej epoki. Tu powołują się na obserwacje Penziasa i Wilsona („informacja prywatna”), bo ich antena (budowa- na przez Rolla i Wilkinsona) jeszcze nie mierzy. Powołują się na będący w druku artykuł Peeblesa, grupę Gamowa i paru innych autorów; brakuje odwołań do Friedmanna i Lemaître’a.

Bezpośrednio po niej następuje licząca niepełne dwie strony praca pod (prze- sadnie) skromnym tytułem A measurement of excess antenna temperature at 4080 Mc/s, podpisana przez Penziasa i Wilsona, informująca, że rejestrują szum radio- wy z całego nieba na fali 7,35 cm. Zakładając, że jest to równowagowe promie- niowanie termiczne (czego z pomiaru na jednej długości fali niepodobna ustalić), to z jego natężenia na tej długości fali wyliczają, że ma ono temperaturę około 3,5 K. Skąd się ono wzięło – odsyłają do poprzedzającej pracy grupy Dickego.

Dla kosmologii fizycznej, i w ogóle dla kosmologii, to był prawdziwy prze- łom. W bardzo krótkim czasie ogół ekspertów uznał, że model Friedmanna–Le- maître’a jest poprawnym opisem rzeczywistego świata, że istniał młody, gęsty i gorący świat wypełniony plazmą cząstek elementarnych, w którym nie było gwiazd ani planet. Jedynie Hoyle (a z nim paru wiernych uczniów) z uporem bu-

(23)

wyjaśnienie istnienia termicznego promieniowania mikrofalowego. Nie udało się to się ani jemu, ani nikomu innemu. Co więcej, argument, który przez wiele lat uderzał w model Friedmanna–Lemaître’a i wspierał koncepcję Hoyle’a, teraz obrócił się przeciwko niej. Chodzi o istnienie osobliwego punktu (o nieskończo- nej krzywiźnie), z którego miał narodzić się, czyli wyłonić, świat. Przez czter- dzieści lat uważano to za dziwactwo, matematyczny artefakt, coś niefizycznego, prawdziwą osobliwość. Wszechświat stanu stacjonarnego, wprawdzie obciążony podejrzaną kreacją materii nie wiadomo jak, był od osobliwości wolny, więc wy- dawał się bardziej strawny. Jednak w drugiej połowie lat sześćdziesiątych Ro- ger Penrose i Stephen Hawking udowodnili czysto matematyczne twierdzenia, że przy bardzo sensownych założeniach o kosmicznej materii, czasoprzestrze- nie w OTW zawierają punkty osobliwe. Przeciwnie, czasoprzestrzenie wolne od osobliwości są rzadkie i specyficzne. Model Friedmanna–Lemaître’a przestał być dziwactwem, stał się normą.

W ciągu paru następnych lat Peebles i inni wykonali bardzo szczegółowe ob- liczenia procesów pierwotnej nukleosyntezy pierwiastków. Zarazem kosmologia oparta na czasoprzestrzeni Friedmanna–Lemaître’a ma kłopot: według niej cała kosmiczna materia ma postać ciągłego jednorodnego gazu, a przecież istnieją gwiazdy i ich skupiska, galaktyki. Konieczna była w ramach tej kosmologii teo- ria skupiania się gazu w makroskopowe ciała – teoria formowania struktur. Teo- ria ta jest do dzisiaj niezakończona, w jej rozwijaniu istotny wkład miał noblista Peebles.

Obecnie kosmologia nadal intensywnie się rozwija, a liczba książek popu- larnonaukowych na jej temat świadczy o ogromnym nią zainteresowaniu, więk- szym niż fizyką ciała stałego, która jest podstawą techniki komputerów, laptopów i smartfonów. Zaiste jest to prawdziwie bezinteresowna ciekawość świata.

(24)

Fizyka jądrowa w medycynie

Dorota Wierzuchowska Instytut Fizyki Uniwersytet Padagogiczny im. KEN Kraków

Odkrycia i rozwój fizyki jądrowej w ostatnich dziesięcioleciach przyniosły zna- czący postęp w diagnostyce i terapii medycznej, dając lekarzom nowe narzędzia przede wszystkim w walce z chorobami nowotworowymi i innymi zmianami pa- tologicznymi.

Dzięki wiedzy o procesach zachodzących w jądrach atomowych możliwa jest identyfikacja i precyzyjna lokalizacja źródła promieniowania, a następnie obra- zowanie wewnętrznej struktury żywych organizmów i tkanek bez ich naruszania.

Początkiem na tej drodze było odkrycie przez Wilhelma Roentgena w 1895 roku (8 listopada) promieni X, za pomocą których można wykonywać stoso- wane dzisiaj rutynowo dwuwymiarowe prześwietlenia rentgenowskie (rys. 1) oraz przekroje i obrazy przestrzenne, stosując wprowadzoną w 1971 roku przez Godfreya Hounsfielda i Allana Cormacka bardziej zaawansowaną technikę to- mografii komputerowej (CT) (rys. 2). Promieniowanie rentgenowskie począt- kowo stosowane było również do naświetlań powierzchniowych, niszczących nowotwory skóry.

Rys. 1. Fotografia z lewej (domena publiczna) zdjęcie rentgenowskie zaprezentowane przez W. Roentgena w 1896 r. i współczesne rutynowe prześwietlenie stóp (zdjęcie własne)

(25)

Rys. 2. Obrazy uzyskane techniką tomografii komputerowej (CT)

Medycynę nuklearną zapoczątkowało odkrycie i wydzielenie przez Marię Skłodowską i Piotra Curie pierwiastków promieniotwórczych: polonu (Po) i radu (Ra) w 1898 roku. Separacja radu-226 z blendy uranowej umożliwiła wytworze- nie i zastosowanie do radioterapii (niszczenia tkanek nowotworowych) silnych źródeł promieniowania o dużej przenikliwości. W radioterapii wykorzystuje się najczęściej wiązki promieniowania X, γ, elektrony i neutrony. Ważna jest moż- liwość ograniczenia zasięgu działania promieniowania do obszaru niszczonego guza. Lepszą lokalizację przestrzenną promieniowania uzyskuje się w przypadku stosowanych od początku lat sześćdziesiątych terapii z wykorzystaniem proto- nów i ciężkich jonów.

Techniki, wynalezione na potrzeby wojenne w latach czterdziestych, umożli- wiły produkcję radioizotopów w akceleratorach cząstek i reaktorach jądrowych, wśród których kobalt-60 stosowany jest w tzw. bombach kobaltowych do na- promieniowań za pomocą zewnętrznych wiązek promieniowania (teleradiotera- pia), cez-137 i iryd-192 aplikowane na określony czas w postaci „igieł” i „tubek”

bezpośrednio w pobliże nowotworu (brachyterapia) lub jod-131, fosfor-32, stront-89 podawane doustnie lub dożylnie odkładają się wybiórczo w objętości guza jako wewnętrzne źródła promieniowania w terapii radioizotopowej.

Na podobnej zasadzie scyntygrafia do obrazowania wykorzystuje radiofar- maceutyki zawierające najczęściej technet-99m lub tal-201, jod-131, gal-67, po- łączone z odpowiednio dobranymi związkami chemicznymi (nośnikami) powo- dującymi gromadzenie się ich w tym, a nie w innym narządzie. I tak: koloidalna siarka wychwytywana jest przez komórki Browicza-Kupfera wątroby; kulecz- ki albumin zatrzymują się w naczyniach włosowatych płuc; technet połączony z fosforanami gromadzi się w kościach. Izotopy podawane są zwykle bezpośred- nio do naczyń, wyjątkowo doustnie. Istnieją specjalne monogramy i wzory, na podstawie których oblicza się dawkę izotopu w zależności od masy i powierzchni ciała. Rozmieszczenie izotopów oraz drogi ich przepływu, wydzielania i wyda- lania rejestruje się przy pomocy umieszczonego nad pacjentem scyntygrafu albo gamma kamery. Scyntygrafy są aparatami, w których detektor przesuwa się nad badanym narządem. Jego obraz drukowany jest na papierze. Aparaty te są dziś już przestarzałe, a czas badania bardzo długi, więc używa się ich przede wszyst-

(26)

kim do badania małych narządów (np. tarczycy, nerek). Gamma kamery są now- szą generacją aparatów medycyny nuklearnej. Duża głowica tego aparatu obej- muje swoim polem widzenia całość badanego narządu (wątroby, serca, mózgu, nerek), a badanie w porównaniu ze scyntygrafem trwa znacznie krócej. Wynik badania można otrzymać na błonie fotograficznej, chociaż obecnie utrwala się znacznie częściej w pamięci komputera. W obrazie komputerowym, zależnie od potrzeb, możliwa jest zmiana skali barwnych, filtrowanie, wygładzanie, a przede wszystkim badanie czynności narządów. Gamma kamery ruchome (rotujące) umożliwiają uzyskanie obrazów warstwowych (tomograficznych), podobnie jak w tomografii komputerowej. Obrazy te uzyskuje się przez okrężny ruch głowicy aparatu wokół ciała pacjenta. Technika ta określana jest jako tomografia emisyj- na pojedynczego fotonu (SPECT).

Badanie izotopowe nie jest badaniem niebezpiecznym. Radioizotopy używa- ne w badaniach scyntygraficznych emitują względnie mało szkodliwe dla orga- nizmu promieniowanie gamma. Pochłonięta dawka nie przekracza dwukrotności dawki rentgenowskiego badania płuc, a w niektórych przypadkach jest zdecydo- wanie mniejsza. Badania izotopowe nie stwarzają wymiernego zagrożenia dla domowników osoby poddanej badaniu, nie są też badaniami drogimi. Ich koszt jest nieco wyższy od badań ultrasonograficznych, a znacznie niższy od tomogra- fii komputerowej i rezonansu magnetycznego.

Inną izotopową techniką jest pozytonowa tomografia emisyjna (PET).

Pacjentowi podaje się substancję (glukozę) znakowaną radionuklidem (fluor-18), ulegającym rozpadowi β+, ze względów bezpieczeństwa o krótkim czasie zani- ku. Powstający pozyton (e+) szybko anihiluje z elektronem (e-) i powstają dwa emitowane w przeciwnych kierunkach kwanty gamma, które są jednocześnie re- jestrowane przez dwa z wielu detektorów rozmieszczonych na pierścieniu wokół pacjenta. Rejestracja koincydencji czasowych zadziałania detektorów znajdują- cych się po przeciwnych stronach badanego obszaru pozwala na wyznaczenie punktu, z którego nastąpiła emisja. Metodami tomograficznymi można uzyskać rozkład przestrzenny i czasowy znakowanej substancji w ciele pacjenta i wnio- skować o morfologii narządów. Obrazy uzyskiwane metodami radioizotopowy- mi (SPECT i PET) nie mają dużej zdolności rozdzielczej, czas badania jest długi, a pochłonięta dawka promieniowania, choć niewielka, jest znacząca, ale uzyski- wane informacje są nieosiągalne innymi metodami np. magnetycznego rezonan- su jądrowego MRI. Z tego względu stosuje się urządzenia hybrydowe, łączące PET z tomografem CT lub rezonansem magnetycznym.

Przełomem w rozwoju metod obrazowania było odkrycie w 1946 roku zjawi- ska rezonansu magnetycznego (MR) i wykorzystanie go po raz pierwszy w 1973 roku do obrazowania z użyciem metod opracowanych dla tomografii kompute- rowej CT.

Jądra pierwiastków o nieparzystej liczbie protonów i neutronów charaktery- zują się niezerowym wewnętrznym momentem pędu, zwanym spinem, i związa- nym z nim momentem magnetycznym. W przyrodzie występuje 117 izotopów

(27)

o takiej własności, z których najpowszechniejszy, zwłaszcza w organizmach żywych, jest wodór o spinie ½ i z tego powodu jest on najczęściej wykorzysty- wany do obrazowania. Po umieszczeniu badanego obiektu w zewnętrznym polu magnetycznym o indukcji magnetycznej B0 momenty magnetyczne orientują się względem pola, zajmując tylko określone, dozwolone poziomy energetyczne. Po zadziałaniu impulsu zmiennego pola elektromagnetycznego o częstości radiowej możliwe są przejścia między tymi poziomami, jeśli spełniony jest warunek rezo- nansu tzn., gdy jego częstość ω odpowiada energii przejścia ∆E=ω=γ B0, gdzie γ jest czynnikiem zależnym od rodzaju izotopu pierwiastka. Następuje absorp- cja promieniowania, a następnie emisja sygnału, który jest analizowany. Można precyzyjnie określić położenie i rodzaj źródła emisji i na tej podstawie, stosując metody tomografii, wykonać obrazowanie wnętrza badanego obszaru. Najpierw wykonywane są obrazy warstw będących przekrojem przez ciało pacjenta, a zło- żenie obrazów sąsiednich warstw daje obraz trójwymiarowy.

Rys. 4. Tomografia MR głowy, dwa z wykonanych w tym badaniu 729 przekrojów Rys. 3. Skaner PET-CT i wynik badania (źródło: Wikipedia)

(28)

Częstość rezonansowa w danym polu o indukcji magnetycznej B0 zależy od rodzaju jądra, ale również od jego otoczenia, tzn. od rodzaju cząsteczki, w której ono się znajduje. Oznacza to, że jednakowe jądra mogą dawać rezonanse o róż- nych częstościach. Zespół rezonansów obserwowanych w danej substancji nosi nazwę widma, a poszczególne rezonanse uwidaczniają się w postaci linii widmo- wych. Cząsteczka danego rodzaju posiada swoje charakterystyczne widmo, a na- tężenia linii zależą od stężenia związku. Analiza widm, czyli spektroskopia MRS (spektroskopia zlokalizowana wysokiej rozdzielczości) pozwala np. na określe- nie rodzaju i stężenia metabolitów występujących w tkance badanego narządu.

Rys. 5. Aparat MRI i przykładowe widmo 1H NMR (żródło: Wikipedia)

W metodach magnetycznego rezonansu stosowane są pola magnetyczne stałe i zmienne o częstościach radiowych, co jest bezpieczne dla pacjenta i nie naraża na działanie szkodliwego promieniowania jonizującego. Wadą jest stosunkowo wysoki koszt i długi czas pojedynczego badania.

Niszczące dla komórek działanie promieniowania jądrowego, polegające na trwałym uszkodzeniu błon komórkowych i zakłóceniu procesu replikacji DNA, wykorzystywane jest do sterylizacji radiacyjnej narzędzi chirurgicznych, leków i przeszczepów tkankowych.

W chirurgii odtwórczo-naprawczej, przeszczepy (przede wszystkim z gru- py tkanek łącznych: kości, ścięgien, skóry, rogówki, twardówki, zastawek serca i in), pełnią funkcje protez biologicznych. Oprócz funkcji podporowych, sty- mulują procesy regeneracji w organizmie biorcy. Do przeszczepów tego rodzaju stosuje się tkanki pozbawione komórek żywych. W tym celu wykorzystuje się promieniowanie jądrowe, minimalizując równocześnie ryzyko przeniesienia za- każeń do organizmu biorcy. Zaletą sterylizacji radiacyjnej jest prostota i szybkość procesu przeprowadzanego w temperaturze pokojowej, oraz – dzięki przenikli- wości promieniowania gamma – możliwość stosowania całkowicie szczelnych opakowań zabezpieczających przed dostępem powietrza i zanieczyszczeniami po sterylizacji. Należy podkreślić, że ten sposób nie wywołuje radioaktywności sterylizowanego materiału.

(29)

rób nie byłaby możliwa. Dziedzina ta dynamicznie się rozwija, dając lekarzom coraz skuteczniejsze narzędzia ratujące ludzkie życie.

Zalecana literatura

[1] B. Ciesielski, W. Kuziemski, Obrazowanie metodą magnetycznego rezonansu w medycy- nie, Gdańsk-Toruń 1994.

[2] B. Gonet, Obrazowanie magnetyczno-rezonansowe. Zasady fizyczne i możliwości diagno- styczne, Wydawnictwo Lekarskie PZWL, Warszawa 1997.

[3] J.W. Hennel, T. Kryst-Wydźwigowska, Na czym polega tomografia magnetyczno-rezonan- sowa? Kraków 1995.

[4] A. Hrynkiewicz, E. Rokita, Fizyczne metody diagnostyki medycznej i terapii, Wydawnic- two Naukowe PWN, Warszawa 2000.

[5] W. Łobodziec, Podstawy fizyki promieniowania jonizującego na użytek radioterapii i dia- gnostyki radiologicznej, Wydawnictwo Uniwersytetu Rzeszowskiego, Rzeszów 2016.

[6] M. Nałęcz red., Fizyka medyczna, Akademicka Oficyna Wydawnicza EXIT 2002.

[7] M. Nałęcz red., Obrazowanie biomedyczne, Akademicka Oficyna Wydawnicza EXIT 2003.

[8] B. Pruszyński., Diagnostyka obrazowa. Podstawy teoretyczne i metodyka badań, Wyd.

Lekarskie PZWL, Warszawa 2000.

(30)

Mikrotomografia komputerowa na Uniwersytecie Jagiellońskim

Bartosz Leszczyński Zakład fizyki Medycznej, Instytut Fizyki UJ

Metody tomograficzne

Obecnie metody tomograficzne takie jak tomografia komputerowa (CT), tomo- grafia rezonansu magnetycznego (MRI) czy pozytronowa tomografia emisyjna (PET) stanowią podstawę diagnostyki obrazowej wielu chorób i urazów. Metody te zostały opracowane i udoskonalone do optymalnego obrazowania pacjentów, osiągając przestrzenne zdolności rozdzielcze 0.24 mm w przypadku CT [1] czy 0.1 mm w przypadku badań ex-vivo 7T MRI [2]. Tomografy kliniczne mają za- pewnić maksymalną rozdzielczość w możliwie krótkim czasie, z zachowaniem bezpieczeństwa pacjenta, w szczególności ograniczenia dawki promieniowania w CT i PET. Urządzenia te posiadają swoje odpowiedniki przeznaczone do ba- dań przedklinicznych ex-vivo i in-vivo na małych zwierzętach laboratoryjnych.

Dzięki obrazowaniu znacząco mniejszej objętości (zwykle kilka lub kilkadziesiąt centymetrów sześciennych) i znacznie łagodniejszych restrykcjach co do dawki promieniowania X w CT, czy wartości indukcji pola magnetycznego w MRI, możliwe jest osiągnięcie dużo wyższych zdolności rozdzielczych na poziomie mikrometrów. W ten sposób definiuje się mikrotomografy.

Mikrotomografia komputerowa

Mikrotomografia komputerowa (micro-CT) to niedestrukcyjna metoda obra- zowania niewielkich próbek z przestrzenną zdolnością rozdzielczą rzędu mi- krometra. Wszystkie rodzaje tomografii komputerowej wymagają do działania źródła promieniowania rentgenowskiego. Istnieją wprawdzie laboratoria mikro- tomograficzne działające przy synchrotronach i korzystające ze wszystkich zalet promieniowania synchrotronowego, takich jak monochromatyczność i wysoka intensywność promieniowania. Jednakże ze względu na ograniczoną dostępność synchrotronów znakomita większość klinicznych tomografów komputerowych i mikrotomografów komputerowych wykorzystuje lampy rentgenowskie. Dru- gim elementem potrzebnym do budowy tomografu komputerowego jest detektor promieniowania X. Wykorzystuje się tu matryce CCD lub CMOS połączone ze scyntylatorem przekształcającym promieniowanie X na widzialne. W tomogra- fach klinicznych używa się nawet 320-warstwowych detektorów [3] – oznacza to, że możliwe jest zarejestrowanie danych do uzyskania 320 obrazów warstw badanego pacjenta. W mikrotomografii stosuje się wysokorozdzielcze kamery pozwalające na uzyskanie obrazu w rozdzielczości nawet 16 megapikseli w pro-

Cytaty

Powiązane dokumenty

Wypisz nazwy zwierząt wymienionych w wierszu Zyg- munta Marka Miszczaka pt.. O najlepszej radzie

Polacy powinni ograniczyć ilość spożywanego alkoholu, a na imprezach młodzieżowych nie powinno go być w ogóle.. Dlaczego tak nie jest, jak

uczyć brzeg wspólny (fotografia), Agata Witkowska doesn’t care (fotografia), Tomasz Bieńkowski mirrors (linoryt) i zastanawiają się, biorąc pod uwagę pytanie zawarte w temacie,

9 Bliskie relacje międzyludzkie w późnej dorosłości Anna Gutowska-Ciołek?. 10 Czym

A slvtlią dr<lgą ponlysl jcdnoczcsnego trbsadzenia aktrrra w dwu ti]k ró.ż'nych roIach wydaje się błrdzo atrakcyjnyrn dIu widza rozwiązalticm, gdyź, ten nic tylko

z takiego sposobu rozumowania, w którym ojcostwo Boga jest przeżywane jako wzór ojcostwa w Kościele, rodzą się.. rady dla ojców w

ORZEŁ – klasa III gimnazjum Czas trwania konkursu: 45 min. Jeżeli wśród nich jest poprawna, zaznacz ją na karcie odpowiedzi, jeżeli tak nie jest, zaznacz na

Iwan Paszkin, choć w jednej z recenzji przyrównany do średniowiecz- nego Mistrza Polikarpa 2 , jest w Ludziach i aniołach nie tyle everyma- nem, co typowym Rosjaninem, a