• Nie Znaleziono Wyników

Eksperyment krytyczny w energetyce jutra

N/A
N/A
Protected

Academic year: 2022

Share "Eksperyment krytyczny w energetyce jutra"

Copied!
8
0
0

Pełen tekst

(1)

Eksperyment krytyczny w energetyce jutra

Autorzy: prof. dr hab. inż. Janusz Badur, dr hab inż. Tomasz Ochrymiuk, Zakład Konwersji Energii, IMP PAN Gdańsk

(„Nowa Energia” – nr 2-3/2020)

Lata 2020-2030 będą punktem zwrotnym naszej energetyki zawodowej. Od momentu gdy, na początku tego roku, przerwano budowę nadkrytycznego bloku parowego 1000 MWe Ostrołęka C, jest zrozumiałym, że nie otrzymamy już zgody na budowę kolejnych bloków energetycznych i musimy podjąć zasadniczą strategiczną decyzję co do przyszłości źródeł energii i rodzajów technologii. Niezależnie od rodzaju rozwiązań, jakie zostaną zaproponowane energetyce zawodowej, ekonomiści naszej branży, sugerują, iż akcję wprowadzania nowych technologii należy rozpocząć od uświadamiania społeczeństwu o konieczności wzrostu cen energii. Porównując ceny energii elektrycznej Polski i Danii, możemy się spodziewać, iż za tę nowoczesną bezemisyjną energię zapłacimy 4-6 więcej niż dotychczas.

1. W niniejszym artykule prześledzimy sześć głównych technologii, na których mogłaby oprzeć się energetyka krajowa. Będziemy abstrahować od cen inwestycji, a naszą analizę, która z technologii jest ekonomiczna i mogłaby się stać rentową, uprościmy i oprzemy na kryterium, które nazwaliśmy „eksperymentem krytycznym”. Jest to taki stan technologii przyszłości, w którym ilość energii otrzymanej z technologii jest porównywalna do ilości energii dostarczonej.

Jeśli więc:

𝜅 = 𝑒𝑛𝑒𝑟𝑔𝑖𝑎 𝑜𝑡𝑟𝑧𝑦𝑚𝑎𝑛𝑎 𝑒𝑛𝑒𝑟𝑔𝑖𝑖 𝑑𝑜𝑠𝑡𝑎𝑟𝑐𝑧𝑜𝑛𝑎

to technologie charakteryzujące się κ > 0.5 moglibyśmy uznać za potencjalnie pożądane dla równoważnego rozwoju. Może nawet κ > 0.5 trzeba by uznać za idealistyczną granicę. Przez energię otrzymaną rozumiemy sumaryczną energię elektryczną wyprodukowaną w całym cyklu istnienia elektrowni. Jest ona stosunkowo łatwa do ustalenia. Przez energię dostarczoną rozumiemy sumaryczną energię wydatkowaną na inwestycję, utrzymanie, remonty i utylizację elektrowni. Niektóre ze składników tej energii mogą być trudne do ustalenia - jednakże są konieczne, aby porównywać tak zasadniczo rożne technologie. Niektóre z nich, posiadają wysoką sprawność, ale za to wymagają horrendalnych nakładów inwestycyjnych. Inne charakteryzują się wspaniałymi osiągami, ale i olbrzymimi kosztami remontów. Inne z kolei wymagają olbrzymiej infrastruktury zabezpieczającej utylizację odpadów. Dlatego, nie stosujemy tu dotychczas używanego w literaturze kryterium jakim jest objętościowa gęstość energii, lecz stosujemy parametr κ, który może nie jest tak „równy”, ale jest bardziej

„sprawiedliwy”.

(2)

Parametr κ jako kryterium, nie powstaje z niczego, był zawsze obecny w energetyce. Czasami niejawnie występował w sytuacjach przełomowych, przykładowo w silnikach parowych drugiej generacji. O ile w pierwotnych silnikach Watta ten współczynnik wynosił κ = 0.005 (przy pominięciu energii potrzebnej na dostarczenie biomasy), to po wycięciu wszystkich nadających się drzew w Anglii, konieczne było sięgnięcie do węgla, którego energia składała się również z energii wydobycia. Silniki Watta spalały cały urobek węgla dla odwodnienia kopalni. Czyli κ → 0 nawet przy pominięciu innych składników energii. Wtedy też Watt i grupa inżynierów, postawiła zadanie zbudowania silnika drugiej generacji, który miałby κ = 0.015.

Ten wysiłek zakończył się sukcesem i wytyczył ramy pracy silnika trzeciej generacji, w którym parametr κ = 0.1 osiągałby niebagatelny poziom. Jest to poziom, również obecnie, będący osiągalnym celem przez najlepsze nadkrytyczne elektrownie parowe.

Tak więc odrzucając precz znane technologie, winniśmy sięgać do technologii dających nam chociażby wyjściowy poziom κ > 0.1. Jeśli tego nie spełnimy - to będziemy w niezgodzie z zrównoważonym rozwojem karzącym nas za marnotrawstwo typowe dla nowych technologii.

Jaki jest bowiem sens powrotu do czasów κ= 0.005 i mniej. Trzeba uświadomić sobie jak wysoki jest parametr κ= 0.1 oraz jak trudno będzie go, nowymi technologiami przekroczyć.

Przykładowo, jeden z wybitnych uczonych pokazywał nam niedawno swój wynalazek produkujący prąd elektryczny ze sprawnością 80%. Pomijając koszt inwestycji i skupiając się na głównych parametrach potrzebnych do obliczenia κzauważyliśmy, iż urządzenie to pobiera z sieci zmienny prąd elektryczny o mocy 14.5 kWe, a produkuje stały prąd elektryczny zasilający żarówkę 2 W. Czyli, oceniając κ z dużym nadmiarem, mamy κ = 0.000137931. Cóż więc mamy myśleć o wspaniałym wynalazku? Że, niestety jest gorszy od pierwszego silnika Watta i do energetyki zawodowej się nie nadaje. Ma obecnie status zabawki. Winniśmy pamiętać o skali czasowej jaka musi upłynąć między zabawką, a prawdziwym urządzeniem.

Trąby parowe i wrota otwierane silnikami parowymi stosowali już Egipcjanie, ale dopiero Watt i jego inżynierowie, po około 35 wiekach, znaleźli właściwą konstrukcję i właściwe materiały.

Aby od zabawki przejść do urządzenia potrzebny jest pomysł konstrukcyjny. Czasami czekamy na niego setki lat.

2. Oprócz sześciu potencjalnych technologii, mamy dodatkowo dwa skrajne rozwiązania stojące przed energetyką zawodową. Są one na tyle skrajne i radykalne, że będziemy je z założenia pomijać. Pierwsze rozwiązanie, jest takie, że występujemy z Unii Europejskiej i kończymy rozpoczętą budowę elektrowni Ostrołęka C, a potem realizujemy swój własny plan rozbudowy energetyki elastycznej oparty o dogmat „stałej ceny energii elektrycznej”. Drugie rozwiązanie, zupełnie przeciwstawne, jest takie że całkowicie podporządkujemy się scenariuszowi UE, który przewiduje, że do 2030 r., nastąpi zupełna rezygnacja z paliw gazowych, ciekłych i stałych zawierających pierwiastek węgiel (carbon-free fuel). Zakazana będzie również technologia sekwestracji i składowania CO2, jako technologia nie spełniająca kryteriów bezpieczeństwa. W tym scenariuszu 94% energii elektrycznej kraju będzie kupowane ze źródeł europejskich OZE, opartych głownie na wiatrach atlantyckich i słońcu hiszpańskim.

Rola energetyki zawodowej będzie sprowadzona do inwestora w sieci przesyłowe. Natomiast 6% potrzeb będzie uzyskiwanych z biomasy produkowanej w Polsce. Mamy w tym punkcie widoczne niedoszacowanie danych - bowiem nawet obecnie przy 2% udziale biomasy w

(3)

produkcji elektryczności brakuje nam surowca i musimy go sprowadzać z Ukrainy i Białorusi.

Taka koncepcja rozwinięcia Polski w kierunku głównego producenta biomasy w UE może być szczególnie niebezpieczna dla naszych aspiracji - mamy tu wyznaczoną rolę kraju rolniczego.

W przeciwieństwie do koncepcji pierwszej, zakładającej realną stabilność cen, ta druga będzie posiadała ceny wynikowe, uznaniowe. Wprawdzie energetyka wiatrowa i energetyka fotowoltaiczna oparta jest na całkowicie darmowych źródłach energii (nie trzeba np. płacić wysokich emerytur górnikom), to jednak - jak wskazuje porównanie cen energii w Polsce i Danii - możemy się spodziewać sprawiedliwego „wyrównania cen” i ich 3-4-krotnego podniesienia. Ceny energii nie wynikają bowiem z pierwszej zasady termodynamiki, lecz z

„przymusu gospodarczego”. A ten przymus nie jest już obiektywny - ma on swoją narodowość.

3. Przejdźmy do pierwszej technologii - jest nią energetyka wiatrowa. Gdyby oprzeć energetykę zawodową w całości na energetyce wiatrowej, to do 2030 r. należało by wybudować ok. 40 tys.

wiatraków lądowych o mocy 6 MW, zgrupowanych w około 1000 farm rozłożonych po całym kraju lub 10 tys. wiatraków morskich o mocy 12 MW. Zakładamy, że współczynnik wykorzystania wiatru da się utrzymać na poziomie 20% na lądzie i 33% na morzu. Zakładając optymistycznie (średnice wirnika 180 m, odległości pomiędzy wiatrakami 330 m), że gęstość posadowienia wiatraków na lądzie 9 wiatraków na km2, farmy zajmą około 4.5 tys. km2. Na przykładzie najbardziej wietrznego województwa pomorskiego oznacza to utratę 25%

powierzchni. Dodatkowo każdej farmie towarzyszyć będzie blok gazowy mocy 250 MW, na paliwo bezwęglowe typu amoniak KH3 oraz dwa urządzenia, elektrolizer o mocy ok. 125 MW.

Rys. 1. Schemat konwersji energii elektrycznej w paliwo bezwęglowe

(4)

4. Drugą wielkoskalową technologią jest fotowoltaika. Wymaga ona jeszcze potężniejszych (kilkumiesięcznych) magazynów energii niż energetyka wiatrowa. Aby obsłużyć zapotrzebowanie na energię elektryczną trzeba do 2030 r. postawić około 50 tys. farm fotowoltaicznych każda o mocy 20 MW. Każda farma winna posiadać swój system magazynowania energii. Przykładowo może być to technologia „power to gaz” oparta na amoniaku, jako gazie bezwęglowym (rys. 1). Ale w układzie „dzień - noc”, który nijako naturalnie napleciony jest na roczny system zmienności, można stosować akumulatory prądu, np. typu litowo-bromowy. Pokrywające zapotrzebowanie nocne sięgające w Polsce średnio 12 tyś MW zimą i 9 tyś MW latem.

5. Trzecią technologią jutra, wprawdzie posługującą się paliwem opartym o węgiel, jest technologia MHD (magneto-hydrodynamiczna). Jej kluczową cechą jest takie spowolnione spalanie paliwa, aby otrzymać zjonizowaną plazmę konieczną dla bezpośredniej konwersji energii paliwa w prąd elektryczny. Prace nad zbudowaniem elektrowni MHD trwają już od 60 lat. Dylematem jest nie samo otrzymywanie plazmy i bezpośrednie wytwarzanie z niej prądu, lecz późniejsze wykorzystanie spalin mających temperaturę ok. 3000oC, ciśnienie rzędu 30 MPa i olbrzymią naddźwiękową prędkość. Tutaj fizycy napotykają na piętrzące się problemy konstrukcyjne. Ciągle pojawiające się nowe geometrie generatorów MHD, nowe typy samych generatorów prądu (np. typu Faraday’a, Halla, Lorentza, etc.) prowadzą do smutnego wniosku, iż do 2050 r. fizycy będą zajęci ustalaniem konstrukcji generatora prądu, a dopiero później, w niedalekiej przyszłości, przystąpi się do rozwiązywania problemów konstrukcyjnych klasycznego wykorzystania energii spalin. Trzeba się jednak spieszyć bo po 2080 r. może zabraknąć klasycznych paliw gazowych i płynnych.

Szkoda, iż tak mało uwagi poświęcamy krajowej elektrowni MHD znajdującej się w Instytucie Badań Jądrowych w Świerku. Ma ona moc 20 MWe i pracuje od 1970 r. Ważnym jest, aby środowisko otrzymało informację o stanie zdrowia 50-latki i o osiągniętym przez nią parametrze kappa. Gdybyśmy otrzymali wartość κ = 10-6, to można by było mówić o sukcesie nauki polskiej. Póki co, to rozwiązanie ma status zabawki i potrzeba setek oryginalnych pomysłów techników i inżynierów, aby tej technologii nadać formę praktyczną. Musimy mieć ciągle przed oczyma fakt, iż od zabawki Faraonów jakimi były trąby parowe do silnika Watta energetyka parowa miała setki nieudanych pomysłów. Nic nie wskazuje na to, aby i w przypadku siłowni MHD miało by być inaczej.

6. Czwartą technologią jest nowa, już czwarta, generacja energetyki jądrowej oparta o tzw.

reaktory wysokotemperaturowe, chłodzone gazowym helem (ang. High Temperature Gas- cooled Reactors - HTGR lub HTR). Technologia ta jest od 25 lat sprawdzana na kilku reaktorach prototypowych w Kanadzie, Francji i USA. Aktualnie Chiny oddają do użytku pierwsze dwa komercyjne bloki 2500 MW. Istotą reaktorów HTGR jest innowacyjna konstrukcja rdzenia uniemożliwiająca jego stopienie nawet w najbardziej ekstremalnych warunkach oraz nowa organizacja spalania uranu - milimetrowej średnicy ziarenka dwutlenku uranu otoczone są nadwytrzymałymi powłokami, m. in. z węglika krzemu. Zapewnia to bezpieczeństwo w trakcie procesu i usuwa kłopot związany z przechowaniem odpadów.

(5)

Reaktory nadkrytyczne (ciśnienie pary niemniejsze niż 25 MPa) mają wysoką sprawność rzędu 48-55%. Spodziewany współczynnik kappa: κ = 0.14.

7. Piątą technologią jest elektrownia termojądrowa oparta na reakcji syntezy deuteru i trytu w hel. Nie jest to pomysł nieznany w przyrodzie, bowiem podobna reakcja zachodzi w Słońcu.

Prace nad budową pierwszej elektrowni termojądrowej ITER trwają już od 40 lat. Ulokowana ona jest w centrum badawczym Cadarache w pobliżu Marsylii, na południu Francji i ma być ukończona ok. 2040 r. Jej moc znamionowa będzie wynosić około 500 MWe, a do utrzymania akcji reaktora potrzebna jest moc ok. 80 MWe. W projekcie uczestniczą finansowo i naukowo:

Unia Europejska, Japonia, Rosja, Stany Zjednoczone, Chiny (od 2003), Korea Południowa (od 2003) i Indie (od 2005). Przed przystąpieniem do programu Indii zakładano, że Unia Europejska pokryje 50% kosztów jego budowy, a pozostałe strony po 10% każda w formie komponentów. Wysokie temperatury i ciśnienie paliwa osiąga się w ten sposób, że plazma w ITER jest podgrzewana przez przepuszczanie przez nią prądu oraz podgrzewanie mikrofalami.

Docelowa temperatura ma sięgać 150 mln °C. W takiej temperaturze cząstki mają dużą prędkość i mogą łatwo wydostać się z reaktora, unosząc energię. Aby reaktor mógł działać, konieczne jest jak najdłuższe utrzymywanie plazmy ściśniętej w małej objętości. Uzyskuje się to przez używanie pułapek magnetycznych. Naładowana cząstka w polu magnetycznym porusza się wzdłuż linii pola magnetycznego, czyli krąży wokół niej. Ponieważ linie mają kształt okręgów, to cząstka jest uwięziona. Z tego wynika toroidalny kształt ITER.

Spodziewany jest κ> 0.5.

8. Szóstą technologią jest elektrownia termojądrowa stymulowana akcją laserową. Laserowa synteza jądrowa uznana jest za najbardziej przyszłościowe rozwiązanie energetyki jutra. Opiera się również na syntezie deuteru i trytu w warunkach naśladujących reakcję termo-syntezy na Słońcu. Pomysł wykorzystania akcji laserowej, aby zmusić deuter i tryt do syntezy w hel pochodzi z lat 60. ub. w., kiedy szukano zastosowań dla optycznej bomby laserowej. W Polsce pionierem tej koncepcji doprowadzania do syntezy lekkich jąder przy pomocy podgrzewania laserem był prof. Sylwester Kaliski. Podgrzewanie do zawrotnych temperatur i jednoczesny spręż paliwa można przeprowadzić bez uciekania się do używania ścian magnetycznych - tak jak to mamy w reaktorze ITER, a jedynie wykorzystując siły inercji, gdy czas akcji będzie odpowiednio krótki, rzędu nano-sekund. Jest to możliwe dla odpowiednio małych kulek paliwa (o średnicach 1 mm) spełniających kryterium Lawsona ɳτ ≥ 1014 [s/cm3], mówiące iż ilość cząstek ɳ i czas ich utrzymania w stanie skupionym musi dawać olbrzymią wartość. Gdy weźmiemy zbyt dużą próbkę paliwa to wprawdzie przybliży nas do spełnienia warunku Lawsona, lecz spowoduje konieczność użycia olbrzymiego impulsu laserowego rzędu 1000 MJ. Laboratorium Kaliskiego posiadało w tamtych czasach lasery o mocy impulsu 0.1 J. [1], jednak jego lider wierzył w niezwykłe możliwości lasera - optycznego skupienia olbrzymiej energii w niezwykle krótkim czasie i niezwykle małej objętości.

W fuzji inercyjnej wykorzystującej laser energia jest produkowana w krótkotrwałych eksplozjach paliwa termojądrowego skupionego w kulistej kapsule i ściśniętego do bardzo dużych gęstości pod działaniem promieniowania laserowego (napędzanie bezpośrednie) lub promieniowania rentgenowskiego wytworzonego przez laser (napędzanie pośrednie). W

(6)

tradycyjnym wariancie fuzji laserowej podgrzanie paliwa do wymaganej temperatury ok. 100 mln K i jego zapłon następują samoczynnie w wyniku ściskania paliwa. Współcześnie ten wariant fuzji jest badany na urządzeniu National Ignition Facility (NIF) w USA, na którym przewiduje się osiągnięcie warunków umożliwiających zapłon paliwa deuterowo-trytowego i wyprodukowanie energii 10-krotnie wyższej od energii użytego lasera. Taka sytuacja dawała by wyjściowe κ = 10, przyprawiające termodynamików o zawrót głowy.

Ale realizacja fuzji z samoczynnym zapłonem paliwa od 70. lat napotyka na coraz większe trudności techniczne i konstrukcyjne, wynikające m. in. z konieczności zapewnienia bardzo wysokiej symetrii kompresji oraz użycia lasera o bardzo dużej energii impulsu rzędu 5 MJ, dla uzyskania wysokiego współczynnika wzmocnienia energii κ = 100, niezbędnego dla rewelacyjnie ekonomicznie opłacalnej produkcji energii w reaktorze w warunkach komercyjnych. Z tego względu proponowane są i badane inne warianty fuzji laserowej pozbawione wad opcji tradycyjnej. W tych pracach uczestniczy również Instytut Fizyki Plazmy i Laserowej Mikrosyntezy im. Sylwestra Kaliskiego [2].

Jednym z pomysłów uczniów Kaliskiego jest szybki zapłon jonowy paliwa termojądrowego.

Wydaje się on być obiecującym wariantem fuzji laserowej potencjalnie umożliwiającym zapłon paliwa przy energiach drivera znacznie mniejszych, niż w przypadku tradycyjnego schematu z samoczynnym zapłonem. W tym wariancie zapłon ściśniętego paliwa następuje nie w sposób samoczynny, lecz w wyniku jego gwałtownego podgrzania intensywnym strumieniem energii pochodzącym z dodatkowego zewnętrznego źródła. Oznacza to, że jonowy zapłon paliwa skomprymowanego do gęstości 300-400 g/cm3 wymaga wiązki jonów, której przybliżone parametry są następujące: natężenie wiązki: Ib ok. 1020 W/cm2, fluencja Fb rzędu 1 GJ/cm2, energia wiązki Eb ≥ 10 kJ, czas trwania impulsu jonowego τb ok. 1-10 ps, gęstość jonów ni rzędu 1022 cm-3, średnia energia jonów Eʋ to 10-40 MeV/amu [2].

Uzyskanie takich parametrów wiązki w konwencjonalnych akceleratorach jonów nie jest możliwe i jedynymi znanymi obecnie układami, które potencjalnie mogą wytworzyć takie wiązki jonów są akceleratory laserowe. Jednak nie zanotowano sukcesów, gdyż jednoczesne spełnienie ww. wymagań przez wiązkę protonów wytwarzaną laserem okazało się być bardzo trudne, głównie ze względu na konieczność wygenerowania bardzo dużej ilości protonów (rzędu 1016) o odpowiednich energiach i konieczność zogniskowania wiązki do rozmiarów ~ 20-40 μm. Podobnie było w przypadku cięższych jonów takich jak jony węgla. Tu uczeni z IFPiLM, ze względu na znacznie wyższe wymagane energie tych jonów, niezbędne ilości jonów były mniejsze: ok. 1014 dla jonów C. Dodatkowo, ogniskowanie wiązki jonów może nie być w tym przypadku konieczne. Własności wiązek jonów węgla generowanych laserem w warunkach odpowiadających układom IFI są jednak słabo poznane, co w szczególności uniemożliwia przeprowadzenie realistycznych symulacji oddziaływania tych wiązek ze skomprymowanym paliwem DT i tym samym realistyczną ocenę parametrów wiązki jonów wymaganych dla zapłonu paliwa. Oznacza to, że trwają intensywne prace nad wariantem syntezy laserowej, zwanym szybkim zapłonem jonowym.

(7)

Realizacja laserowej syntezy jądrowej może nastąpić w reaktorze HYLIFE (rys. 2) działającym w trybie ciągłym z mocą ok. 1000 MW. Głównym problemem jest utylizacja produktów reakcji, którymi są hel, neutrony, promienie X oraz cząstki naładowane. Używa się w tym celu kurtyn litowych składających się z 300 strumieni ciekłego litu, odbierającego energię cieplną neutronów oraz przechwytujących miękkie promieniowanie X i niektóre cząstki nadładowne.

Jeśli chodzi o odbiór ciepła, to neutrony pozostawiają aż 95% swojej energii cieplnej bezpośrednio atomom litu 6Li. Niestety podczas tej reakcji neutronów z litem, oprócz helu i trytu powstają również cząstki naładowane, co utrudnia przechwycenie trytu dla produkcji kulek paliwa. Podobnie jak w reaktorze ITER, jedynym dostarczanym do elektrowni paliwem jest deuter, tryt jest odzyskiwany na miejscu i również na miejscu produkowane są kulki paliwa.

Rys. 2. Przekrój komory reaktora HYLIFE. Tutaj: 1 - osłona grafitowa; 2 - zbiornik ciśnieniowy; 3 - ciekły lit; 4 - kryza; 5 - płyta formująca strumienie ciekłego litu; 6 - „kurtyna” ze strumieni litu; 7 - strumień kulek paliwa; 8 - wkładka wewnętrzna; 9 - warstwa grafitowa; 10 - przegroda przeciwrozbryzgowa

(8)

9. Jakie więc jest jutro krajowej energetyki zawodowej? Tego nie wiemy. Bez wątpliwości jest tylko jeden fakt, iż energetyka zawodowa winna być dalej w dyspozycji monopolu państwa reprezentowanego przez Ministerstwo Aktywów. Również w ramach tego monopolu winna być osiągana elastyczność produkcji prądu we współpracy ze źródłami OZE. Inaczej mówiąc, energetyka zawodowa winna być elastyczna tylko ze własnymi źródłami OZE. Państwowe bloki energetyczne nie mogą być odstawiane, tylko dlatego że działa prywatna energetyka wiatrowa i fotowoltaiczna. Przed osobami zarządzającymi energetyką zawodową stoją trudne decyzje. Sytuację komplikuje fakt, iż w kraju nie posiadamy długoplanowej strategii energetycznej opartej o ustalone kryteria zarządzania państwem. Wszyscy rozumiemy, że sytuacja jest dynamiczna i dlatego trudno jest prognozować poza granice 2-3 lat, niemniej inne kraje taką strategię posiadają i konsekwentnie ją realizują. Być może warto ją opracować i upubliczniać, aby ustabilizować fundamenty państwowości oraz dać argument w dyskusji z tymi ekologami UE, którzy uważają, iż jakaś strategia jest lepsza od żadnej.

Literatura

[1] Sylwester Kaliski, Laserowa synteza jądrowa, Wiedza Powszechna, Warszawa, 1982.

[2] Program EUROfusion, Raport z badań prowadzonych w 2019 w IFPILM w ramach projektu Eurofusion WPPFC, Warszawa 2019.

[3] Andrzej Gałkowski, Przyszłość światowej energetyki - kontrolowana fuzja termojądrowa, Magazyn proAtom, nr 5-6, 2011.

Cytaty

Powiązane dokumenty

polonistycznej zapisy podstawy zachęcają do użycia aplikacji komputerowych do tworzenia różnorodnych tekstów oraz korzystania z różnych źródeł informacji – w

Najsłabszym ogniwem doradztwa edukacyjno-zawodowego wydaje się być – zaskakująco – (nie)znajomość zawodów, które rozważane są przez młodych ludzi jako kierunek i cel

Ośrodek Edukacji Informatycznej i  Zastosowań Komputerów w  Warszawie jest publiczną placówką doskonalenia nauczycieli działającą od  1991 roku, powołaną przez

„Sztuczna inteligencja w planowaniu kariery i rekrutacji”, który rozpoczął się w 2019 roku. Jego kluczowym elementem jest system sztucznej inteligencji, która

W tegorocznej edycji odbywającej się w trakcie edukacji zdalnej, warto zwrócić uwagę przede wszystkim na włożoną olbrzymią pracę uczniów, nauczycieli, także często

Kiedy wszystkiego się nauczyłem i swobodnie posługiwałem się czarami, to czarnoksiężnik znów zamienił mnie w człowieka... 1 Motywacje i przykłady dyskretnych układów dynamicz-

Górnictwo  węgla  kamiennego  w  ostatnich  kilku  latach  jest  w  kryzysowej  sytuacji, 

Ponieważ obliczona wartość statystyki testowej nie należy do zbudowanego zbioru krytycznego, to na poziomie istotności α = 0.05 nie ma podstaw do odrzucenia hipotezy H 0