Register

Author Topic: Marek Płużański - Siedem źródeł energii  (Read 55049 times)

Offline BladyMamut

  • Administrator
  • WyBudzony
  • *
  • Posts: 2 560
  • Reputacja: +12/-0
Marek Płużański - Siedem źródeł energii
« on: (Sun) 05.02.2017, 02:22:06 »
Marek Płużański - Siedem źródeł energii

Marek Płużański „Siedem źródeł energii” KAW, Warszawa 1977

Wstęp / Wiek pary, benzyny i elektryczności / Alchemia XX wieku / Miniatura Słońca
Gaja – matka Ziemia / Energia za darmo? / Dziwne losy góry Żar / Energia z lodówki

Wstęp

Człowiek pojawił się na ziemi niemal 4 miliony lat temu. Tak brzmi werdykt uczonych, badających szczątki kości wykopane przez antropologa, panią Mary Leakey w suchym, trudno dostępnym obszarze Tanzanii, zwanym Lactoil. Innymi słowy, już w niewyobrażalnie wręcz odległych mrokach prehistorii, afrykańskie sawanny przemierzały istoty trzymające się prosto, na dwu tylnych kończynach, posiadające umiejętność polowania i czyniące użytek z narzędzi.
Płynęły tysiące i miliony lat, a ludzie wciąż rozłupywali i obrabiali kości i kamienie, nadając im postać noży, siekierek czy młotków. Używając tych narzędzi ułatwiali sobie pracę, wykonywaną dzięki niewielkiej sile swych mięśni, więc i korzyści uzyskiwali mierne. Kiedyś wreszcie ludzie zaczęli działać w sposób zorganizowany, nie wiemy kiedy, nie pisali kronik, bo zresztą i pisma nie znali. Szkoda, bowiem odkrycie, że kilka par rąk może przy odpowiednim zgraniu wysiłków wykonać znacznie większą pracę niż jedna para, stanowiło wielki przełom w historii ludzkości. Gdy ludzie wpadli na pomysł, że nie wszystko trzeba robić samemu, a można do tego zaprzęgnąć grupę innych, właściwie przybliżyliśmy się do naszych czasów. Nastąpiło owo pierwsze „ustokrotnienie człowieka”, o którym pisał, zresztą w innej sprawie, znany historyk holenderski, Hendrik van Loon, w książce pod takim właśnie tytułem.
Władcy wykorzystywali zastępy swych poddanych, by tworzyć monumentalne budowle – wystarczy wspomnieć o piramidach egipskich. „Żołnierze, czterdzieści wieków patrzy na was!” - wołał zafascynowany Napoleon. To prawda, pierwsze gigantyczne budowle powstały zaledwie parę tysięcy lat temu. Nasza cywilizacja to tylko mgnienie oka w historii ludzkości.
Dopiero jakieś 5 tysięcy lat temu człowiek ujarzmił znacznie silniejsze od siebie zwierzęta. Konie, wielbłądy czy wreszcie słonie potrafiły zastąpić wielu ludzi, ale by to zrozumieć, musiało upłynąć wiele wody. Za to zwierzęta, te żywe i najtańsze do utrzymania maszyny, są dziś w wielu rejonach świata jedynymi maszynami, jakimi ludzie się posługują. Pożerają trawę, przetwarzają ją w swoich organizmach na energię, uzyskują możliwość wykonania pracy, po czym prowadzone ręką poganiacza czy woźnicy, tę pracę wykonują.
Kiedy człowiek nauczył się wykorzystywać ogień – nie wiemy i, być może, nie dowiemy się nigdy. Można jedynie przypuszczać, że już tysiące lat temu ognisko stało się źródłem ciepła i światła – był to pierwszy wynalazek energetyczny ludzkości. Spalano jednak wyłącznie drewno. Wprawdzie już w starożytnym Babilonie znano ropę naftową, ale służyła ona głównie do oświetlenia kopcącym płomieniem ołtarzy bogów. Ba, nawet Rzymianie, którym brakowało drewna, choć wiedzieli, że czarny kamień – węgiel łatwo się zapala, traktowali go jako zabawkę.
Z biegiem czasu stało się jasne, że znaczenie i potęga ludzi zależą niemal wyłącznie od energii, jaką dysponują. Wielkie państwa starożytności, jak Grecja, Persja czy Rzym, wspierały się na niezliczonych rzeszach ciężko pracujących niewolników. Kolejne potęgi padały, a na ich miejsce wyrastały nowe, których przywódcy potrafili lepiej zorganizować swych podwładnych. I tak właśnie działo się niemal do naszych czasów. Dopiero założenie pierwszych manufaktur i rozwój przemysłu zmienił coś w tym obrazie świata. Zaś wynalazek maszyny parowej ostatecznie przypieczętował początek nowej ery, epoki wykorzystania „mechanicznych niewolników”, którzy zastępują ludzi i zwierząta w pracy, spełniając najcięższe zadania.
Od tej pory trwała pasjonująca walka o uzyskanie lepszych źródeł energii. Pojawiają się następne odkrycia i wynalazki, które rewolucjonizują życie ludzi. Najważniejsze etapy rozwoju po wynalezieniu maszyny parowej to silnik spalinowy i prądnica oraz silnik elektryczny.
Rozwój źródeł energii był wywoływany przez stale rosnącą rolę przemysłu. Powstające fabryki wymagały coraz potężniejszych źródeł energii dla napędu maszyn, coraz więcej trzeba było przewozić towarów, coraz częściej ludzie odbywali dalekie podróże. Wszystko to odbywało się kosztem zużywania energii zmagazynowanej w paliwach kopalnych - węglu, ropie naftowej i gazie ziemnym. Mechaniczni niewolnicy ułatwiali pracę ludzi, uprzyjemniali im życie. Zresztą, co tu dużo mówić, każdy chyba dostrzega, że jesteśmy otoczeni maszynami. Trudno sobie już wyobrazić życie bez samochodów, autobusów, pociągów i samolotów, ale także bez różnych urządzeń domowego użytku, jak na przykład miksery i suszarki do włosów, maszyny do pisania czy wreszcie żarówki.
A wszystko to powstaje w fabrykach, które pracują na pełnych obrotach, by zaspokoić potrzeby coraz szybciej wzrastającej liczby mieszkańców świata. Zużycie energii rośnie więc w tempie niesłychanym. Powstają coraz to nowe kopalnie węgla, rafinerie ropy naftowej i elektrownie przetwarzające energię cieplną na elektryczną, najdogodniejszą do wykorzystania w fabrykach i domach. Nawet gdyby wszyscy mieszkańcy planety razem wzięli się do roboty, nie potrafiliby dziś już wykonać pracy, którą wykonują maszyny.
Ale jak dotychczas nie ma potrzeby, by zmuszać ludzi do zastąpienia maszyn. To one będą w dalszym ciągu zastępować ludzi, byle tylko miały zapewniony dopływ energii. Tymczasem sprawa wcale nie wygląda tak różowo, jak moglibyśmy sobie tego życzyć. Mimo ogromnego postępu wciąż jesteśmy zależni od paliw kopalnych, których zasoby nie są nieograniczone. Niektórzy futurolodzy – zawodowi przepowiadacze przyszłości, mający ambicje naukowe – ostrzegają przed nadciągającym widmem braku energii, przed katastrofą, która miałaby nas znów cofnąć do epoki kamienia łupanego. Czy mają rację? Na to pytanie odpowiem na kartach tej książki. Jednak z góry ostrzegam, że nie będzie to traktat o megawatach i dżulach ani też wykład fizyki czy techniki. Po prostu chcę opowiedzieć, do czego doszliśmy w fascynującej walce o zastąpienie pracy ludzkiej przez maszyny i co nas może jeszcze czekać.

Wiek pary, benzyny i elektryczności

Kataklizm wydarzył się niespodziewanie. Tego listopadowego wieczoru w 1965 r., jak co dzień, setki tysięcy mieszkańców Nowego Jorku kończyło pracę. Przepełnione windy zwoziły ludzi do oczekujących na parkingach samochodów, do metra i autobusów. Część z nich już dotarłą do sklepów na zakupy, bądź znajdowała się w połowie drogi do domu. I nagle... nagle wszystko zamarło w bezruchu. Stanęły windy, zatrzymały się pociągi metra, zgasły lampy uliczne i niezliczone reklamy, przestała działać sygnalizacja świetlna na skrzyżowaniach, umilkły wszystkie telewizory, radia, ba, nawet telefony, zamiast jak zwykle przyjaźnie i zachęcająco bzyczeć po przyłożeniu słuchawki do ucha, były równie milczące jak stoliki, na których stały. W ciemnościach, które spowiły miasto, świeciły tylko reflektory samochodów uwięzionych w tarasujących ulice gigantycznych korkach. Na nic nie zdało się ich kierowcom wściekłe trąbienie klaksonów.
A w ciemnościach, na chodnikach zderzali się głowami ludzie, którzy w panice starali się wyrwać z tego piekła. Bo jak inaczej można określić miejsce, w którym się znaleźli? Najgorsza była niepewność i niemożność uzyskania informacji, co też się właściwie stało? Może to najazd Marsjan? Albo wojna? Ale pytania pozostawały bez odpowiedzi, bo kto mógłby na nie odpowiedzieć. Po chwili rozpoczął się istny szturm na wszystkie kioski i sklepy sprzedające latarki, świece itp. Przytomni sprzedawcy (ci rzadko tracą głowę) od razu zmienili ceny wszystkiego, co nadaje się do świecenia, na wielokrotnie wyższe. Podobno kilka osób zarobiło na tej katastrofie sporo pieniędzy.
Pora chyba wyjaśnić, co było przyczyną, że gwarne, rozjarzone światłami miasto w mgnieniu oka stało się mroczne. Otóż po prostu nastąpiła awaria któregoś z odcinków potężnej linii przesyłowej, doprowadzającej prąd elektryczny z elektrowni nad Wielkimi Jeziorami do Nowego Jorku. Coś nawaliło, jakaś drobnostka, i to wystarczyło do wywołania paniki i sparaliżowania życia wielomilionowego miasta na wiele godzin. Cóż, nasuwa się tu tylko jedna refleksja. Staliśmy się bardzo zależni od źródeł energii. Jeszcze nie tak dawno temu ulice miast były z reguły ciemne, po zapadnięciu zmroku nieliczni przechodnie przemykali się pod ścianami domów, a niewielu tylko stać było na luksus dosiadania konia czy oświetlania sobie drogi pochodnią. Pracę zaś niemal w każdej formie, wykonywały ręce ludzi lub zwierzęta.
Nie zawsze dociera to do naszych umysłów, ale energetyka, czyli dziedzina techniki, umożliwiająca zaprzęgnięcie różnych źródeł energii do pracy na naszą korzyść, zaczęła stawiać pierwsze kroki niespełna trzy wieki temu. Gdybyśmy przyjęli, że od powstania pierwszej cywilizacji na Ziemi – Sumerów, ludu zamieszkującego obszar dzisiejszego Iraku - upłynął jeden dzień liczący 12 godzin, wówczas cała historia energetyki zamykałaby się w jego ostatnich 20 minutach. Przed rokiem 1700 jeśli już coś spalono – czyniono to, by się ogrzać lub ugotować posiłek, oczywiście nie mówiąc o wojnach czy polowaniach na czarownice...
Istnieje na ziemi czarny, dający się łatwo łupać kamień, minerał, zwany węglem. Skąd się wziął? Ponad 200 milionów lat temu, w tak zwanym okresie karbonu, na Ziemi wyrastały wielkie lasy paprotników – paproci, skrzypów, widłaków i podobnych im roślin, w niczym zresztą nie przypominających tego, co dziś zwykliśmy nazywać lasem. Wzdłuż wybrzeży mórz i jezior ciągnęły się nieprzebyte moczary i trzęsawiska. Olbrzyme paprocie sięgały wysokości niemal 30 metrów. Rośliny te często zapadały się w bagno, na nich wyrastały nowe, które również się pogrążały. Czasem wylewały rzeki, nanosiły na bagno piasek, po czym znów wyrastał las paprotników. Zatopione warstwy obumarłych roślin zagłębiały się coraz bardziej, wzrastało działające na nie ciśnienie i podwyższała się temperatura. Trwało to całe miliony lat, aż wreszcie drewno przetworzyło się w owym, jakby hutniczym piecu przyrody w minerał zwany węglem.
Aż do początku naszej ery węgiel spoczywał spokojnie w głębi ziemi. Lecz w wyniku różnych zmian geologicznych zdarzało się również, że w pewnych miejscach jego warstwy zostały odsłonięte. Przyrodzona ciekawość ludzi, a może przypadek, sprawiły, że ktoś wrzucił bryłkę podniesionego węgla do ogniska i ze zdumieniem albo i strachem zauważył, że kamień ten się pali – przypuszczalnie człowiekiem tym był Grek, bowiem już 300 lat przed naszą erą pewien przyjaciel uczonego Arystotelesa, grecki mówca, Theophrastus, badacz przyrody i filozof, poza swymi innymi licznymi dziełami, napisał również rozprawę o węglu. Wykopaliska dały nam dowody, że Rzymianie czasami, przypuszczalnie dla zabawy, spalali kawałki węgla – ich popiół łatwo można odróżnić od popiołu z drewna. Pierwsze zapiski z Anglii, świadczące o używaniu węgla, pochodzą sprzed niemal 1000 lat. Słynny podróżnik Marco Polo wspomina o użyciu węgla w roku 1275, zaś w roku 1612 po raz pierwszy wrzucono węgiel do pieca hutniczego.
Aż do XVII wieku jednak spalano głównie drewno, lecz w Anglii zaczęło to zagrażać całkowitym wyniszczeniem lasów. Już królowa Elżbieta I musiała wprowadzić poważne ograniczenia i zmusiła swych poddanych do sprowadzania drewna z kontynentu. Wówczas Anglicy, w wyniku tej decyzji swej rozsądnej władczyni, musieli sięgać po skarb, znajdujący się we wnętrzu ziemi – po węgiel. Dlatego skarb, że spalenie 1 kilograma węgla daje aż 2,5 raza więcej ciepła niż spalenie 1 klograma drewna.
Początkowo stosowano prymitywne metody – łopatami i kilofami kopano i zbierano to, co znajdowało się pod samą powierzchnią ziemi. Kopalnie wyglądały jak niezbyt głębokie parowy, na dnie których skrzętnie uwijali się robotnicy; trudno ich nazywać górnikami, byli to bowiem raczej kopacze. Działo się tak dlatego, że złoża węgla eksploatowane w Anglii znajdują się na terenach, na których występuje tzw. woda podskórna. Wydobywanie węgla przypominało raczej kopanie studni, w której zbierała się woda.
Stosowano więc pompy, ale jakie to były marne urządzenia. Technika stała na niskim poziomie, pompy były nieszczelne, tak że wydobywały mało wody. Poruszały je najczęściej konie, które całymi dniami kręciły kierat. Innych źródeł napędu wówczas nie znano. Wielu przedsiębiorców nie potrafiło sobie poradzić z tym kłopotem – po prostu kopalnie zamykano po wydobyciu pewnej ilości węgla. Wszyscy ludzie, którzy znali się choć trochę na technice wiedzieli, że gdyby udało im się znaleźć maszynę, która lepiej będzie napędzała pompę, zyskają sławę i pieniądze. Trudna sytuacja Anglików przyczyniła się bez wątpienia do pierwszego sukcesu energetyki – do wynalezienia maszyny parowej.
Oczywiście, jak to się dzieje bardzo często, pierwszy z szeregu kolejnych wynalazców wcale nie zamierzał zbudować maszyny parowej. Był nim Denis Papin (wym. Papę), Francuz urodzony w roku 1647, niezwykle utalentowany fizyk. On też dokonał wielu różnych, ciekawych wynalazków. Około roku 1670 Papin pracował jako laborant genialnego fizyka holenderskiego, Christiana Huyghensa, który prowadził wówczas wykłady na uniwerstytecie w Paryżu. Wspólnie zajmowali się budową pompy wytwarzającej próżnię.
W roku 1687 Papin wpadł na pomysł genialny w swej prostocie. Ogrzewał szczelny pionowy cylinder metalowy z ruchomym tłokiem, zawierający nieco wody, tak że para wypełniała cylinder. Następnie zamykał kurek, przez który uchodziło z cylindra powietrze, wypychane przez parę, i cylinder oziębiał. Para wodna skraplała się, a tłok wypchnięty przez nią uprzednio do góry, pod naciskiem ciśnienia atmosferycznego wsuwał się z powrotem do cylindra. Papin był wówczas o krok od zwycięstwa, niestety nie pomyślał, że można by ten cylinder z tłokiem zastosować w innym celu niż do wytwarzania próżni.
Ideę jego podchwycili dwaj Anglicy – Thomas Savery (wym. Seweri) i Thomas Newcomen (wym. Niukomen). Pierwszy z nich zbudował duże komory bez tłoka, które przy kolejnym napełnianiu parą i chłodzeniu zimną wodą, powoli, bardzo powoli, wysysały wodę z dołu kopalni. Newcomen natomiast zbudował komorę z tłokiem, który przy wytwarzaniu pary unosił się do góry, zaś przy jej skraplaniu opadał w dół. Ten rytmiczny ruch przeniesiony przez dźwignię napędzał zwykłą pompę, taką jakie jeszcze można czasem zobaczyć przy wiejskich studniach. Obaj wynalazcy nawiązali współpracę i skonstruowali wspólnie w 1711 roku nową pompę parową, którą zastosowano wkrótce w niemal wszystkich kopalniach Anglii.
Właśnie w jednej z takich kopalni pracował młody chłopiec Humphrey Ogden – cóż, były to czasy, kiedy wielu młodych musiało pracować na swe utrzymanie zamiast uczyć się w szkole. Humphrey z zazdrością patrzył na swych kolegów, którzy w pobliżu grali w piłkę, podczas gdy on musiał stać przy pompie i na przemian, to otwierać, to zamykać kurek. Sprytny chłopak dostrzegł to, czego nie zauważyli konstruktorzy pompy i nikt inny przed nim. Otóż, człowiek wcale nie był tu potrzebny. Ogdenowi udało się połączyć jakimś sznurkiem kurek z tłokiem, tak że zautomatyzował, jak to dziś nazywamy, całe urządzenie. Jego wynalazek był tak prosty, że zanim dorośli połapali się w jego genialności, chłopak podobno najpierw dostał w skórę...
Ale to wciąż jeszcze nie była maszyna parowa. Dopiero około 1770 roku inny Anglik, James Watt, zbudował maszynę, w której para wytwarzana w kotle wchodziła do cylindra i powodowała ruch tłoka, po czym wychodziła z cylindra i skraplała się w chłodnicy. Na tej zasadzie opiera się budowa wszystkich maszyn parowych, stosowanych do dziś. Tłok jest sprzężony z zaworem, który odpowiednio kieruje parę na przemian, to na jedną, to na drugą stronę tłoka. Watt wyposażył również swą maszynę w regulator obrotów – wirujące kule metalowe, które odpowiednio ustawiały zawór wpuszczający parę do maszyny.
Nastał wówczas „wiek pary”, jak go dumnie określono. Maszyna parowa, taka jaką zbudował Watt, była pierwszym w dziejach ludzkości urządzeniem mechanicznym, które skutecznie zamieniało spalane pod kotłem drewno lub węgiel na pracę mechaniczną. Jak grzyby po deszczu wyrastały maszyny parowe, które najpierw zastępowały prymitywne pompy Newcomena w kopalniach, a później wkroczyły triumfalnie do fabryk.
Pierwsze fabryki, w których zastosowano maszyny parowe, podobnie zresztą jak i następne, mają wspólną cechę, tj. urządzenie, które każdy z Was bez trudu odnajdzie na starych rysunkach i fotografiach. Otóż przez całą długość hali biegł w nich, połączony z maszyną parową, obracający się wał, na którym znajdowało się tyle kół, ile w hali było maszyn produkujących różne przedmioty. Każde koło przenosiło obroty wału poprzez pas transmisyjny na podobne koło w maszynie. Gdzieś w sąsiednim pomieszczeniu stała maszyna parowa z kotłem i paleniskiem, do którego usmoleni palacze szuflami wrzucali węgiel. Tak zaczęła się kariera owego minerału, nie bez przyczyny nazwanego „czarnym złotem”. Jemu to świat zawdzięcza wspaniały rozkwit przemysłu. Węgiel stał się symbolem potęgi cywilizacji i przez wiele lat był głównym źródłem energii uruchamiającej fabryki, parowozy i statki.
Nie można tu nie wspomnieć o dwóch ludziach, którzy wydatnie przyczynili się do umieszczenia maszyny parowej na statku i w lokomotywie. Pierwszym z nich był Robert Fulton. Nie był on pierwszym człowiekiem, który pomyśłał o parowcu, ale z pewnością był tym, któremu udało się rozwiązać to zadanie. Był on zresztą niezwykle pomysłowym wynalazcą i zasłynął w wielu dziedzinach techniki. Pierwsza natomiast, jak można by powiedzieć, nowoczesna lokomotywa, to dzieło rąk i umysłu George'a Stephensona. Zbudowany przez niego parowóz „Rakieta” pobił na głowę lokomotywy konkurentów w czasie konkursu, jaki zorganizowano w Anglii w 1830 roku. Na dobrą sprawę, poza ulepszeniami konstrukcyjnymi, zastosowaniem lepszych materiałów i powiększeniem lokomotyw do rozmiarów kolosów, przy których maleńka „Rakieta” wyglądała jak pchełka, przez niemal pół wieku wynalazcy nie stworzyli niczego nowego, co ułatwiłoby ludziom poruszanie się po powierzchni naszego globu.
„Nadejdzie dzień, gdy wozy bez zwierząt będą się poruszały z szybkością, której sobie teraz nawet nie możemy wyobrazić” - oświadczył żyjący w XIII wieku genialny filozof i uczony, angielski mnich Roger Bacon. Miało to miejsce na ponad 500 lat przed powstaniem maszyny parowej Watta. Nawiasem mówiąc różne doświadczenia, odkrycia i stwierdzenia, podobne do przytoczonego powyżej, nie zyskały Baconowi uznania w oczach jego ciemnych braci zakonnych. Najpierw został wygnany do Francji, a później, po powrocie do Anglii, wsadzony na 10 lat do więzienia. Ale nie zmienia to faktu, że miał rację, choć może mieć satysfakcję tylko w grobie.
Już w roku 1769 oficer artylerii francuskiej, Nicolas Joseph Cugnot, przedstawił do osobistego sprawdzenia ministrowi wojny parowy ciągnik armat. Próba, aczkolwiek początkowo przebiegała pomyślnie, zakończyła się katastrofą - ciężki pojazd, którym trudno było kierować, uderzył w mur, co pogrzebało szanse konstruktora na uzyskanie pieniędzy potrzebnych mu dla dalszych prac nad swym pojazdem. Następnym był Anglik William Murdock, pracownik fabryki napędzany przez jednocylindrową maszynę parową. I jemu przydarzył się przykry wypadek – uruchomiony pojazd uciekł i też wpadł na mur. Kariera Murdocka jako konstruktora pojazdów zakończyła się na tej próbie. Tym niemniej inni konstruktorzy pracowali nad podobnymi pojazdami i na jakiś czas pojawiły się one na drogach, ku niezadowoleniu właścicieli dyliżansów.
Natomiast Murdock był człowiekiem rzeczywiście zdolnym i zasłużył sobie na naszą wdzięczność i uznanie. Mianowicie wykorzystał to, że przy prażeniu węgla bez dostępu powietrza wydziela się z niego niezwykle łatwopalny gaz, co zresztą wiedzieli już średniowieczni alchemicy. To odkrycie zostało zapomniane na kilkaset lat, a nawet jeśli ktoś przypadkiem to zauważył, i tak nie doceniał wagi tego faktu. Dopiero Murdock wpadł na pomysł, by gaz, wytwarzany w szczelnym zbiorniku z prażonym węglem, przesyłać rurami do miejsca w którym ma się on spalać – w palenisku kotła czy w lampie gazowej.
Wynalazca zbudował w 1792 roku niewielką, jak dziś mówimy, gazownię przy swoim warsztacie, znajdującym się obok mieszkania, a wytwarzany gaz chciał wykorzystać do oświetlenia swego mieszkania i warsztatu. Jednak na skutek sprzeciwu sąsiadów, przerażonych możliwością wybuchu, rada miejska nie udzieliła mu pozwolenia na korzystanie z gazu. Murdock wpadł wówczas na dość złośliwy pomysł przekonania członków rady o nieszkodliwości gazu. Zaprosił ich pewnego dnia do swego warsztatu, by, jak mówił, pokazać im swe urządzenie. Gdy wszyscy się już zebrali, po kryjomu zamknął drzwi na klucz i schował go do kieszeni. W czasie objaśniania, zanim ktokolwiek zdążył zaprotestować, Murdock chwycił kilof i wybił nim dziurę w zbiorniku gazu, który zaczął się ulatniać z sykiem.
Przerażeni radni rzucili się na łeb na szyję do drzwi, lecz te były zamknięte. Wówczas Murdock ze stoickim spokojem skrzesał ogień i zapalił wydobywający się gaz. Solidne drzwi wytrzymały napór przerażonych mimowolnych widzów niecodziennego wydarzenia – wkrótce strach ustąpił miejsca zaciekawieniu. Wreszcie, gdy gaz wypalił się do końca, Murdock otworzył drzwi, ale radni wcale nie spieszyli się z wychodzeniem. Zostali przekonani i udzielili wynalazcy swego błogosławieństwa. Od tego dnia mógł on do woli korzystać ze swej miniaturowej gazowni.
Nie oznacza to jednak, że gaz świetlny (tak go bowiem nazwano) zyskał od razu prawo obywatelstwa, że został przyjęty przez społeczeństwo bez zastrzeżeń. Wymownym przykładem było skwitowanie starań niejakiego pana Winsora, który chciał zaprowadzić oświetlenie gazowe na ulicach Londynu, przez znanego pisarza, autora licznych powieści historycznych, sir Waltera Scotta. Napisał on wówczas: „Oto zjawił się wariat, który proponuje oświetlenie ulic Londynu dymem”. Lecz mimo tych oporów, zarówno ulice, jak i mieszkania były przez ponad sto lat oświetlane gazem. Dopiero udoskonalona żarówka elektryczna wyparła gaz, lecz nie przegrał on z kretesem. Przecież dziś, w większości mieszkań w miastach, a także i na wsi, znajdują się kuchenki gazowe.
Stosowanie gazu, wydobywanego z węgla, a także gazu naturalnego – ziemnego, jest dziś równie powszechne, jak niegdyś drewna i węgla, spalanego pod płytą kuchni. Gaz dopływa do naszych mieszkań rurami, jest równie niekłopotliwy w użyciu, jak elektryczność. Dzięki tej głównej zalecie oraz temu, żewłaściwie nie wytwarza kopcącego ściany dymu, jest niezastąpionym źródłem energii dla potrzeb domowych. A nie zapominajmy, że jest to jakby dziecko węgla.
Prócz węgla, ziemia kryje inne jeszcze bogactwo, podstawę dzisiejszej energetyki. Mówię tu oczywiście o ropie naftowej. Powstała ona chyba nieco później niż węgiel. Bagatelka – o jakieś kilkadziesiąt milionów lat później, przypuszczalnie ze szczątków drobnych prymitywnych zwierzątek. Szczątki te, podobnie jak węgiel spoczywały pod warstwami piasku, a w wysikiej temperaturze i pod wysokim ciśnieniem odbywał się proces fermentacji i powstawało złoże ropy naftowej – substancji cuchnącej, czarnej, oleistej, która pali się łatwo i wydziela przy tym kopcący dym.
Ropę naftową, która samorzutnie wydobywała się na powierzchnię ziemi znali i stosowali już starożytni Babilończycy przed tysiącami lat. Ogrzewali ropę, tak że lżejsze, ciekłe jej składniki parowały. Pozostawały wówczas składniki cięższe, podobne do smoły, czyli po prostu asfalt, który między innymi znajdujemy dziś w budowlach Babilonu i Niniwy. Egipcjanie korzystali z ropy i asfaltu przy balsamowaniu ciał swoich zmarłych. Greccy pisarze, na przykład Herodot, Plutarch i Pliniusz zapisali wiele ciekawych uwag na temat tej dzziwnej, łatwopalnej cieczy, wydobywającej się ze szczelin skalnych. Persowie zaś palili ropę ku czci swego boga Ormuzda.
Później ropa naftowa wkroczyła do medycyny jako środek leczniczy. Destylowano ją wówczas oczywiście jakimiś sposobami, by oddzielić asfalt i trochę poprawić przykry zapach. W polskich książkach medycznych ropa pojawiła się już w 1534 roku. Wtedy to Stefan Falimierz napisał rozprawę „O ziołach i mocy ich”, w której mówi o „oleju, który idzie z kamienia” jako o lekarstwie. Cóż, aż do naszych czasów ludzie używają nafty jako środka wzmacniającego włosy. Słynna piosenkarka Violetta Villas w czasie występu w telewizji, na pytanie, jak jej się udało wyhodować wLas Vegas tak piękne blond włosy, sięgające do pięt, odparła, że smaruje je naftą.
Ale i w Polsce od niepamiętnych czasów chłopi stosowali ropę naftową do smarowania osi kół w swoich wozach, oczywiście w okolicach, w których można ją było znaleźć, czyli na terenie między Jasłem a Sanokiem. Budowano prymitywne kopalnie – po prostu doły o ścianach umocnionych faszyną. Zebraną wnich ropę na miejscu zgęszczano przez gotowanie na wolnym ogniu.
Produkcją mazi do wozów dorabiał sobie karczmarz z Borysława, Abraham Schreiner. Pewnego dnia, gdy zdjął z kotła pokrywę, zebrane na niej lekko żółtawe krople płynu spłynęły mu na ręce i zapaliły się od ognia w palenisku. Dotkliwie poparzony karczmarz udał się po pomoc do znanej lwowskiej apteki „Pod Złotą Gwiazdą”, a przy okazji chciał ubić interes z pracującym tam młodym prowizorem aptekarskim Ignacym Łukasiewiczem. Karczmarzowi wydawało się, że tak łatwopalny płyn musi zawierać spirytus – towar, którym handlował w swym szynku. Dobrze by było zbierać go wprost z ziemi – pomyślał – i zaproponował Łukasiewiczowi udział wzyskach, gdyby ten zechciał opracować sposób wydzielania spirytusu. Łukasiewicz, choć nie wierzył w taką możliwość, zgodził się, by Schreiner dostarczał mu do badań płyn zebrany z pokrywy kotła w czasie destylacji.
W ten sposób obaj przeszli do historii, oczywiście w znacznie większym stopniu Łukasiewicz, który po wielu perypetiach opracował sposób wydzielania z ropy naftowej nafty, a także zbudował pierwszą w świecie lampę naftową. Łukasiewicz stwierdził, że odpowiednio ustalając temperaturę kotła można rozbijać ropę naftową na poszczególne składniki, od bardzo lotnych i łatwo palnych, poprzez naftę, do różnych olei i asfaltu, tak samo jak młot rozbija kamień na pył. Już w roku 1854 Łukasiewicz zbudował pierwszy prawdziwy szyb naftowy i sporą destylarnię ropy w Bóbrce pod Krosnem. Warto tę datę zapamiętać, jak również to, że rok wcześniej – 31 lipca 1853 – po raz pierwszy w historii naszej cywilizacji oświetlono lampami naftowymi sale szpitala we Lwowie.
Lampy naftowe podbiły świat. Wkrótce gorączka nafty ogarnęła Stany Zjednoczone Ameryki. Warto odnotować jednak, że pierwszy szyb zbudowany tam został przez Drake'a w miejscowości Titiusville i rozpoczął pracę 27 sierpnia 1859 roku, a więc pięć lat po Bóbrce Łukasiewicza. Jednakże złoża ropy zalegające w USA były znacznie bogatsze od polskich, może zresztą Amerykanie mieli lepszą głowę do interesów, i wkrótce amerykańska nafta zalała świat. Przy blasku opalanych nią lamp wyrosło niejedno pokolenie. Lecz prawdziwa kariera ropy naftowej rozpoczęła się z chwilą wynalezienia silnika spalinowego.
Już przed rokiem 1860 w czasie destylacji ropy naftowej uzyskano lekką, łatwo zapalającą się ciecz, którą nazwano gazoliną. Do lamp naftowych gazolina się nie nadawałą, bowiem zbyt często próby jej zapalenia kończyły się groźnym w skutkach wybuchem. Ale też wynalazcy potrafili wykorzystać tę skłonność gazoliny.
Pierwszy działąjący silnik na gazolinę, czy jak dziś mówimy benzynę, zbudował Nicholas Otto w roku 1866. Wprowadzaną do cylindra mieszankę rozpylonej benzyny z powietrzem zapalał w jego silniku rozżarzony do czerwoności pręt żelazny. Następował wybuch, który odrzucał tłok ciasno dopasowany do cylindra. Silnik działał podobnie jak maszyna parowa, z tym że paliwo spalało się w nim wewnątrz cylindra, a nie w palenisku pod kotłem wytwarzającym parę. Wszystkie silniki działąjące na tej zasadzie nazywamy silnikami o spalaniu wewnętrznym.
Perspektywa wykorzystania benzyny – co jest znacznie bardziej wygodne niż spalanie węgla i przetwarzanie wody w parę – była na tyle frapująca, że sporo konstruktorów zajęło się ulepszaniem silnika Otto. Wkrótce też Niemiec Gotttlieb Daimler, były pracownik zakładów Otto, zbudował lekki silnik, który nadawał się do zmontowania na powozie. Śmiała przepowiednia Rogera Bacona spełniła się. Niedługo później ruszył również samochód innego Niemca – Karla Benza. Były to lata 1885-1886. Pojazdy te w niczym nie przypominały dzisiejszych samochodów – ot, po prostu zwykłe bryczki z silnikiem. Nie wdając się w szczegóły odnotujemy tylko, że w 30 lat później po drogach świata krążyło już 10 milionów samochodów. Benzyna, a więc ropa naftowa stała się jednym z bardziej potrzebnych ludziom surowców.
Już w 1918 roku w czasie I wojny światowej francuski premier Clemenceau (wym. Klemanso) zwany „Tygrysem” telegrafował do Waszyngtonu: „Dla nas kropla nafty przedstawia wartość kropli krwi”. Do dziś powiedzenie to zachowało pewien sens.
Odkrywano nowe tereny roponośne: Bliski Wschód, Wenezuela, Indonezja, Nigeria skutecznie konkurowały i wkrótce prześcignęły Stany Zjednoczone w wydobyciu ropy naftowej. Lecz czy korzystały z tego owe kraje, na terenie których znaleziono naftę? Otóż nie. Powstał szereg wielkich przedsiębiorstw, które zajmowały się poszukiwaniami geologicznymi, a później wydobywaniem i przeróbką ropy naftowej. Państwa – prawowici właściciele swych bogactw na- turalnych dostawały nędzne ochłapy z zysków koncernów, takich jak Shell, Exxon, Esso czy Aramco. Koncerny te dowoziły kupowaną za bezcen ropę specjalnymi statkami – tankowcami, by po przerobieniu jej na benzynę, oleje napędowe i inne chemikalia sprzedawać te produkty po znacznie wyższej cenie tym, którzy na nie czekali. Bez przesady można stwierdzić, że całą nasza cywilizacja, a nie tylko fabryki i samochody, nie potrafili już istnieć bez produktów petrochemii.
Powstały setki i tysiące kilometrów rurociągów, a na morzach i oceanach pojawiły się coraz liczniejsze zastępy supertankowców, największych ruchomych obiektów zbudowanych rękami ludzi. Zapoczątkowało to nieprzerwane pasmo katastrof nie mających precedensu w historii żeglugi. Co prawda każdy wybuch, zatonięcie czy zderzenie ze skałami wybrzeża nie powoduje strat ludzkich na miarę np. katastrofy Titanica, lecz nieuchronnie przyczynia się do zagłady życia w morzach. Ropa naftowa to niebezpieczny ładunek, a supertankowce przewożą jej w swych zbiornikach setki tysięcy ton.
Giganty krążą bezustannie roponośnymi terenami Zatoki Perskiej, Nigerii czy Wenezueli a Europą Zachodnią, USA czy Japonią, dowożąc większe z roku na rok ilości „płynnego złota”. Niemal połowa zużywanej w świecie ropy naftowej jest przewożona w ich zbiornikach. Supertankowce stały się tak niezwykłym zjawiskiem w historii żeglugi, że czuli na tradycję Anglicy nie nazywają ich statkami, tylko skrótem VLCC (Very Large Crude Cariers – Bardzo Wielkie Transportery Ropy).
Supertankowce są tak wielkie, że zdarzyły się wypadki, iż kapitanowie mniejszych jednostek próbowali niekiedy przepłynąć pomiędzy ich światłami na dziobie i rufie, wychodząc ze zrozumiałego założenia, że taka odległość może dzielić tylko dwa różne statki. Zderzenie takie jest zupełnie niewyczuwalne dla załogi supertankowca. W sierpniu 1973 roku hiszpański supertankowiec Mostoles zatopił południowoafrykański trawler Harvest del Mar razem z całą załogą. Kapitan supertankowca przypadkiem zauważył później, że dziób jego statku ma niewielkie uszkodzenie – w czasie katastrofy nikt nawet nie usłyszał najmniejszego zgrzytu.
Katastrofy morskie, zatonięcia statków niegdyś zagrażały tylko marynarzom i przynosiły straty armatorom czy właścicielom ładunku. Dziś, gdy niemal połowa floty handlowej to tankowce, katastrofy stanowią ciągłe zagrożenie dla mieszkańców wybrzeży, a przypuszczalnie i dla wszystkich ludzi. Każdy wypadek jest bowiem nieuchronnie związany z przedostaniem się do morza pewnych ilości ropy naftowej.
Co prawda zdania naukowców są podzielone – niektórzy prubują bagatelizować to zagrożenie, lecz fakty mówią same za siebie. Kilkanście katastrof spowodowało śmierć setek tysięcy, czy nawet milionów ptaków morskich i innych stworzeń żyjących i odżywiających się na powierzchni oceanów. Thor Heyerdahl, po przepłynięciu Atlantyku na tratwie Ra, wystosował do ONZ rozpaczliwy apel, w którym stwierdza, że na większej części trasy nie dostrzegł śladów życia, a woda była tak brudna, iż nie można było się w niej kąpać.
Katastrofy tankowców zwracają uwagę opinii publicznej na zagrożenie, jakie stanowią te gigantyczne statki, lecz dzień w dzień część ich groźnego ładunku niepostrzeżenie zanieczyszcza wodę w wyniku zwykłych operacji mycia zbiorników. Rozmiary tych zanieczyszczeń trudno ocenić, lecz wszyscy eksperci są zgodni, że rocznie kilka milionów ton ropy trafia do wody.
Ostatnio jednak supertankowce coraz częściej zaczęły przebywać w portach, coraz trudniej było znaleźć chętnych, którzy wynajęliby giganta, by w jego kadłubie przewieźć tę drogocenną ciecz. Co się stało? Kraje posiadające ropę naftową postanowiły skończyć z wyzyskiem. Zorganizowały się, porozumiały i... podniosły ceny. Dokładnie 17 października 1973 roku arabskie państwa naftowe zakomunikowały osłupiałym kapitalistom, że nie tylko będą sprzedawały ropę tym krajom, którym zechcą, ale nawet wybrańcy będą musieli teraz słono płacić. Czasy, kiedy można było kupować połacie ziemi za paciorki, a drogocenną naftę za grosze, minęły bezpowrotnie. Światem kapitalistycznym wstrząsnął tak zwany kryzys energetyczny.
Polska i inne kraje socjalistyczne, które korzystają z ogromnych zasobów Związku Radzieckiego mogły przyglądać się temu kataklizmowi bez obaw. Co prawda, musimy kupować również ropę z państw zamorskich, ale są to ilości niewielkie i stać nas na to. Poza tym mamy własne ogromne rezerwy węgla, wzbogacone jeszcze o Zagłębie Lubelskie, z którego niedługo już wyjadą pierwsze wagony „czarnego złota”. Czy węgiel może zastąpić ropę? Ależ tak! Po pierwsze można będzie z niego robić benzynę syntetyczną, a po drugie, większość ropy naftowej i tak ginęła w paleniskach kotłów elektrowni całego świata.
Nasze elektrownie spalały i spalają węgiel, którego mamy pod dostatkiem. Uniknęliśmy więc kłopotu przebudowy palenisk, co często teraz zdarza się w innych krajach Europy, gdzie węgiel wraca do łask, po krótkim stosunkowo okresie przewagi wygodniejszej i dostarczającej więcej ciepła ropy naftowej.
Największą troską jest obecnie wytwarzanie energii elektrycznej, która stała się wręcz niezastąpiona. Wiek pary stopniowo przekształcił się w wiek benzyny i elektryczności. Benzynę spalają niezliczone samochody, a elektryczność stała się głównym źródłem energii dla fabryk i domów. Gdzie nie spojrzeć, nawet na najdalszej wsi budynki są oświetlone żarówkami, a w niemal każdym domu znajduje się radio i telewizor. Bez tego źródła energii nie potrafimy się już obejść. Warto więc chyba powiedzieć kilka słów o historii wiernie nam służącej elektryczności.
Poznawanie zjawisk elektrycznych biegło początkowo dwoma nurtami, jako nauka o magnetyzmie i nauka o elektryczności, bowiem ludzie sądzili, iż są to zjawiska zupełnie oderwane od siebie. Podwaliny wiedzy o zachowaniu się magnesów położył William Gilbert (wym. Dżilbert) z Colchester. Opublikował on w roku 1600 wspaniałą księgę pod długim tytułem, z którego zwylke wymienia się tylko dwa pierwsze słowa: De magnete, czyli O magnesie. Lecz nawet to fundamentalne dzieło nie od razu ucięło wszelkie nieprawdopodobne opowieści o rzekomych tajemnych mocach magnesów. Jeszcze w 20 lat później słynny badacz natury Jean Baptiste van Helmont, który podobno jest autorem słowa „gaz”, napisał: „Kamień magnetyczny jedynie przz potarcie czosnkiem zatraca swą kierunkowość, traci biegun, zachowując przy tym swą szczególną formę, konstytucję materialną i wszystkie inne właściwości. Przyczyną jest, że czosnek jest właściwym opium magnesu i przez jego działanie duchowe magnes zostaje uśpiony”. Cóż, czosnkowi przypisano nawet moc odpędzania wampirów, więc można chyba wybaczyć van Helmontowi te naiwne stwierdzenia. Swoją drogą ciekawe jest, czy sam próbował on pocierać magnes czosnkiem i co z tego wynikło?
Najtrudniej było ówczesnym badaczom pogodzić się z faktem oddziaływania magnesów na odległość, czyli wyjaśnićm w jaki sposób materia działa tam, gdzie jej nie ma. Podobnie oddziałują na siebie ładunki elektryczne. Badacze potrafili zmierzyć siły, z jakimi działają na siebie ładunki elektryczne, wyprowadzili podobne zależności dla ładunków magnetycznych, lecz ciągle nie mogli znaleźć nici wiążących te zjawiska.
Autorem pierwszego przełomu był 43-letni fizyk duński Hans Oersted. Jego sukces z 1820 roku przyniósł mu nieśmiertelność w pamięci wdzięcznych ludzi. Oersted zauważył bowiem, iż przewodnik, przez który płynie prąd elektryczny, wywiera siłę na znajdującą się obok igłę kompasu i odchyla ją. Stąd prosty wniosek, że przepływ prądu elektrycznego wytwarza pole magnetyczne. Ludzie szybko nauczyli się budować elektromagnesy – urządzenia wykorzystujące pole magnetyczne powstające wokół zwojów przewodnika, przez który przepuszcza się prąd elektryczny.
Stało się jasne, że prąd elektryczny wytwarza pole magnetyczne, ale wielu znakomitych uczonych łamało sobie głowy nad znalezieniem odpowiedzi na pytanie, czy nie może istnieć zjawisko odwrotne, to znaczy, czy niemożna zmusić magnesów (lub elektromagnesów), by wytwarzały prąd elektryczny? I co zaskakujące, odpowiedź twierdząca pojawiła się już w 11 lat po odkryciu Oersteda. Jej autorem był jeden z najznamienitszych fizyków wszechczasów, Michał Faraday.
Skromny syn londyńskiego kowala, który od najmłodszych lat musiał zarabiać na swe utrzymanie jako introligator, a później jako laborant znanego chemika Davy'ego, urodził się w 1791 roku, aw 1817 roku rozpoczął samodzielną pracę naukową. Jego upór, pracowitość i geniusz prowadziły go od sukcesu do sukcesu . W 1831 roku udaje mu się odkryć możliwość wytwarzania prądu elektrycznego przez zmieniające się pole magnetyczne, czyli zjawisko indukcji elektromagnetycznej.
Prace Ampère'a, Ohma i Henry'ego stanowiły dopełnienie podstaw teoretycznych, teraz już sprawa wykorzystania elektryczności spoczęła w rękach techników. A ci nie kazali długo czekać. Już w 1833 roku Hipolit Pixli, francuski inżynier, zbudował pierwszą prądnicę, zwaną wówczas dynamomaszyną. Lecz było to jeszcze urządzenie bardzo prymitywne, choć niewątpliwie wskazywało drogę, jak się miało okazać, długą i ciężką, do praktycznego, szerokiego wykorzystania elektyczności.
Na dobrą sprawę, dopiero wynalezienie żarówki przez Edisona w 1879 roku wywołało zapotrzebowanie na energię elektryczną poza murami laboratoriów. A Edison uruchomił pierwszą elektrownię świata przy ulicy Perłowej w Nowym Jorku już w roku 1882. Warto może jeszcze wspomnieć, że pierwszy silnik elektryczny został wynaleziony przypadkowo, gdy w 1873 roku pewien robotnik, pracujący u belgijskiego inżyniera Zenobiusza Gramme'a przez pomyłkę połączył przewodami pracującą prądnicę z inną, która nie została uruchomiona i była odłączona od maszyny parowej. Ku zdumieniu obecnych wirnik tej drugiej prądnicy zaczął się obracać.
Dalsza historia elektrotechniki to przede wszystkim zacięta walka dwóch obozów – zwolenników prądu stałego i prądu zmiennego. Pierwszemu z nich przewodził sam Edison, drugiemu zaś przemysłowiec George Westinghouse (wym. Uestinghaus), wspoerany przez genialnego wynalazcę, Nikolę Teslę. Dziś znamy wynik tych zmagań. Oczywiście Edison przegrał. Prąd zmienny jest znacznie dogodniejszy, daje się transformować i przesyłać na duże odległości. Ma zresztą i inne zalety, których nie będziemy tu przytaczać, bo odwiodłoby nas to od głównego tematu.
Tak więc, od końca XIX wieku głównym zadaniem inżynierów było z jednej strony konstruowanie coraz lepszych, większych i wydajniejszych elektrowni, a z drugiej – ulepszenie odbiorników prądu: silników, żarówek i innych. W zasadzie, do naszych czasów nie dokonano już poważniejszych odkryć, jakkolwiek energia elektryczna niezwykle się rozpowszechniła. Jak świadczy o tym zdarzenie, o którym opowiedziałem na początku, każda nawet najmniejsza przerwa w dopływie prądu dosłownie paraliżuje miasta. Elektrownie muszą pracować stale. Prąd elektryczny jest najdogodniejszym posłańcem przynoszącym energię, uzyskiwaną ze spalania węgla i ropy naftowej, wprost do mieszkań. Nikt już w miastach nie nosi węgla kubełkami, ani też nafty w bańkach. Miliony ludzi w ogóle tych surowców nie widują – tylko palacze dozorujący wielkie paleniska w elektrowniach i górnicy wydobywający te minerały spod ziemi mają z nimi styczność.
Ale też nie ma róży bez kolców. Wielkie elektrownie, które wyrastają jak grzyby po deszczu, czynią nam spore szkody. Po pierwsze, z roku na rok wyrzucają do ziemskiej atmosfery coraz więcej dymu – dwutlenku węgla, trujących związków siarki i azotu, oraz pyłu. Dymiące kominy, które niegdyś były symbolem postępu, dziś raczej stanowią zakałę, której chcielibyśmy się na zawsze pozbyć z powierzchni Ziemi. Ale nie jest to takie proste, o czym zresztą będzie mowa w dalszych rozdziałach.
Po drugie, nikt chyba nie wątpi, że wcześniej czy później paliwa kopalne, węgiel i ropa naftowa, wyczerpią się. Dysponujemy ogromnymi ich zasobami, zwłaszcza Związek Radziecki ma przebogate złoża, które dopiero teraz zaczyna wykorzystywać. Ale też nadejdzie dzień, gdy wykopiemy i wydobędziemy spod Ziemi wszystko, co da się spalić. I co wtedy? Czy ludzkość będzie musiała zrezygnować ze zdobyczy swojej cywilizacji? Czy wrócimy znów do ery kamienia łupanego, tyle że bez żadnej możliwości ponownego rozwoju cywilizacji? Na pewno to nie nastąpi. Mamy w zanadrzu nowe wynalazki, mamy wspaniałe perspektywy i kto wie, czy nawet nie będzie można zrezygnować z pracochłonnego i kosztownego wydobywania paliwa z łupków bitumicznych i piasków smolistych. Może uda się uniknąć tak zwanego odkrywkowego wykopywania węgla z pokładów, które są tak cienkie, że nie opłaca się budować zwykłych kopalni. Te sposoby uzyskiwania paliwa bezpowrotnie nieraz niszczą piękne zakątki naszego globu. Nie widziałem sam nigdy takiej kopalni, posługuję się więc słowami, jakie napisał Charles Gusewelle, naczelny redaktor „Kansas City Star”, jednej z największych gazet amerykańskich, w korespondencji dla tygodnika „Polityka”, o pięknych górach na wschodzie Stanów Zjednoczonych, w których niegdyś kwitło górnictwo, a ich mieszkańcy żyli dostatnio. Później, gdy wyczerpano łatwo dostępne pokłady węgla, stracili oni źródło utrzymania. Teraz z rozpaczą obserwują i przeżywają nową tragedię. A oto jego słowa:
„Ze wszystkich nieszczęść, jakie trapiły tych ludzi, żadne nie było gorsze – lub przynajmniej żadne nie było bardziej oczywiste – niż praktyka górnictwa odkrywkowego. Ponieważ jest ono szybsze i zatrudnia mniej ludzi, górnictwo odkrywkowe jest tańszą metodą wydobywania węgla. Lecz może ono także na zawsze przekształcić w nieużytki krajobraz, który kiedyś był piękny lub produktywny.
Stałem w pewne deszczowe popołudnie na drodze położonej na zboczu góry i patrzyłem poprzez dolinę na górę wznoszącą się po drugiej stronie. Wierzchołek, trzecia część tej góry, był ścięty przez spychacze, tak by odsłoniła się warstwa węgla.
Wszystko co usunięto, zepchnięto na jedną stronę. Spływało to w postaci gigantycznego jęzora błota, o szerokości 600 metrów lub więcej, w dół, w kierunku dna doliny. Wszystko na drodze uległo zniszczeniu – drzewa, cmentarz, domy porzucone przez ludzi, którzy w nich mieszkali.
Scena ta miała ohydny majestat, coś w rodzaju widoku fotografii eksplozji jądrowej. Góra nie była już górą. Dolina się zapełniała. Tu, na oczach świadków działały siły, władne tworzyć fakty, którym będziemy się przypatrywać przez wieczność.
Tego samego popołudnia w domu górnika, u którego mieszkałem, rzecznik przemysłu kopalni odkrywkowych z ekranu telewizora zapewniał z wielką powagą, że jego przemysł zwraca uwagę, by nie przynieść szkody środowisku naturalnemu. Ludzie z gór mogą być słabo wykształceni, lecz mają oczy do patrzenia i rozsądek, by wykryć kłamstwo, gdy je usłyszą. Górnictwo odkrywkowe, jak świetnie o tym wiedzą, ma swój udział w odarciu ich ze środków do życia. A teraz pustoszy naturalne piękno, które jest ostatnim skarbem ich okolicy”.
Przerażąjąca to zaiste wizja. Miejmy nadzieję, że uda nam się znaleźć rozwiązanie mogące zaspokoić wzrastające apetyty ludzi, którzy potrzebują coraz więcej energii, a równocześnie nie zniszczyć Ziemi, bez której nie będziemy mogli przeżyć. Całe szczęście, że już teraz zarysowują się realne perspektywy ratunku.

Alchemia XX wieku

W sierpniu 1945 roku, gdy Europa przystępowała do usuwania straszliwych zniszczeń pożogi wojennej, świat jeszcze nie całkiem się uspokoił. Trwała zacięta walka na przeciwległej stronie globu – japońscy imperialiści ciągle nie wierzyli w swą przegraną i fanatycznie bronili nawet najmniejszych skrawków zagarniętej przez siebie ziemi. Co prawda stracili już Okinawę i większość innych baz, ale zapowiadali walkę do ostatniej kropli krwi o swe wyspy. Czyżby miała się odbyć jeszcze jedna inwazja aliantów, z morza na uzbrojone po zęby wyspy? Czy znów miałyby polec dziesiątki tysięcy żołnierzy po obu walczących stronach? Tak sądzono aż do 6 sierpnia.
Tego dnia nastąpił wybuch! O świcie nad japońskie miasto Hiroszima nadleciał pojedyńczy samolot amerykański i zrzucił jedyną bombę na spadochronie, po czym całą mocą silników odleciał od miejsca, które miało przejść do historii świata, zapisując jej najczarniejsze karty. Nie wiemy i nigdy się nie dowiemy, czy spieszący do swych zajęć Japończycy w śródmieściu Hiroszimy patrzyli na ową bombę z zaciekawieniem, czy z lękiem. W potwornym wybuchu zginęło niemal 100 tysięcy ludzi, niektórzy z nich wciągu ułamka sekundy wyparowali bez śladu. Po niewielu zostały cienie na ścianach rozwalonych domów. W pogorzeliskach znaleziono jeszcze 40 tysięcy rannych, a samo miasto właściwie przestało istnieć.
Nawet po upływie kilku godzin wysłany samolot zwiadowczy nie mógł nic dostrzec w ogromnej chmurze dymu i pyłu osłaniającej ruiny miasta, które jeszcze rankiem tego dnia liczyło 300 tysięcy mieszkańców. Wszystkie radiostacje alianckie z triumfem doniosły w komunikatach o użyciu nowej straszliwej broni – bomby atomowej. W kilka dni poźniej identyczna tragedia wydarzyła się w innym mieście japońskim – Nagasaki. Niewątpliwie ta potworna, przerażająca wręcz demonstracja siły drzemiącej w atomie przyspieszyła zakończenie wojny, uratowała życie wielu żołnierzy alianckich, lecz nikt jeszce sobie wówczas nie zdawał sprawy, za jaką cenę.
Nikt chyba nie przypuszczał, że lista niewinnych ofiar demonstracji potęgi militarnej Stanów Zjednoczonych wydłuży się tak bardzo. Do dziś, co roku umiera kilkadziesiąt osób, nawet dzieci i wnuków tych, którzy znajdowali się w pobliżu miejsca tragedii. Mordercze promieniowanie jądrowe poczyniło śmiertelne spustoszenia w organizmach poddanych jego działaniu ludzi, spustoszenia, które przenoszą się z pokolenia na pokolenie i zbierają smutne żniwo, jak straszna klątwa bogów.
Ale przenieśmy się z dotkniętego tragedią miasta do zacisznej już wówczas i po dawnemu spokojnej Anglii. 6 sierpnia 1945 roku w wiejskiej posiadłości Farm Hall w pobliżu Huntington przebywało dziesięciu niecodziennych jeńców wojennych – internowanych niemieckich uczonych. Jednym z nich był chemik, profesor Otto Hann, człowiek, o którym można bez przesady powiedzieć, że pierwszy wskazał drogę wykorzystania energii ukrytej w maleńkim atomie uranu.
Już na wiele lat wcześniej, w pewnym artykule, wydrukowanym w 1904 roku słynny lord Ernest Rutherford wspominał o tym, że „z maleńkich porcji materii można by było otrzymać ogromne ilości energii”. Ten sam uczony w28 lat później nazwał te możliwości „księżycową poświatą”. Ale też zaledwie 6 lat po tym pesymistycznym twierdzeniu Rutherforda Otto Hahn wraz ze swym współpracownikiem Fritzem Strassmannem odkryli w Instytucie Cesarza Wilhelma w Berlinie, że ciężki radioaktywny uran bombardowany cząstkami elementarnymi – neutronami rozpada się na jądra znacznie mniejsze, między innymi baru. Odkrycie chemików dokładnie wyjaśnili fizycy Liza Meitner i Otto Frish, a gdy kilka grup uczonych niemal równocześnie wykryło, że przy tym rozpadzie, jakby pękaniu jąder uranu, wytwarza się więcej niż jeden neutron, stało się jasne, iż kwestia zbudowania bomby atomowej to już właściwie zadanie dla techników. Jeśli bowiem w rozpadzie jądra powstaje kilka neutronów, mogą one wywołać kilka dalszych rozpadów i po ułamku sekundy rozpadają się niemal wszystkie jądra atomów tworzących bryłkę uranu. Nazywamy to reakcją łańcuchową (lawinową).
Nadszedł rok 1939. Na miesiąc przed wybuchem II wojny światowej genialny fizyk Albert Einstein napisał list do prezydenta Stanów Zjednoczonych Roosevelta, zawiadamiając, że uran może stanowić najpotężniejszy ze znanych materiałów wybuchowych. Ale aż do roku 1942 nic się w tej sprawie nie stało nowego. Wtedy to różnymi tajnymi kanałami dotarły do aliantów wiadomości, że uczeni niemieccy, którzy pozostali w hitlerowskich Niemczech, nie tylko pracują nad budową bomby atomowej, ale nawet mają już pewne wyniki. Niedwuznacznie świadczyło o tym ich zainteresowanie zapasami rudy uranu, które zdobyli w Belgii oraz fabryka tak zwanej ciężkiej wody w Norwegii.
Obawy aliantów były przesadzone. Skłóceni między sobą uczeni niemieccy, nie mający żadnego rzetelnego planu badań, od roku 1942 aż do końca wojny nie poczynili poważniejszych postępów. Zresztą nie ma sensu opowiadać dokładnie o ich perypetiach. Każdego, kto chciałby się dowiedzieć więcej na ten temat, odsyłam do fascynującej książki Davida Irvinga Kryptonim Virushaus, której kilka już wydań wydrukowało Wydawnictwo „Książka i Wiedza”.
Ważne jest jednak to, że obawa przed straszliwą bronią w rękach szaleńca i zbrodniarza Hitlera (który nawiasem mówiąc wcale nie wiedział o jej możliwościach) zmusiła aliantów do ogromnego wysiłku. W najgłębszej tajemnicy zbudowano ośrodek badawczy w Los Alamos, dziesiątki tysięcy ludzi pracowało w różnych fabrykach nie wiedząc, co produkują. Po trzech latach działania tak zwanego Projektu Manhattan, w którym brały udział najtęższe umysły owych czasów, uczeni wielu narodowości, nadeszła wreszcie chwila decydującej próby. 16 lipca 1945 roku pustynią Alamogordo wstrząsnęła pierwsza eksplozja jądrowa. W powietrze wzbił się pierwszy z grzybów atomowych, a wkrótce po nim podobne chmury spowiły Hiroszimę i Nagasaki.
Dziś panuje powszechna opinia, że ten drugi niszczycielski atak nuklearny w historii (i jak na razie, na szczęście ostatni) miał stanowić pokaz siły Stanów Zjednoczonych, służyć zastraszeniu reszty świata, wpajając przekonanie, że bomb tych arsenał USA zawiera bez liku. Nikt nie zdawał sobie sprawy, że to tylko fikcja. W istocie potrzeba by było znów miesięcy na budowę nowych bomb – pierwszych w dziejach środków masowej zagłady. Szantaż atomowy, jak się o tym mówiło głośno, był skierowany przeciwko Japonii, jednakże w podtekście miał wymowę inną – szło o przekonanie wyniszczonego wojną Związku Radzieckiego, że Stany Zjednoczone są na pewno największą potęgą militarną i trzeba im podporządkować swą politykę bezwarunkowo.
Nawet w najśmielszych marzeniach, a raczej trzeba powiedzieć obawach, prywódcy Stanów Zjednoczonych nie dopuszczali do siebie myśli, że ktoś jeszcze mógłby pokusić się o próby zbudowania podobnie skomplikowanej i kosztownej broni, jaką jest bomba atomowa. Przecież mieli w swym ręku nie tylko ludzi, którzy ją skonstruowali, ale utrzymywali wszelkie szczegóły techniczne w najgłębszej tajemnicy, a nadto podstępem przechwycili z cudzych sfer okupacyjnych w rozgromionej III Rzeszy naukowców, przyrządy i zapasy uranu. Nic więc dziwnego, że pierwsza eksplozja bomby jądrowej w Związku Radzieckim stanowiła kompletne zaskoczenie, któer można porównać chyba tylko z reakcją na wystrzelenie pierwszego sztucznego satelity Ziemi. A eksplozja ta miała miejsce już w 1949 roku. To się po prostu nikomu nie mieściło w głowie.
Jednakże w Związku Radzieckim działali nie gorsi fizycy i technicy niż ci zaangażowani w Projekcie Manhattan. Mieli oni nadto w ręku atut pewności, iż wykorzystanie energii drzemiącej w jąrdze atomu uranu jest możliwe. A pewność to przecież połowa sukcesu. Wstrząśnięci zwolennicy zimnej wojny i wyścigu zbrojeń nastawili się na budowanie coraz większej liczby coraz potężniejszych bomb. Cóż, potrząsanie szablą ma tylko wtedy urok, gdy przeciwnik jest uzbrojony słabiej. Tymczasem w Związku Radzieckim prowadzono planowe badania i prace konstrukcyjne w celu praktycznego wykorzystania energii jądrowej do celów pokojowych.
Ku temu samemu nawoływali uczeni na Zachodzie. Listy, petycje i artykuły w prasie, podpisywane nazwiskami najznamienitszych naukowców, wskazywały na celowość i korzyści płynące z wyleczenia się z histerii zbrojeniowej. Roztaczano wspaniałe wizje elektrowni, które każdy mógłby mieć we własnym domu – trzeba by tylko wrzucić do nich raz na rok małą grudkę uranu i wszelkie kłopoty z zaopatrzeniem urządzeń domowych w energię byłyby na zawsze poza nami. Jednak fundusze przeznaczone na te cele były skromne, większość sum pochłaniały prace nad skonstruowaniem lepszych rodzajów broni.
Tymczasem konsekwentna polityka Związku Radzieckiego przyniosła rezultaty i kolejne zaskoczenie dla Zachodu. Już 27 czerwca 1954 roku w Obnińsku popłynął prąd elektryczny z pierwszej na świecie elektrowni atomowej. Równo rok później na sesji Akademii Nauk ZSRR wobec licznie zaproszonych naukowców zagranicznych uczeni radzieccy mogli się poszczycić swoimi osiągnięciami. Zwiedzający elektrownię w Obnińsku uczeni zdołali przekonać swoje rządy, iż zamiast skrzętnie skrywać swe osiągnięcia, należy współpracować ze Związkiem Radzieckim. Na zwołanej niewiele później w Genewie konferencji szefów rządów czterech wielkich mocarstw lody zostały przełamane. A już w sierpniu 1955 roku, również w Genewie spotkali się przedstawiciele aż 66 państw, by obradować nad możliwościami pokojowego wykorzystania energii jądrowej. W rok później powstała w Wiedniu Międzynarodowa Agencja Energii Atomowej, organizacja służąca szerokiej wymianie informacji naukowych i technicznych. Dziś liczba państw-członków tej organizacji znacznie przekroczyła setkę.
W cztery lata po elektrowni w Obnińsku ruszyła nowa, największa wówczas na świecie, w Troisku. A rok później spłynął na wodę lodołamacz Lenin – pierwszy statek (nie mający zastosowania wojskowego) o napędzie atomowym. Pokojowe wykorzystanie energii jądrowej stało się faktem. Od tej pory na całym świecie wyrastają jak grzyby po deszczu coraz potężniejsze elektrownie jądrowe. Równocześnie prowadzone przez wszystkie niemal państwa poszukiwania rud uranu przynoszą coraz lepsze wyniki. Okazało się, że dysponujemy dużymi zasobami tego ciężkiego i jakże pożytecznego metalu.Znaleźć go można na niemal wszystkich kontynentach, pod najróżniejszymi szerokościami geograficznymi. Prócz znanych od lat złóż w Czechosłowacji czy Kongo, pokaźne zasoby mają ZSRR, USA, Brazylia, a nawet mało znany kraj afrykański Gabon.
To właśnie wGabonie przed paroma laty dokonano fascynującego odkrycia. Wydobywaną tam rudę kupowała wówczas Francja, by po odpowiedniej przeróbce wykorzystać w swych bombach i reaktorach. I oto pewnego dnia okazało się, że dostarczony transport rudy jest znacznie gorszy niż zwykle. Zaś jakość rudy zależy po prostu od zawartości w niej lżejszego izotopu uranu, oznaczonego 235, w odróżnieniu od bardziej rozpowszechnionego i bezużytecznego izotopu 238. Atom uranu 235 trafiony przez wolno biegnący neutron pęka i rozpada się na lżejsze pierwiastki, przy czym wydziela się sporo energii i kilka neutronów, które mogą wywołać podobne pękanie dalszych atomów, ale tylko takich samych. Jeśli powolny neutron trafi w jądro atomu uranu 238, jest bezpowrotnie stracony, oczywiście z punktu widzenia uzyskania energii.
Zarówno gwałtownie, wybuchowo przebiegająca reakcja w bombie atomowej, jak i powolna, kierowana reakcja w reaktorze wykorzystywanym, na przykład, do podgrzewania wody, której para uruchamia turbinę elektrowni atomowej, wymagają stosowania uranu złożonego przynajmniej w kilku procentach z „dobrych” atomów uranu 235. Ale wszystkie rudy zawierają ich zaledwie 0,7 procenta, to znaczy jeden atom „dobry” na 140 „złych”. Trzeba więc uzyskiwany uran naturalny, jak to nazywają specjaliści, wzbogacać w lżejszy izotop. Była to bodaj najpoważniejsza w swoim czasie przeszkoda w wykorzystaniu energii jądrowej. Dziś potrafimy ją przezwyciężać skutecznie i tanio.
Lecz wróćmy do kopalni w Gabonie. Cóż mogło oznaczać, że w pewnej części złoża znaleziono mniejszą zawartość uranu 235 niż we wszystkich innych miejscach? Po długich debatach uczeni doszli do wniosku, że w tym właśnie miejscu przed miliardami lat powstał pierwszy na Ziemi naturalny reaktor jądrowy. Lekkiego izotopu jest dlatego mniej, że się po prostu „wypalił”. Co prawda, nie służyło to niczemu i nikomu, ale zawsze Natura, jak to się z reguły dzieje, wyprzedziła nas i sama z siebie zbudowała coś, co (oczywiście w ulepszonej postaci) jest chlubą naszych czasów. Ale też nie ma się czemu dziwić. Jeśli mógł powstać twór równie skomplikowany jak człowiek, czemu na ziemi nie miałby zjawić się wcześniej jeszcze reaktor jądrowy?
Ludzie z zapałem budowali coraz większe reaktory, zasilając coraz większe elektrownie. Pod koniec lat pięćdziesiątych wydawało się, że wszystko nagle stało się proste i nieskomplikowane. Autorzy opowiadań i powieści fantastyczno-naukowych prześcigali się wprost w tworzeniu coraz piękniejszych wizji przyszłości naszej cywilizacji. Wydawało się, że opanowanie energii jądrowej otworzy przed ludzkością bramy raju. Dysponowanie tak potężnym narzędziem miało umożliwić zmiany klimatu, loty kosmiczne do innych układów gwiezdnych i w ogóle całkowicie zmienić nasze życie w ciągu kilku lat.
Ale z roku na rok pojawiały się coraz to nowe rozczarowania, sukcs jest wciąż jeszcze przed nami. Musimy to sobie szczerze powiedzieć. Bezustannie mijają kolejne daty ustalonego przez futurologów niedwołalnego konca paliw kopalnych jako źródła energii i nadejście chwili, gdy „... za jednym pociągnięciem znikną wszystkie nasze skomplikowane urządzenia do transportu węgla, a wraz z nimi ryczące piece, poczerniałe twarze palaczy i cały ten zakopcony sprzęt, kryjący się pod nazwą maszyna parowa”... - jak pisano już w roku 1911 w poczytnym piśmie „Scientific American”. Dziś wiemy z całą pewnością, że owo „jedno pociągnięcie” składa się z szeregu małych kroków, że atom nie niesie wyłącznie dobrodziejstw, lecz także pokaźne niebezpieczeństwa; co tu dużo ukrywać, jego opanowanie jest znacznie trudniejsze niż budowa maszyny parowej, a i ta nieskomplikowana konstrukcja zajęła ludziom sporo czasu. Zresztą, może trochę przesadzam w swym pesymizmie, przecież postęp jest zauważalny, a wiara w potęgę ludzkiego umysłu to jedyne nasze wyjście...
Pomówmy jednak o kłopotach ludzi zajmujących się energią jądrową. Najważniejszą chyba sprawą jest stałe zagrożenie niezwykle groźnym promieniowaniem alfa, beta i gamma. Ten cichy wróg, niedostrzegalny i niewyczuwalny dla naszych zmysłów, zebrał już bogaty plon ofiar w Hiroszimie i Nagasaki; jak już wspomniałem, lista ofiar nie została jeszcze zamknięta do dziś. Zginęło też wielu nieostrożnych badaczy, którzy nie zdawali sobie sprawy z niebezpieczeństwa przebywania na co dzień w zasięgu groźnych promieni. Jak powiedział jeden z uczonych badający jeszcze przed wojną różne zjawiska związane z promieniotwórczością: „gdyby obecne przepisy bezpieczeństwa obowiązywały wówczas, nie dokonalibyśmy żadnego z naszych odkryć”. To chyba prawda, lecz nie tylko o uczonych idzie.
Jose Garcia, mimo iż jego nazwisko wskazywałoby raczej na Madryt czy Sewillę, na stałe mieszka we Francji. Jest właścicielem pralni chemicznej i nigdy byśmy o nim nie wspominali, gdyby nie wybudował w 1964 roku dla siebie i swej rodziny willi w Gif-sur- Yvette – eleganckim przedmieściu Paryża. Po dziesięciu latach pan Garcia usłyszał plotkę, którą w pierwszej chwili uznał za złośliwość, zazdrość, wreszcie żart. Ktoś „życzliwy” powiedział mu, że dziwi się, iż zechciał zamieszkać w sąsiedztwie miejsca, w którym przed laty znajdowało się jedno z pierwszych francuskich laboratoriów prowadzących badania nad radem i innymi substancjami radioaktywnymi. Jednak to co brał za złośliwość okazało się prawdą – istotnie, jeszcze w przededniu II wojny światowej, jeden z kolegów Marii Skłodowskiej-Curie miał swe laboratorium o dwa kroki od jego domu.
Samo istnienie laboratorium jeszcze o niczym nie świadczy. Garcia sprowadził znajomego z licznikiem Geigera. Licznik tykał jak oszalały, terkotał tak, że pobladły z przerażenia właściciel pralni rzucił sie do telefonu, by wezwać na pomoc kogo się dało: i policję, i strażaków, i pogotowie.
Z niemałym trudem ustalono wreszcie całą prawdę. Z trudem, bowiem zarówno właściciel laboratorium, jak i jego współpracownicy nie żyją już od dawna. Umarli niedługo po zlikwidowaniu laboratorium, bo w czasie pracy z niebezpiecznymi substancjami nie przestrzegali elementarnych zasad ostrożności – otrzymali zbyt wielką dawkę śmiercionośnych promieni. Natomiast w czasie likwidacji swego laboratorium mieli pewien kłopot. Zostało im parę ton różnych resztek badanych substancji. Niewiele myśląc wyrzucili je na śmietnik i żeby zostawić wszystko w jak najlepszym porządku, przysypali piaskiem.
Dokładnie na miejscu starego śmietnika ćwierć wieku później Jose Garcia zbudował sój dom. Przez cały miesiąc lekarze pobierali próbki krwi państwa Garcia i ich dwojga dzieci. I co się okazało? Skrupulatne badania wykazały, że długotrwałe działanie promieniowania laboratoryjnego śmietnika nie uczyniło im żadnej szkody. Nam wypada się tylko dziwić i zazdrościć szczęścia ludziom, którzy według wszelkiego prawdopodobieństwa powinni już w tej chwili być śmiertelnie chorzy.
W całej tej przykrej sprawie najbardziej ucierpiały nerwy państwa Garcia, którzy przez cały miesiąc czuli się skazani na śmierć. Specjalna ekipa robotników załadowała do setek, a może tysięcy beczek masy ziemi z trawnika, zerwano podłogę w piwnicy i garażu, by dotrzeć do skażonej ziemi pod domem. Wszystko zostało wywiezione tam, gdzie powinno się znajdować już 35 lat wcześniej. Oczywiście wszelkie koszty poniosła rządowa agencja zajmująca się zabezpieczeniem przed radioaktywnością. Tymczasem rozpoczęto gorączkowe poszukiwania dalszych śmietników po nie istniejących już laboratoriach. Znaleziono, jak mi wiadomo, przynajmniej jeden, w miejscowości Bandol na Rivierze.
Historia ta poważnie zaniepokoiła Francuzów, tym bardziej, że geolodzy wykryli w różnych miejscach kraju zbyt wysoką promieniotwórczość wody. Trudno się dziwić, że w tej sytuacji gwałtownie zmniejszyła się liczba zwolenników rządowego programu budowy 50 nowych elektrowni atomowych. Sam Garcia zapytany przez dziennikarzy, co sądzi o swej przygodzie, odparł: „Czegoś takiego po prostu nie można sobie wyobrazić. A zawsze miałem zaufanie do naukowców...” Nie łudźmy się jednak, że niebezpieczeństwo groziło tylko jemu i już zostało zażegnane.
W ciągu 25 lat, jakie minęły od Hiroszimy, zanotowano oficjalnie 358 wybuchów jądrowych w atmosferze. Każdy z nich wprowadzał do atmosfery ogromne ilości radioaktywnych pierwiastków. Trudno wyliczyć niebezpieczeństwa, jakie sprowadzało to na ludzi, na wszystkich dosłownie mieszkańców naszego globu. Wreszcie w sierpniu 1963 roku, z inicjatywy rządu Związku Radzieckiego podpisano układ o zakazie prób atomowych w atmosferze, pod wodą i na ziemi – bomby mogą eksplodować tylko głęboko pod ziemią. Oczywiście, podpisali go nie wszyscy, na przykład Chiny i Francja prowadzą te igraszki z ludzkim życiem i zdrowiem do dziś.
Elektrownię jądrową, a właściwie jej reaktor, trudno porównywać z bombą atomową. Ale i w niej znajduje się radioaktywny uran lub pluton i w czasie pracy tego urządzenia, jak zapewniają nas specjaliści, pewne drobne ilości groźnych substancji wydobywają się na zewnątrz, potęgując i tak dużą ich zawartość w naszym środowisku. Oczywiście są one drobne w przypadku normalnej pracy, bez awarii. Gdyby wybuchł reaktor, po prostu trudno sobie wyobrazić rozmiary szkód, głównie wśród istot żywych.
Paliwo używane w reaktorach jądrowych, czyli pręty uranowe, po wykorzystaniu zawartego w nich uranu 235 stają się właściwie bezużyteczne, a kłopotów z nimi co niemiara. Zawierają one substancje radiaktywne, niezwykle niebezpieczne i na dobrą sprawę nie wiadomo, co z nimi począć. Najpierw zakopywano je w ziemi, w odosobnionych i ogrodzonych miejscach. Ale woda przepływająca przez glebę wypłukiwała z nich niebezpieczne substancje. Odpady zamykano w stalowych beczkach – rozgrzewały się one tak silnie, że trzeba było dobudowywać do nich niezwykle skomplikowane urządzenia chłodzące. Później Amerykanie zatapiali statki z tymi beczkami w oceanie. Ale któż zaręczy, że beczki nie rozpadną się, a cała ich zawartość nie trafi do wody? Pewne z pierwiastków radioaktywnych są groźne przez tysiące lat, smutne więc dziedzictwo pozostawiamy naszym potomkom, którym chyba nie ma czego zazdrościć. Tym bardziej, że gromadzą się one najpierw w drobnych żyjątkach morskich, później w rybach i w znacznie zwiększonym stężeniu trafiają wreszcie do naszych żołądków.
Najlepszy z dotychczasowych realnych pomysłów to zatapianie odpadów w szklane lub betonowe kule i umieszczanie ich w podziemnych pieczarach, w wyeksploatowanych kopalniach soli. Tam, gdzie zbierała się sól, nie przepływa woda, owe śmiercionośne „zbiory” łatwo kontrolować i nie ma obaw, że wejdzie tam ktoś niepowołany, przez pomyłkę lub z ciekawości, która mogłaby go zbyt wiele kosztować.
Istnieje jeszcze jeden pomysł pozbawienia się zbędnych i szkodliwych dla wszystkiego co żyje, odpadów promieniotwórczych. Jest to projekt idealny (Idealny? Szalony! - uwaga przepisującego książkę A.S.), choć jak na razie dość kosztowny. Ktoś, przyznaję uczciwie, że nie wiem kto, zaproponował, by wszystkie te śmieci ładować do rakiet i wystrzeliwać je w kierunku Słońca. W gigantycznym kotle naszej najbliższej gwiazdy nawet cała Ziemia zginęłaby bez śladu, a cóż dopiero te trochę substancji radioaktywnych. Niestety, zastosowanie tego pomysłu pochłonęłoby wiele energii i cennych materiałów.
Elektrownie jądrowe na dobrą sprawę niewiele różnią się od zwykłych, tak zwanych cieplnyh, w których spalany węgiel lub nafta wytwarzają parę, a ta z kolei porusza tuurbiny obracające generatory produkujące prąd elektryczny. Po prostu palenisko zastępuje się w nich reaktorem jądrowym. Każdy, kto widział zwykłą elektrownię, musiał zauważyć, że wypływa z niej prawdziwa rzeka wrzącej wody, której nie można ot tak po prostu gdzieś wylać. Z tego powodu elektrownie buduje się najczęściej nad brzegami rzek czy dużych jezior, a jeśli jest to niemożliwe, wówczas obok kominów i hal z kotłami, turbinami i generatorami wyrastają potężne chłodnie, tak zwane kominowe, w których woda oddaje ciepło powietrzu. Jeśli elektrownia znajduje się w mieście lub na jego peryferiach, wówczas gorącą wodę kieruje się rurami do mieszkań, gdzie zostaje wykorzystane do ogrzewania czy do kąpieli.
Ten sposób, jak nigdzie indziej, jest rozpowszechniony w Polsce. Większość domów w miastach jest zaopatrywana w goracą wodę właśnie z elektrociepłowni. Świadczy to nie tylko o naszej gospodarności – wykorzystujemy maksymalnie ciepło uzyskane ze spalania wegla – lecz także odsuwa od nas niebezpieczeństwo tak zwanego cieplnego skażenia środowiska naturalnego. Gdy masy gorącej wody wlewają się bezustannie do rzeki, jeziora czy oceanu, temperatura rośnie tam w sposób zauważalny. Zasadniczo zmeniają się wówczas warunki życi różnych roślin, ryb, drobnych żyjątek i innych zwierząt. Pewne z nich giną, inne się wynoszą, a jeszcze inne plenią się nadmiernie. Tego powinniśmy się wystrzegać. Wiemy na tylo mało o współdziałaniu wszelkich żywych istot, mieszkańców Ziemi, że lekkomyślność może przynieść nam poważne kłopoty. Zachwianie równowagi w przyrodzie może szybko sprowadzić na ns straszliwe klęski żywiołowe, z których najgroźniejsze – to brak tlenu lub zmiana klimatu.
Czy ludzie moga sobie pozwolić na taką lekkomyślność? Myślę, że nie, lecz dotychczas nikt nie wpadł na pomysł, w jaki sposób moglibyśmy tego uniknąć. Same ostrzeżenia nie na wiele nam się przydadzą, trzeba myśleć i działać. A elektrownie jądrowe są jeszcze jak dotąd znacznie mniej wydajne niż cieplne. Znaczy to, że oddają do otoczenia dużo więcej ciepła zawartego w gorącej wodzie.
Ciekawy system chłodzenia wody zbudowano niedawno na Florydzie, w miejscu położonym o około 40 kilometrów na południe od Miami. Istnieje tam wielki kompleks elektrowni, w sumie jest ich cztery – dwie zwykłe i dwie jądrowe. Do chłodzenia wody wykorzystywano przez pewien czas Ocean Atlantycki – przez potężne rury spływała do niego gorąca woda. Wkrótce działacze ochrony środowiska, biolodzy, zauważyli, że temperatura wód przybrzeżnych zaczyna latem przekraczać 32o C, co stanowi granicę wytrzymałości różnych traw morskich, alg i stworzeń zamieszkujących wody przybrzeżne. Budowa wież chłodniczych była zbyt kosztowna – okolice te często nawiedzają huragany – trzeba by ich konstrukcję specjalnie wzmacniać. Zbudowano więc sieć kanałów o szerokości 60 metrów, głębokości 1 metra i mających w sumie długość 270 kilometrów. Woda przepływająca wolno przez te kanały ochładza się, a życiu w oceanie już nic nie zagraża, oczywiście ze strony elektrowni.
Oceany można też wykorzystywać, lecz ze wspomnianych wyżej względów nie przy brzegu. Tak narodził się projekt pływającego reaktora, zakotwiczonego o kilkanaście kilometrów od wybrzeża. Prąd elektryczny wytwarzany w takiej elektrowni przesyła się na brzeg przy użyciu kabla podmorskiego, a ludzie i potrzebne zaopatrzenie docierają z brzegu motorówką lub helikopterem. Projekt ten ma jeszcze jedną zaletę – estetyczną. Kadłub elektrowni wykonany z betonu zanurzony jest dość głęboko w wodzie, podobnie jak góra lodowa. Nad wodę wystaje tylko nieznaczna część kolosalnej bryły elektrowni, którą na lądzie widać by było z daleka, a nie jest to widok zachwycający.
Czy reaktory atomowe w elektrowniach jądrowych są bezpieczne? Oto pytanie, które trapi wielu ludzi na całym świecie. Każdy przecież pamięta Hiroszimę, nikt nie chciałby podzielić losu jej mieszkańców, a coraz więcej ludzi zyskuje niezbyt miłe sąsiedztwo kolosa z żelbetonu i stali, w którego wnętrzu znajduje się z reguły ładnych parę ton groźnego uranu.
Specjaliści, zwłaszcza ci, którzy reaktory budują, stanowczo twierdzą, że jest to najbezpieczniejsze urządzenie ze wszystkiego co stworzyły ręce ludzkie. Na dowód chętnie pokazują tabele z wyliczeniem, ile osób ginie w wypadkach samochodowych, samolotowych czy katastrofach statków – żaden reaktor natomiast jeszcze nie wyleciał w powietrze. Przyznają, że czasem przedostanie się do otoczenia trochę substancji radioaktywnych, ale przecież są to ilości tak nieznaczne, że właściwie nie ma o czym mówić. Już więcej ludzi zginęło od wybuchów zwykłych kotów parowych! To prawda, lecz w tej chwili istnieje na Ziemi zaledwie około 300 elektrowni jądrowych. Jest to ilość znikoma, a i tak już wiele razy byliśmy o krok od katastrofy. A oto jeden z przykładów.
W południe 22 marca 1975 roku opodal miasta Decatur w Alabamie w Stanach Zjednoczonych dwu techników sprawdzałoszczelnośćkmory zawierającej reaktor i urządzenia pomocnicze. Tę ważną czynność wykonywano codziennie, by uchronić się przed wszelkimi przeciekami powietrza z wnętrza komory, które mogłoby zawierać substancje radioaktywne. Sprawdzanie wygląda co prawda na pozór śmiesznie, lecz jest skuteczne. Po prostu jeden z ludzi trzyma w ręku zapaloną świecę (tak, tak, zwykłą świecę), której płomień w przypadku najlżejszego nawet podmuchu zaczyna migotać lub odchyla się.
Obaj technicy bacznie obserwowali płomyk, gdy ten naraz silnie się odchylił. Przy dokładnym obejrzeniu ściany okazało się, że istotnie w jakiś sposób powstał dość duży otwór w miejscu, w którym z komory wychodził gruby pęk około 2000 kabli łączących urządzenia sterujące reaktora ze znajdującą się powyżej sterownią. Pracownicy zatkali go dwoma kawałkami pianki poliuretanowej i zbliżyli znów świecę, by sprawdzić skuteczność prowizorycznego korka. Korek nie był doskonały – silny ciąg powietrza wessał płomień, od którego błyskawicznie zajęła się ogniem pianka poliuretanowa. Próby stłumienia ognia szmatami nie powiodły się. Nie poskutkowały również gaśnice. Gdy użyto już trzy znajdujące się w tym pomieszczeniu, jeden z mimowolnych podpalaczy pobiegł szukać następnych.
Nikomu nie przychodziło do głowy, by wezwać strażaków. Powód wydawał się zbyt błahy. Wreszcie jeden ze strażaków znajdujący się w sąsiednim pomieszczeniu postanowił zatelefonować po straż pożarną, ale w podnieceniu zapomniał numeru telefonu. Upłynęło czternaście długich minut, kable paliły się jak smolna szczapa, zabrzmiał wreszcie sygnał alarmowy, ale przez następne sześć minut sytuacja się nie zmieniła.
W sterowni inzynierowie nawet nie podejrzewali, że dosłownie pali im się pod stopami. I wtedy, 50 minut od początku katastrofy, zatrzymały się pompy tłoczące ciecz chłodzącą reaktor. Sterujący reaktorem błyskawicznie włączył urządzenie wsuwające pręty powstrzymujące reakcję jądrową, czyli innymi słowy wyłączył reaktor. Ale nawet w tym stanie w reaktorze wydziela się ciepło w ilości dostatecznej do stopienia paliwa. To już nie przelewki – stopienie się paliwa, czyli prętów uranowych, oznacza zniszczenie reaktora i zatrucie całej okolicy radioaktywnymi gazami. Jedynie napełnienie naczynia reaktora wodą może uchronić tysiące ludzi w całej okolicy od śmiertelnego niebezpieczeństwa. W zwykłych warunkach wystarczy nacisnąć guzik włączający pompy, które szybko przetaczają wodę z sąsiadujących z reaktorem zbiorników zabezpieczających.
Tym razem jednak naciśnięcie guzika nie zdało się na nic. Pożar rozprzestrzenił się tak szybko, ze zdążył już odciąć dopływ prądu elektrycznego do pomp. Używając najdziwniejszych sposobów ufało się zalać reaktor wodą – pożar zaś wygaszono dopiero po siedmiu godzinach. I pomyśleć tylko, że mała świeczka, wynalazek starożytnych Rzymian, poważnie zniszczyła elektrownię atomową, a o mało co nie spowodowałą groźnego wybuchu. Ale takie paradoksy zdarzają się w naszych czasach często, choćby pzypomnijmy ptaki, które wpadając do silników największych samolotów, zmuszają je do przymusowego lądowania, nieraz połączonego z karastrofą.
Komisja, która badała przyczyny i skutki tego wypadku, wyliczyła aż jedenaście najróżniejszych zaniedbań, zarówno w konstrukcji reaktora, jak i wyszkoleniu personelu. Na przykład, mało kto znał instrukcje przeciwpożarowe i wiedział, jak należy się posługiwać systemem alarmowym. A już samo przytykanie płonącej świecy do łatwopalnej pianki poliuretanowej zasługuje chyba tylko na popukanie się palcem w czoło. Jednak wszystko dobre, co się dobrze kończy, katastrofa mogła mieć znacznie groźniejsze skutki. A tak – tylko przyczyni się do poprawy warunków bezpieczeństwa. William Anders, były kosmonauta, który obecnie zajmuje stanowisko przewodniczącego Komitetu do spraw Przepisów Bezpieczeństwa Jądrowego zapowiedział surową inspekcję wszystkich 56 elektrowni atomowych, które w owym czasie działay w Stanach Zjednoczonych.
Z bezpieczeństwem reaktorów nie może być aż tak dobrze, jak twierdzą ich konstruktorzy i właściciele, jeżeli po oświadczeniu Andresa wpływowi przedstawiciele tej dziedziny przemysłu używali wszelkich sposobów, łącznie z naciskiem na prezydenta Geralda Forda, żadając zwolnienia byłego kosmonauty ze stanowiska. Na szczęście nic z ich zabiegów nie wyszło, co stanowi pewną nadzieję, że wszelkie uchybienia zostną usunięte i w przyszłości również i elektrownie jądrowe pozostaną najbezpieczniejszym miejscem pracy – do dziś bowiem nie zdarzył się jeszcze ani jeden śmiertelny wypadek w elektrowni jądrowej. A czy elektrownie te nie będą w przyszłości zagrożeniem dla pokoju i bezpieczeństwa na świecie, to już całkiem inne zagadnienie. I bynajmniej nie błahe, na co istnieje sporo dowodów. Oto one.
Za dwadzieścia lat różne mniejsze i większe państwa będą dysponowały ilością materiału rozszczepialnego, czyli uranu i plutonu, wystarczającą do zbudowania 20 tysięcy bomb atomowych. Taką opinię wygłosił dr Fred Ikle (wym. Ajkl), szef delegacji amerykańskiej na ostatniej konferencji rozbrojeniowej w Genewie. Nie od rzeczy będzie wspomnieć, że obradująca wiosną 1975 roku konferencja zgromadziła przedstawicieli 65 państw, sygnatariuszy paktu o nierozprzestrzenianiu broni jądrowej, którzy pochlebnie wyrażali się o osiągnięciach owego liczącego już pięć lat porozumienia i chwalili dalsze zacieśnianie ograniczeń i zabezpieczeń. Jeśli jest tak dobrze, co skłoniło dr Ikle'a do straszenia nas swymi katastroficznymi przepowiedniami? Niestety, nie są one bezpodstawne.
Okazało się bowiem, że już w czasie obrad konferencji, a może nawet wcześniej, rząd RFN prowadził tajne rokowania z rządem Brazylii w sprawie wielomiliardowego (w dolarach) kontraktu na sprzedaż nie tylko kilku reaktorów jądrowych, lecz także urządzeń i technologii wzbogacania uranu i tak zwanego pełnego cyklu paliwowego. Proces wzbogacania polega na zwiekszeniu zawartości lekkiego izotopu, występującego w naturalnym uranie w ułamku procentu, do kilku procent, co warunkuje możliwość zapoczątkowania reakcji jądrowej. Uzupełnienie cyklu to wydobywanie z zużytych prętów uranowych tworzącego się w wyniku reakcji plutonu, który sam jest dobrym paliwem jądrowym.
Dotychczas wszelkie zawarte kontrakty ze względów bezpieczeństwa przewidywały tylko budowę reaktorów, sprzedający zastrzegał dla siebie wyłączność dostaw materiału rozczepialnego, ba, nawet żądał zwrotu zużytych prętów paliwowych, aby nie dopuścić do wpadnięcia plutonu, doskonałego surowca dla bomb atomowych, w ręce niepowołanych osób. Ujawnione informacje zbulwersowały więc świat i nic w tym chyba dziwnego. Rzecznik rządu brazylijskiego oświadczył z dumą, że kraj jego zamierza dokonywać eksplozji jądrowych „dla celów pokojowych”. Cały kłopot w tym, że nie ma przecież mędrca, który odróżni eksplozję „pokojową” od bomby.
W 1974 roku Indie wkroczyły do wąskiego kregu państw nuklearnych, dokonując w maju eksplozji jądrowej na pustyni Rajasthan. Ta eksplozja odbiła się głośnym echem na całym świecie. Teraz Indie zaproponowały Pakistanowi pakt o nieagresji z uwzględnieniem zakazu użycia broni jądrowej. Ładny to gest – ukłon silniejszego w stronę słabszego. Ale... Pakistan zaraz rozpoczął rozmowy z Francją w sprawie podobnego kontraktu, jaki zawarła Brazylia z RFN. Na tym lista się nie kończy. Również pilną (i niezbyt uzasadnioną ze względów ekonomicznych) potrzebę zakupu instalacji jądrowych zgłosiły Korea Południowa i Tajwan. Chiny bombę już mają – co na to wszystko powie Japonia? Iran już kupuje dwa reaktory w RFN i pertraktuje z USA o prawo wykorzystania plutonu z 8 reaktorów, które chce tam kupić. Ponadto, podobno Izrael i Republika Południowej Afryki niedługo będą miały własne bomby, lub nawet już je mają.
Wkroczyliśmy więc w „drugą erę nuklearną”. Pierwszy to okres, gdy tylko nieliczne mocarstwa dysponowały tą groźną bronią. Porozumienia dwustronne sprawiły, że była ona mniej niebezpieczna, niż o tym mówiono. Ścisła kontrola wykluczyła przypadkową eksplozję czy kradzież bomby przez przestępców, fanatyków lub szaleńców. Zresztą nawet kradzież bomby nie stanowiłaby pewności, że uda się ją uruchomić. Skomplikowane urządzenia zabezpieczające mógł uruchomić tylko fachowiec, który znał bombę na wylot. Tych zaś miano na oku.
Druga era, czyli okres rozpełzania się materiału rozszczepialnego do najdalszych zakątków świata, stwarza niespotykane dotąd problemy. Powstaje prócz legalnego czarny rynek, czyli jak go nazwano przez analogię z narkotykami - „plutonowy łącznik”. Zresztą już kilka lat temu z amerykańskich zakładów w Numec w RFN zginęło 100 kilogramów wzbogaconego uranu, gotowego do zbudowania bomby i do dziś nie wiadomo, w czyich jest rękach... Każdy kto będzie miał dolary i obrany cel, uzyska wspaniałą możliwość niszczenia. Jak będziemógł tego dokonać? Bardzo łatwo, jak się okazuje.
Autorzy telewizyjnej audycji popularnonaukowej „Nova”, emitowanej w USA, zadali sobie trud odpowiedzi na to pytanie. Nie tyle zresztą sobie, co pewnemu dwudziestoletniemu studentowi chemii, który nigdy nie miał do czynienia z inżynierią jądrową. Zlecono mu opracowanie planów bomby atomowej. Chłopak rozpoczął od lektury książki fizyka T. Taylora, ostrzegającej przed łatwością zbudowania bomby. Okazuje się, po raz nie wiem który, że ostrzeżenia są najlepszym instruktażem. Pięć tygodni lektury różnych prac w bibliotece, w tym raportów (jawnych) Projektu Manhattan, wystarczyły do opracowania dokładnego planu konstrukcyjnego. Student, którego nazwiska nie znamy i który ukrywa się w obawie przed porwaniem, powiedział w telefonicznym wywiadzie dla tygodnika „Newsweek”: „Jestem zdumiony, że tak łatwo mi poszło. Oceniam, że bomba będzie kosztować około 10 tysięcy dolarów, ważyć poniżej 400 kilogramów i zawierać około 7 kilogramów plutonu”.
A jaką opinię wydali o planach amerykańscy eksperci od broni jądrowej? Nie wydali żadnej opinii, uchylili się od odpowiedzi, co wydaje się znamiennym potwierdzeniem sprawności śmiercionośnego urządzenia. Audycja poruszyła odpowiednią komisję Kongresu amerykańskiego, która opracowuje nowe plany zabezpieczenia instalacji jądrowych, zwłaszcza tych, w których wykorzystuje się pluton.
Tak oto, jeśli nie zahamujemy rozwoju drugiej ery atomowej, za kilka lat terroryści, miast uganiać się z granatami i pistoletami w garści, będą mogli szantażować rządy prymitywnymi, lecz skutecznymi bombami atomowymi. Z jednej strony będzie to wynik krótkowzrocznych, precedensowych poczynań niektórych państw, zaś z drugiej – nieuchronny skutek rozwoju nauki. To, co jeszcze 30 lat temu było udziałem najwyższej klasy fizyków, dziś jest możliwe dla studenta chemii.
Fizycy podnieceni swymi osiągnięciami w dziedzinie broni masowej zagłady mawiali chętnie, że są panami świata. Dziś, jak się okazało, mogą nimi zostać również nie douczone młokosy. Taka jest odwieczna prawidłowość. Odkrycia naukowców po kilku czy kilkudziesieciu latach wkraczają pod przysłowiowe strzechy. Lecz inżynieria jądrowa jest dziedziną zbyt niebezpieczną, aby można było do tego dopuścić.
Dlatego też musimy wkładać wiele sił w rozwiązanie palących problemów świata. Jeśli nie będzie niezadowolonych, któż zechce siać zniszczenie. Co prawda zawsze mogą się znaleźć szaleńcy lub przestępcy, ale tu już musimy ufać w doskonałość zabezpieczeń. Nie można oszczędzać na urządzeniach, które zapobiegną wszelkim kradzieżom materiałów radioaktywnych. Zresztą trudno bawić się w przewidywania, ale może ludzie wreszcie zmądrzeją, zmienią się i dostosują do przemian, które zaszły w świecie – to chyba jedyny i konieczny warunek przetrwania naszej cywilizacji. Nie możemy zrezygnowac z wykorzystania energii jądrowej, wszak węgiel i ropa naftowa, obecnie podstawowe źródło energii, za jakiś czas – jak już wspomniałem – ulegną wyczerpaniu. Ich zasoby nie są nieograniczone. Stopniowe zastępowanie ich reaktorami jądrowymi to po prostu konieczność.
A na jak długo wystarczy nam uranu? Niestety, w reaktorach, o których pisałem dotychczas, wykorzystuje się wyłącznie uran lekki 235, a tego jest stosunkowo mało. Gdyby wszystkie ziemskie elektrownie zaczęły z niego korzystać, jeszcze przed upływem obecnego stulecia Ziemię spowiłyby ciemności – elektrownie zatrzymałyby się z braku paliwa. Moglibyśmy wówczas tylko smętnie spoglądać na ogromne zasoby uranu 238, bezużytecznego zwykłego metalu.
Ale uran 238 ma pewną ciekawą właściwość. Gdy uderzy w jego jądro neutron, który pędzi z wielką prędkością, wówczas następuje przemiana jądrowa – uran zamienia się w pluton, a jak wspomniałem, to już jest wspaniałe paliwo jądrowe. Musi być spełniony tylko ten właśnie warunek – neutronom należy nadawać wielką prędkość, a wtedy czynią one cuda. Nie ma chyba przesady w porównaniu tego zjawiska z alchemią. Oto na naszych oczach pewien pierwiastek zamienia się w inny i to cenniejszy dla na niż złoto. Gdyby zamienić cały znajdujący się na Ziemi uran 238 w pluton, kłopoty ze zdobywaniem energii mielibyśmy „z głowy” na setki lat.
Tak powstał pomysł zbudowania reaktora nazwanego powielającym. Aż trudno w to uwierzyć, ale reaktor powielający wytwarza więcej paliwa jądrowego – plutonu – niż go zużywa! Brzmi to trochę, jak określenie perpetuum mobile - maszyny, która pracuje wiecznie, bez czerpania energii z otoczenia, ba, nawet oddając wielkie jej ilości. Lecz rzeczywistość nie jest aż tak fantastyczna. Po prostu reaktor powielający zawiera w swym wnętrzu pluton i uran 238. W czasie pracy uran nie tylko wytwarza ciepło, wykorzystywane w elektrowni, ale również nadmiar szybko pędzących neutronów stopniowo przetwarza uran na pluton. Oto alchemia XX wieku! Reaktor powielający to wypisz wymaluj tygiel alchemika.
Jednak reaktorów powielających zbudowano dotychczas niewiele. Konstruktorzy napotykają ogromne trudności, ale niewątpliwie uda im się je przezwyciężyć. Najlepszym tego dowodem może być reaktor powielający zbudowany w Związku Radzieckim, nad brzegiem Morza Kaspijskiego. Służy on nie tylko do wytwarzania elektryczności, lecz także do odsalania wody morskiej – okolica ta cierpi na brak wody do picia. Zbudowanie go stało się dobrodziejstwem dla mieszkańców dużego rejonu.
Jest to zresztą reguła. Elektrownie jądrowe buduje się tam, gdzie są naprawdę potrzebne, to znaczy tam, gdzie na miejscu nie ma zwykłych paliw, węgla czy ropy. Co prawda wszystkie państwa zamierzają w coraz większym stopniu wykorzystywać energię jądrową, ale na razie nieco taniej i być może bezpieczniej będzie spalać pod kotłami węgiel. Podobnie też jest w naszym kraju. Węgla mamy w bród, ale jego złoża zalegają tylko na południowych krańcach kraju, szerokim pasem poprzez Śląsk i Lubelskie. Nie wierzymy, by węgla wystarczyło nam na zawsze, więc również interesujemy się elektrowniami jądrowymi – niedługo zbudujmy pierwszą z nich w Żarnowcu. Oczywiście, nie budujemy jej zdani na własne siły, lecz korzystamy z bogatych doświadczeń Związku Radzieckiego. Kolejne reaktory będziemy już budować w coraz większym stopniu sami, być może również i powielające.
Taka jest przyszłość energii jądrowej, stosowanej do celów pokojowych, a więc wytwarzania elektryczności, odsalania wody itp. Lecz nie zapominajmy, że podobnie jak zasoby paliw kopalnych, uran również wydobywa się z wnętrza Ziemi i jego zasoby w końcu kiedyś się wyczerpią, bez względu na to, jak wydajnie będziemy je wykorzystywać. A co wtedy? No cóż, mamy w zanadrzu inne źródła energii...

Miniatura Słońca

Słońce od niepamiętnych czasów wzbudzało zrozumiałe zainteresowanie ludzi. Zainteresowanie to przejawiało się już w dawnych wierzeniach, w mitologii. Kult Słońca towarzyszy rozwojowi naszej cywilizacji. Jak dowiadujemy sięz wyników badań archeologicznych, już przed tysiącami lat różnego rodzaju kapłani, czyli ludzie wtajemniczeni, ustalali podstawy astronomii, między innymi wyjaśniając ciekawe zjawisko pozornych ruchów Słońca na nieboskłonie. Wykopaliska świadczą o ich wielkiej wiedzy praktycznej – gigantyczne kamienne budowle w Europie czy piramidalne świątynie za Oceanem Atlantyckim to pierwowzory naszych obserwatoriów astronomicznych. Lecz wiedza ta poszła później w zapomnienie.
W czasach nowożytnych dopiero genialny Mikołaj Kopernik, chluba polskiej nauki, potrafił ustawić najbliższą nas gwiazdę na należnym jej miejscu – w sercu Układu Słonecznego. Jednak jeszcze przez parę wieków Słońce po prostu „było”, innymi słowy, ludziom wystarczało stwierdzenie, że zostało niegdyś stworzone przez Boga – zrozumienie mechanizmu tego wspaniałego jakby pieca w inkubatorze, którego ciepło i światło nadało impuls rozwojowi świata (o czym, jak warto pamiętać, również nie wiedziano) wykraczało poza możliwości ówczesnej nauki.
Płynęły lata. Nauka, a zwłaszcza fizyka rosła w siłę. Coraz więcej zjawisk otaczającego nas świata dawało się opisać, ująć w formę wzorów matematycznych i praw fizycznych. Nic też dziwnego, że uczeni wzięli się do prób wyjaśnienia, dlaczego Słońce świeci. Pierwszymi, którzy zasługują tu na wymienienie, to Herman von Helmholtz w Niemczech i Lord Kelvin w Anglii. Ci sławni uczeni XIX wieku, którzy mieli już za sobą wiele sukcesów, niezależnie od siebie wpadli na pomysł, że przecież jeśli Słońce jest kulą rozżarzonych gazów, a jak uczy fizyka, gaz rozgrzewa się przy ściskaniu, czyli zmniejszaniu jego objętości, to być może gwiazda rozpala się w wyniku kurczenia. Najpierw był niezwykle rozległy obłok gazu, który wskutek przyciągania grawitacyjnego zaczął się kurczyć i grzać – oświadczyli oni.
Nie było to oczywiście odkrycie na miarę Kopernika, bowiem, po pierwsze, nie stanowiło rewolucyjnego przewrotu w nauce, a po drugie, dokładne obliczenia wykazały, że owszem, ich wyjaśnienie jest prawdopodobne, lecz gdyby tak właśnie było, Słońce mogłoby świecić zaledwie od kilkuset milionów lat, a przecież wiemy, że nasza gwiazda liczy ich sobie parę miliardów. Zagadka nie została więc rozwiązana, ale trudno mieć o to pretensje do obu znakomitych badaczy i innych ich uczonych kolegów. Trzeba jeszcze było poczekać na dalsze odkrycia fizyków.
Dopiero w 1929 roku, gdy badania zmierzające do wyjaśnienia budowy materii sięgnęły już do jądra atomowego, a opracowana przez Alberta Einsteina teoria względności dopuszczała możliwość zamiany masy na energię, dwaj badacze, Fritz Houtermans (Niemiec) i Robert Atkinson (Anglik), wspólnie zaproponowali dość fantastyczne, nawet jak na owe czasy, wyjaśnienie. Opublikowali wówczas w słynnym czasopiśmie fachowym „Zeitschrift für Physik” artykuł, który chcieli zatytułować:”Jak można ugotować jądro helu w garnku potencjału”. Poważni redaktorzy, którym nauka (ta przez duże N) nie kojarzyła się z żartami, zmienili jednak ten tytuł na drętwy, ale bardziej strawny dla szanownego grona ich uczonych czytelników.
Autorzy artykułu, opierając się na wynikach badań Sir Arthura Eddingtona, który wykazał, że temperatura wnętrza Słońca sięga co najmniej kilkunastu milionów stopni Celsjusza, sformułowali teorię, że jakieś stosunkowo lekkie jądro atomowe kolejno wychwytuje 4 jądra atomu wodoru, czyli inaczej mówiąc protony, a następnie przetwarza je na jądro atomu helu (cząstkę alfa), które wyrzuca na zewnątrz, razem ze sporą ilością energii. Ta tak zwana reakcja syntezy termojądrowej stanowiła już pierwszy etap na drodze do rozwiązania, i chociaż jeszcze trudno było o ocenę tak mgliście wyłożonej teorii, już od lat podejrzewano, że musi się w Słońcu kryć jakiś tego typu mechanizm. Nawet gdyby składało się ono z najwyższej jakości gazu świetlnego i tak dawno by zgasło jak wypalona świeczka.
W 10 lat później fizyka jądrowa poczyniła już tak znaczne postępy (dla przypomnienia – Hahn i Strassmann odkryli możliwość rozbicia jądra atomu uranu), że możliwe stało się wskazanie tego tajemniczego lekkiego jądra atomowego. Niezależnie od siebie Hans Bethe w Stanach Zjednoczonych i Carl von Weizsacker (wym. Wajcsaker) w Niemczech, stwierdzili, że jądrem tym może i powinno być jądro atomu węgla. W tak zwanym cyklu węglowymkolejne przemiany jądrowe prowadzą do zmiany węgla i czterech zderzających się z nim protonów na taki sam węgiel (który może znów posłużyć jako pułapka protonów), hel i energię.
Jednak węgla Słońce zawiera niewiele, zaledwie ułamek procenta. Wnikliwe oceny świadczyły, żecykl węglowy może dostarczać zaledwie setną część potoku energii płynącej z wnetrza naszej gwiazdy. Nie należy się więc dziwić, że fizycy czy raczej astrofizycy (bo tak nazwano specjalistów od badań fizycznych obiektów astronomicznych) z ulgą powitali nową teorię, którą mniej więcej w tym samym czasie sformułował młody, bardzo nawet młody fizyk, Charles Critchfield (wym. Kriczfild). Wprowadził on nowy szereg trzech przemian czy reakcji jądrowych, w których z protonów tworzyły się jądra helu, bez pośrednictwa jąder atomu węgla czy innego pierwiastka. W szeregu tym z sześciu protonów powstaje jądro helu, dwa protony, trochę innych cząstek elementarnych i wiele energii. Ponieważ Słońce składa się w połowie z wodoru, zawiera więc dość paliwa termojądrowego – protonów, aby jaśnieć na niebie przez miliardy lat.
Teorie zostały przez uczonych uzupełnione, doszlifowane i od dobrych 40 lat wszyscy zgodnie stwierdzali, że w gwiazdach większych, bardziej gorących, przeważa cykl węglowy, zaś w mniejszych, takich jak nasze Słońce – protonowa reakcja termojądrowa.
O tym, że reakcja termojądrowa istotnie działa, przekonaliśmy się już 1 listopada 1952 roku, kiedy wybuch pierwszej bomby wodorowej – zbudowanej przez fizyków ze znanego ośrodka w Los Alamos, pracujących pod kierownictwem Edwarda Tellera – zniósł z powierzchni Oceanu Spokojnego koralowy atol Eugelab. Na miejscu tej wysepki powstał basen o głębokości 60 metrów i średnicy 1,5 kilometra. Fizycy, chyba nieco przerażeni, że dali politykom i wojskowym broń o niespotykanej dotychczas sile niszczenia, zaczęli natychmiast zapewniać, iż wkrótce, już za lat parę, zastąpią dymiące piece w elektrowniach miniaturami Słońca, czyli reaktorami termojądrowymi. I cóż? Owe „parę lat” jest jeszcze ciągle przed nami, a jak na ironię, co rano przecierając oczy można się przekonać, że pierwowzór tych reaktorów hojnie obdarza mieszkańców Ziemi swym światłem i ciepłem.
Ale też nie można twierdzić, że nie poczyniliśmy postępów. Podjęte przez ziemskich uczonych dzieło musi budzić podziw. Starają się przecież naśladować największe i najpotężniejsze wytwory natury – gwiazdy. Warto więc chyba poświęcić kilka słów wnętrzu gwiazd, by zdać sobie sprawę z trudności, z jakimi trzeba się borykać budując ich miniaturki na Ziemi.
Zanim dotrzemy do gwiazd musimy jednak zastanowić sie nad budową materii. Przemyśliwali nad tym już starożytni Grecy, a jeden z nich, Demokryt, twierdził, że wszystko składa się z maleńkich, niewidocznych gołym okiem atomów (po grecku atomein to niepodzielny). Mijały wieki, a jak ją dziś nazywamy, teoria atomistyczna niezbyt się ludziom podobała i została wręcz zapomniana. Dopiero nieco ponad 200 lat temu uczeni zgodzili się, że wszystko co nas otacza składa się z atomów. Mawiano o trzech stanach skupienia, to znaczy materię dzielono na trzy rodzaje: ciała stałe, o najgęściej upakowanych atomach, ciecze – nieco luźniejsze i gazy, w których atomy swobodnie fruwają.
Fizyka i chemia czyniły dalsze postępy, uczeni wniknęli glębiej w materię. Okazało się, że atomy, wbrew swej nazwie, nie są niepodzielne – składają się z jądra i elektronów. Jądro jest ciężkie, ma dodatni ładunek elektryczny, a wokół niego krążą po orbitach lekkie ujemne cząstki elektryczne zwane elektronami. W pewnych warunkach, zaraz powiem w jakich, atomy można jakby odrzeć z elektronów – pozostają wówczas dodatnie jądra i błąkające się między nimi swobodne elektrony, już nie tworzące wraz z jądrami pojedyńczych, oddzielnych atomów. Stan ten tak dalece różni się od wspomnianych trzech stanów skupienia materii, że fizycy postanowili traktować go oddzielnie i nazwali plazmą – pierwszy użył tej nazwy amerykański fizyk, J. Langmuir około 50 lat temu.
Plazma, czyli czwarty stan materii, powstaje w bardzo wysokiej temperaturze, gdy atomy rozgrzanego gazu zderzają się z energią dostateczną do wytrząśnięcia z nich elektronów. Wnętrze Słońca i innych niezliczonych gwiazd świecących na nieboskłonie zawiera właśnie plazmę. Sądzi się, bo przecież nikogo przy tym nie było, że gwiazda powstaje z obłoku pyłu czy gazu, który pod wpływem sił kurczenia jego temperatura rosła (przypominam hipotezę Helmholtza i Kelvina), aż wreszcie w środku wytworzyła się plazma, ściskana coraz bardziej przez siłę ciążenia. Wreszcie temperatura, która stanowi przecież odbicie prędkości bezładnego ruchu składników gazu, a więc ich energii, stała się tak wielka, że poszczególne jądra zderzając się ze sobą zaczęły się łączyć w wyniku reakcji termojądrowej. To spowodowało dalszy wzrost temperatury i wreszcie zapanował stan równowagi.
Rozpalona, bardzo ściśnięta kula plazmy nie zmniejsza już swej objętości w sposób zauważalny. Powstrzymuje ją przed tym energia wydzielana w reakcjach termojądrowych, która w ogromnej obfitości płynie z gwiazd w postaci promieniowania. Choć jest to już, jak mawiał Antoni Czechow, „temat na zupełnie inne opowiadanie”, warto wspomnieć co dzieje się z gwiazdą, w której „wypali się” paliwo termojądrowe – wodór. Nie grozi nam to zbyt prędko, bowiem Słońce w każdej sekundzie przetwarza 564 miliony ton wodoru na 560 milionów ton helu (4 miliony ton materii zmieniają się w energię), co przy jego ogromnej masie wystarczy jeszcze na około 10 miliardów lat. Gdy zacznie brakować wodoru, gwiazda nasza znów będzie się zmniejszać. Wreszcie, w niewyobrażalnie odległej przyszłości najpierw rozszerzy się tak, że ogarnie Merkurego i Wenus, a później zacznie się kurczyć i gasnąć, ale wtedy przestanie nam już być potrzebna – na pewno ludzkość znajdzie sobie wspaniałe źródła energii, o jakich nam się teraz nawet nie śni. Ruszymy na podbój Wszechświata i być może, osiedlimy się przy innej, młodej jeszcze gwieździe...
Wróćmy jednak do teraźniejszości. Pierwsza bomba termojądrowa, tzw. wodorowa, która eksplodowała w 1952 roku, to w odróżnieniu od Słonca urządzenie działające ułamek sekundy. To prawda, że wczasie wybuchu wyzwoliła się ogromna ilość energii, ale potrzebne nam są raczej takie źródła, które działają w sposób ciągły, byśmy mogli z nich korzystać przez cały czas, a nie przez mgnienie oka. Bomba wodorowa ma jako źródło energii i inne wady, można powiedzieć natury technicznej. Jest to potężny pojemnik z doskonałej stali, w którym znajduje się zwykła bomba atomowa i zbiornik z deuterem, czyli izotopem wodoru. Jądro deuteru zawiera jeden proton i jeden neutron, więc jeśli dwa takie jądra się połączą, dają od razu jądro atomu helu. Reakcja ich jest możliwa w temperaturze około 100 milionów stopni Celsjusza, czyli pięciokrotnie wyższej niż we wnętrzu Słońca. Jako swego rodzaju piec ogrzewający w bardzo krótkim czasie deuter do takiej temperatury, służy właśnie bomba atomowa, w której roszczepiają się jądra uranu lub plutonu. Ale potężny wybuch termojądrowy rozrzuca na dziesiątki i setki kilometrów radioaktywne substancje pozostałe po rozpadzie ciężkich jąder. Jak groźne to jest dla wszystkiego, co żyje na Ziemi, nie trzeba chyba nikomu tłumaczyć. Co prawda, uczeni konstruują coraz bezpieczniejsze bomby i chcą je wykorzystywać głównie do prac ziemnych – dosłownie przenoszenia gór i zmieniania biegu rzek; jednak przecież nie o to nam idzie.
Trzeba po pierwsze znaleźć inny zapalnik reakcji termojądrowej, a po drugie zmniejszyć wydzielaną w jej trakcie energię, tak by każde włączenie tego supernowoczesnego źródła energii nie wywoływało efektów takich jak trzęsienie ziemi. Już w 1955 roku, na pierwszej Konferencji Pokojoego Wykorzystania Energii Atomowej okazało się, że wielkie mocarstwa poważnie myślą nad znalezieniem właściwego rozwiązania. Ujawnienie tych tajnych wówczas badań spowodował znakomity profesor Homi J. Bhabha z Indii. Oświadczył on, że jego zdaniem, za dwadzieścia lat sprawa zostanie rozwiązana. Ów, jak dziś wiemy, nieco przesadny optymizm, niezbyt licujący z naszym poglądem na zachowanie ludzi Dalekiego Wschodu, był podyktowany przez pewien pomysł, zdawałoby się łatwy do zrealizowania.
Głównymi problemami w uzyskaniu energii z reakcji termojądrowej dla celów pokojowych, jest znalezienie zarówno sposobu rozgrzania pewnej ilości deuteru do temperatury stu milionów stopni, jak i utrzymania plazmy w jakiś sposób tak długo, aby przynajmniej znaczna część deuteru przetworzyła się w hel. Sytuacja jakby żywcem przeniesiona z laboratorium genialnego Thomasa A. Edisona. Do uczonego zgłosił się podobno pewnego dnia człowiek, który oświadczył, że chciałby pod jego kierunkiem prowadzić badania nad znalezieniem rozpuszczalnika dobrego na wszystko - takiego, któremu nie oprze się ani szkło, ani kamień, ani nawet metale szlachetne. Edison, który przejawiał czasem złośliwe poczucie humoru, niemalże znokautował maniaka swą odpowiedzią: „Niech pan najpier wynajdzie naczynie na swój rozpuszczalnik!”
Tak, tak, plazma o temperaturze milionów stopni w okamgnieniu rozpuszcza, zamienia w parę wszelkie naczynia - przecież znane nam najbardziej wytrzymałe materiały topią się już w temperaturze około 3 tysięcy stopni Celsjusza. Ale nie zapominajmy, że plazma składa się z cząstek mających ładunek elektryczny, a od dawna wiadomo, że pole magnetyczne wywiera siłę na poruszające się ładunki elektryczne. Można więc utrzymywać plazmę pomiedzy biegunami (oczywiście o odpowiednim kształcie) silnego elektromagnesu. Pole magnetyczne można również wykorzystać do ściskania plazmy, która ma temperaturę nie dość wysoką i wówczas ogrzeje się ona jeszcze bardziej aż do owych magicznych stu milionów stopni.
Pierwsze prace wykonywane z entuzjazmem przez uczonych angielskich już w latach pięćdziesiątych dały złudną nadzieję, że sukces jest bardzo bliski. Rozrzedzony gaz znajdujący się w polu magnetycznym jonizowano, czyli wstępnie pozbawiano elektronów. Następnie przez gaz przepuszczano bardzo silne wyładowanie elektryczne. Pod wspólnym działaniem przepływu prądu i pola magnetycznego plazma zostaje ściśnieta, przybiera postać jakby sznura i silnie się rozgrzewa. Mimo iż początkowo wydawało się, że uzyskanie ściśniecia i rozgrzania koniecznego do zapoczątkowania reakcji termojądrowej jest tylko kwestią ulepszeń technicznych, wkrótce okazało się, że już w czasie mikrosekundy sznur rozlatywał się i o reakcji termojądrowej nie mogło być mowy.
Jednak idea oddziaływania polem magnetycznym na niewielkie ilości plazmy, takie których „wybuch” da się ujarzmić i wykorzystać, na przykład do ogrzania wody poruszającej turbiny elektrowni, przetrwała. Mnożyły się konstrukcje coraz wymyślniejsze, o coraz dziwniejszych nazwach, jak Ogra, Stellarotor czy Scylla. Mimo ogromnych nakładów i zaangażowania znakomitych uczonych, te magnetyczne „butelki” czy pułapki plazmy nie na wiele się przydały. Za każdym razem okazywało się, że fizycy nie mają pojęcia, jak plazma – ów niedawno odkryty stan skupienia materii – będzie się zachowywać w różnych warunkach. Swoją drogą musimy przyznać, że przez ten naiwny optymizm postawiono cały problem na głowie. Zamiast najpierw zbadać i ustalić prawa rządzące fizyką plazmy, zaczęto plazmę wykorzystywać, a więc jakby za karę – bezskutecznie.
Może zresztą pośpiech uczonych powodowany był faktem, że deuter jest bez wątpienia najtańszym i najbardziej rozpowszechnionym na Ziemi (a raczej w jej oceanach) paliwem. Woda zawiera bowiem na każde 6 tysięcy atomów wodoru jeden atom jego ciężkiego izotopu, deuteru. Innymi słowy co trzytysięczna cząsteczka wody jest cząsteczką tak zwanej ciężkiej wody. Dziś już umiemy oddzielać je od siebie stosunkowo łatwo i tanio, a jeśli opanujemy reakcję termojądrową, wówczas z jednego kilograma deuteru uzyskamy prawie 7,5 miliona razy więcej energii elektrycznej niż z jednego kilograma najlepszej benzyny. Nasze zasoby deuteru wystarczają na co najmniej miliard lat! Czy teraz dziwicie się pośpiechowi? Mam nadzieję, że nie. Nawiasem mówiąc, woda oceanów również zawiera 1000 razy więcej uranu niż lądy, tyle że trudno go wydobyć.
Tak więc w ciągu 20 lat powstawały coraz to nowsze i potężniejsze maszyny, które miały służyć zamianie deuteru na energię (no i oczywiście na hel), a wskutek złośliwości natury posłużyły wyłącznie do sporządzenia listy problemów, które trzeba rozwiązać. Oto słowa, jakie wypowiadają nieliczni zresztą przeciwnicy badań w tej dziedzinie. Zaś zwolennicy i uczestnicy owego wielkiego, heroicznego boju z naturą odpowiadają jednum melodyjnym słowem – „Mamy przecież Tokamak”. To nie żarty. Istotnie jedno ze skonstruowanych urządzeń, które zostało tak właśnie nazwane (jest to skrót nazwy Toroidalna Kamera Magnetyczna), stwarza największe nadzieje. Nie wiadomo, czy potrwa to jeszcze pięć czy dziesięć lat – powiadają optymiści – ale pewne jest że Tokamaki triumfalnie wkroczą do energetyki.
Projekt i pierwsze urządzenia tego typu powstały w ZSRR, a ich ojcem był niedawno zmarły profesor Lew Arcymowicz. Uczony ten zyskał między innymi tytuł doktora honoris causa Uniwerstytetu Warszawskiego. Dziś Tokamaki budują nie tylko uczeni w Związku Radzieckim, również w Stanach Zjednoczonych uznano, że jest to najbardziej udany pomysł. Warto więc chyba w kilku słowach opisać urządzenie, które zrobiło światową karierę, tym bardziej, że wiemy już niemal dokładnie, jak będzie wyglądał Tokamak uruchamiający sporą elektrownię.
Nazwa zawiera słowo „toroidalny”. Oznacza to, że komora, w której znajduje się plazma, ma kształt rury zamkniętej w koło, czyli mającej kształt, na przykład dętki koła od samochodu, a raczej od gokarta, by dać w tym porównaniu pojęcie o proporcjach jej rozmiarów. Komora jest szersza po stronie zewnętrznej niż wewnętrznej. W podwójnych ściankach komory będzie się znajdował stopiony metal – lit. Kolejna warstwa to ochronny płaszcz wody pochłaniającej neutrony, a za nią bieguny elektromagnesu, otaczającego komorę. Ciepło wytwarzane w toku reakcji termojądrowej w plazmie utrzymywanej przez pole magnetyczne będzie pochłaniane przez przepływający stale lit, rozgrzewający się do około 1000 stopni Celsjusza. Lit będzie oddawał swoje ciepło, rozgrzewając jakąś ciecz, na przykład wodę w specjalnym wymienniku. W ten sposób można Tokamakiem zastąpić paleniska i kotły w elektrowni. Ponieważ w czasie reakcji termojądrowej powstaje sporo cząstek elementarnych, neutronów, konieczny bedzie płaszcz wodny, chroniący przed nimi uzwojenia elektromagnesu. Ot i wszystko.
Jako „paliwo” w Tokamaku będzie stosowana mieszanina dwóch izotopów – deuteru i trytu (jego jądro zawiera jeden proton i dwa neutrony). Co prawda reakcja tych dwóch izotopów daje neco mniej energii, ale łatwiej ją uzyskać niż reakcję dwóch jąder deuteru. Jedyny mankament to właśnie, jak łatwo policzyć, nadmiar jednego neutronu, który uwalnia się w każdym procesie łączenia jądr deuteru i trytu w jądro helu.
Tryt nie występuje w przyrodzie. Trzeba go sztucznie wytwarzać, lecz kłopot to niewielki. Będzie powstawał w wyniku bombardowania litu neutronami. Wystarczy go tylko oddzielić, co już umiemy robić.
Jak przewidują specjaliści, cały reaktor będzie miał wysokość około 10 metrów i średnicę około 30 metrów. Co 3 minuty odpowiednie urządzenie będzie wstrzykiwało do wnętrza komory mieszaninę deuteru i trytu. Po ściśnięciu i rozgrzaniu plazmy mieszanina ta w znacznej części zmieni się w hel, następnie komorę trzeba będzie oczyścić i rozpocząć proces od nowa. Przypomina to pracę silnika spalinowego, z tym, że w reaktorze nie ma żadnych tłoków i innych części ruchomych. Opis pracy Tokamaka brzmi tak prosto, że nie mogę się powstrzymać od wyliczenia niektórych choćby kłopotów, jakie napotkali jego konstruktorzy. Pomińmy nawet wszystkie problemy związane z ustaleniem parametrów pola magnetycznego, kształtu magnesów i komory. W samym środku komory znajduje się plazma o temperaturze 100 milionów stopni. Wydzielane przez nią neutrony padają na ścianę komory, tę, za którą znajduje się roztopiony lit, ogrzewany do 1000 stopni Celsjusza. Tak gorący lit staje się dość żrącym płynem, a ponadto, działanie neutronów niezwykle osłabia wszystkie materiały. Cóż, aby reaktor był urządzeniem wartym zbudowania, wszystkie jego zasadnicze części, a więc i wewnętrzna ściana, muszą niezawodnie pracować przez jakieś 20-30 lat, a obecnie trudno przewidzieć, jak zniosą takie warunki pracy nawet najbardziej wytrzymałe materiały.
Następna, licząc od środka komory, ściana oddziela gorący lit od wody, jest też poddawana działaniu neutronów. Gdyby powstał w niej mały choćby otwór, nastąpiłaby wybuchowa reakcja litu z wodą, czyli mówiąc zrozumiałym językiem, cały reaktor wyleciałby w powietrze... Zaś próby zastąpienia litu innym materiałem nie przynoszą pożądanych wyników. Dodatkowym niebezpieczeństwem, związanym z magnetycznnymi reaktorami termojądrowymi jest nieuchronne, jak twierdzą eksperci, wydzielanie się trytu do otoczenia. Jest to groźna substancja radioaktywna, bowiem tryt łatwo łączy się z tlenem w superciężką wodę i wnika do organizmów, również ludzi.
W sumie, mimo niezaprzeczalnego postępu, mimo ż mamy już reaktor, którego ulepszenie jest tylko kwestią czasu, nie wszyscy są przekonani, że wielkie smy przeznaczone na badania trwające już ćwierć wieku, rzeczywiście zwrócą nam się z nawiązką. Teraz tylko czas pokaże, czy Tokamak zwycięży, czy może jego największy „wróg” i znacznie młodszy brat. Jest on dlan jako rywal o tyle groźniejszy, że wymaga znacznie mniej pieniedzy na badania, a więc mogą je prowadzić nie tylko supermocarstwa jak Związek Radziecki i Stany Zjednoczone, lecz również kraje mniej zamożne, jak na przykład Polska.
Zaczęlo się wszystko w roku 1964, gdy niezależnie od siebie dwaj uczeni, Mikołaj Basow w Moskwie i pewien Amerykanin Dawson (wym. Dosn) rzucili pomysł, by do nagrzewania plazmy zastosować laser. Wyrażenia „rzucili pomysł” użyłem celowo, bowiem prawdę mówiąc, trudno jeszcze było wówczas przewidzieć, że wkrótce zostaną zbudowane lasery wysyłające odpowiednio silną wiązkę światła. To prawda, że w 1964 roku stosowano już lasery, na przykład do wiercenia światłem cieniutkich otworków w trudnotopliwych materiałach, ale to jeszcze nie było to. Jednak mało chyba było dziedzin techniki, które rozwijałyby się równie szybko i skutecznie jak lasery. Przecież pierwszy i bardzo jeszcze niedoskonały laser rubinowy zbudował Maiman w 1960 roku. I oto już w cztery lata później Basow zaproponował, by rozwiązać przy jego użyciu zagadnienie, które trapiło fizyków i techników całego świata – jeśli nawet nie wszystkich stać było na badania, mało kto czytał obojętnie w fachowych czasopismach doniesienia o kolejnych sukcesach i porażkach fizyki reakcji termojądrowych.
Basow, jak się okazało w cztery lata później, nie rzucał słów na wiatr, tylko rozpoczął eksperymenty. Już w 1968 roku opublikował następną pracę na ten temat, która zawierała konkretne dane. Wraz ze swymi współpracownikami z Instytutu Fizyki im. Lebiediewa w Moskwie opublikował wyniki eksperymentu, w którym na pastylkę z polietylenu (zawierającego zamiast atomów odoru, atomy deuteru) kierowano bardzo silny i krótkotrwały błysk laserowy. Pastylka pod wpływem gigantycznego błysku światła zmieniała się w plazmę, a ustawione dokoła czujniki wykryły, że z obłoczka plazmy popłynął na wszystkie strony strumień neutronów, co prawda jeszcze dość słaby.
W ciągu dwu lat Basow ulepszył swoje urządzenie, tak że w 1970 roku uzyskał pełne potwierdzenie, iż w plazmie wytwarzanej przez błysk laserowy następuje reakcja termojądrowa. Wkrótce podobne wyniki uzyskali w swych laboratoriach uczeni Stanów Zjednoczonych, Francji, Republiki Federalnej Niemiec, Polski i Japonii. Dotychczas w „klubie” państw mających pewne osiągnięcia w zastosowaniu laserów do wywoływania kontrolowanej reakcji termojądrowej znajduje się tylko ta szóstka, przy czym szczególnie wysoko są oceniane badania grupy kierowanej przez profesora Sylwestra Kaliskiego zapoczątkowane w Wojskowej Akademii Technicznej w Warszawie.
Pierwsze rozwiązania techniczne były dość prymitywne – służyły tylko udowodnieniu, że cała sprawa warta jest zachodu. Później trzeba było wybrać laser, który rokował największe nadzieje na uzyskanie błysku o odpowiedniej energii, wynaleźć najlepsze „paliwo termojądrowe” i opracować konstrukcję reaktora. Przed uczonymi stanęło masę problemów czysto technicznych – wymienię tylko najważniejsze z nich. Otóż zbudowanie pojedyńczego lasera o odpowiedniej mocy okazało się praktycznie niemożliwe. Pojawiły się wówczas niezwykle ciekawe i wymyślne sposoby obejścia tej trudności.
Aby reakcja termojądrowa w maleńkiej „pastylce” zamrożonej mieszaniny deuteru i trytu (o masie około 1 miligrama) rzeczywiście przyniosła spodziewane efekty, powstająca lazma musi pozostać dostatecznie długo (w ciągu ułamka sekundy) w stanie ściśniętym i w wysokiej temperaturze. Tylko to gwarantuje, że dostatecznie wiele jąder połączy się ze sobą i uzyskamy z reakcji więcej energii niż w nią włożyliśmy. A o to przecież idzie, by z reaktora czerpać więcej energii, niż się do niego doprowadza – ma on być źródłem, nie pułapką energii.
Pierwsze prace zmierzające do poprawienia sposobu utrzymywania skupionej plazmy w termojądrowym reaktorze laserowym, wnoszące istotny wkład do rozwoju tej dziedziny, wykonał profesor Sylwester Kaliski. Już w latach 1967-1968 opracował praktycznie koncepcję skojarzenia impulsu laserowego z wybuchem zwykłego materiału wybuchowego, na przykład trotylu. W kulistej, stalowej komorze o ścianach dostatecznie grubych, by wybuch nie obrócił całego laboratorium w perzynę, umieszcza się symetrycznie, przy ściankach, ładunku wybuchowe, a środek komory zawierający plazmę otacza jakby metalowym balonikiem. W chwili odpalenia ładunku wybuchowego balonik zostaje zgnieciony i ściska plazmę znajdującą się w jego wnętrzu. Teraz, w odpowiedniej chwili, trzeba włączyć laser, by jego potężny błysk dokonał reszty dzieła...
Powyższy opis jest oczywiście z konieczności bardzo uproszczony. Jednak już na jego podstawie można się zorientować, jak szeroko są zakrojone badania nad wykorzystaniem reakcji termojądrowych. Uczeni, którzy pracują w tej dziedzinie, muszą wykorzystać cały szereg zjawisk fizycznych – na dobrą sprawę wyrażenie „w tej dziedzinie' jest kardynalnym błędem. Badania obejmują bowiem wiele dziedzin. Po pierwsze trzeba znać prawa fizyczne rządzące zachowaniem plazmy. Po drugie, opanować do perfekcji technikę laserową. A ponadto, przecież nie wystarczy włożyć do kuli byle jak i byle gdzie trochę materiału wybuchowego – jest to też ogromna i trudna dziedzina wiedzy. Jeśli jeszcze dorzucimy, że przed każdym nowym eksperymentem trzeba wszystko co się da, opracować teoretycznie i obliczyć na komputerze – można wyciągnąć tylko jeden wniosek. Badania, o których mówimy, wymagają współpracy wielu tęgich głów, jeden człowiek w żaden ludzki sposób nie poradziłby sobie z ową lawiną problemów. Ale znów ktoś musi takim zespołem kierować, wytyczać kierunek dalszych badań, łączyć w swych rękach wszystkie nici, splatając z nich jakby tę jedną nić, która prowadzi do celu.
Niestety, współdziałanie wybuchów z błyskiem laserowym nie niosło upragnionego rozwiązania. Był to tylko jeden z kolejnych drogowskazów na drodze do uzyskania kontrolowanej reakcji termojądrowej. Ale nie trzeba było czekać długo na właściwe odczytanie tej wskazówki, choć znów niewielu ludzi potrafiło tego dokonać. Dokładnie mówiąc było ich trzech. W 1972 roku równocześnie w USA Nuckolls (wym. Nakols) i Brueckner (wym. Brükner) oraz w Polsce profesor Kaliski opublikował artykuły z propozycją, która zasadniczo zmieniła koncepcję fizycznego podejścia do zagadnienia. Nawiasem mówiąc, ta nowa koncepcja jest dziś uważana przez niemal wszystkich specjalistów za jedyną, która wkrótce przyniesie ostateczne rozwiązanie problemu. A oto, w ogromnym uproszczeniu, zarysy nowej metody.
Jeśli na pastylkę mieszaniny deuteru i trytu (a warto wiedzieć, że ma ona wielkość główki od szpilki – około 1 milimetra średnicy) skieruje się błyski laserowe równocześnie z wielu kierunków, na przykład dwudziestu, wówczas cieniuteńka warstewka na powierzchni pastylki po prostu wybuchnie. Wybuch, jak wiadomo, działa we wszystkich kierunkach, więc nie tylko odrzuci od pastylki tę warstewkę, ale również ściśnie jej pozostałą część. Ciśnienie, jakie będzie można uzyskać we wnętrzu pastylki osiągnie nawet milion milionów atmosfer – czegoś takiego uczeni przedtem nawet nie potrafiliby sobie wyobrazić. Ponieważ błysk lasera trwa pewien czas, zjawisko ściskania pastylki wystąpi w jego pierwszej części, a w drugiej zostanie zapoczątkowana reakcja termojądrowa. Zanim ściskanie potworną siłą jądra deuteru i trytu zdążą się rozlecieć na wszystkie strony w wyniku ogromnego wzrostu temperatury, reakcja termojądrowa zostanie już zakończona i z niemalże niewidocznego w głębi wielkiej stalowej kuli punktu runie potok energii – zarówno cieplnej, jak i rozpędzonych do ogromnej prędkości neutronów.
Ściany stalowej kuli będą wyścielone, podobnie jak w Tokamaku, płaszczem stopionego litu, który przechwyci i ciepło, i neutrony, by uzyskaną energię oddać na zewnątrz kuli wodzie w specjalnym wymienniku ciepła, czyli po prostu chłodnicy. Wodę ogrzaną i zamienioną w parę wystarczy skierować do turbiny elektrowni. A jak by nie było, w każdym wybuchu maleńkiej pastylki uzyskuje się energię taką jak przy wybuchu kilograma trotylu, owego najpospolitszego materiału z bomb i granatów. Z jednej strony jest to bardzo wiele – z drugiej nie aż tak wiele, aby obawiać się rozerwania reaktora.
Żeby reaktor dostarczał energii w sposób nieprzerwany, pastylki trzeba wrzucać do jego wnetrza dość często. Uczeni przypuszczają, że będzie można osiągnąć nawet 100 wybuchów na sekundę, a wtedy jeden taki reaktor wystarczy do zasilania sporej elektrowni, która wyprodukuje pięćdziesiąt, a może nawet i sto razy więcej energii elektrycznej, niż jej zużyje laser. Jednym słowem, uzyskamy idealne źródło energii, takie jakiego szukamy już od lat. Na dokładkę, jeśli wnętrze kuli reaktora (tak jakby to był jeż nicowany na lewą stronę) zostanie uzbrojone w pręty z uranu 238 – tego nieprzydatnego i rozpowszechnionego izotopu, wówczas część wytworzonych neutronów będzie można zużyć do przetworzenia ich na pręty z plutonu, idealnego paliwa dla elektrowni jądrowych. Nie trzeba będzie budować reaktorów powielających. Pozostaje tylko pytanie, kiedy uczeni obdarzą nas tym błogosławieństwem.
Coż, tego nikt nie wie. Sami badacze twierdzą, że już bardzo niedługo, że jeszcze tylko trzeba na ich badania dać trochę więcej pieniędzy, że są z pewnością na dobrym tropie. Ale nie zapominajmy, iż tak prymitywne i łatwe do zbudowania (w porównaniu z reaktorami termojądrowymi) reaktory jądrowe istnieją już ponad dwadzieścia lat i wcale nie są zbyt częstym widokiem. Wytwarzają zaledwie nikły procent całej zużywanej na świecie elektryczności i na razie nie zanosi się, by miały wyrugować węgiel czy ropę naftową. Działa tu swoiste prawo, sformułowane przez włoskiego naukowca o dźwięcznym nazwisku Cesare Marchetti. Ten pięćdziesięcioletni Włoch zadał sobie trud szczegółowych badań historii techniki i doszedł do wniosku, że musi upłynąć co najmniej 30 lat, aby nowe źródło przyjęło się i zaspokoiło przynajmniej 25-30 procent zapotrzebowania na energię.
Ale prawo Marchetiego zaczyna działać dopiero wtedy, gdy źródło energii jest faktem konkretnym, to znaczy technicy przejmują je z rąk naukowców i potrafią się nim posługiwać, a nade wszystko mogą je budować seryjnie, w fabrykach. Tymczasem nawet najbardziej zaawansowany program badań prowadzonych przez uczonych radzieckich jeszcze nie doprowadził do uzyskania znaczących ilości energii z laserowego reaktora termojądrowego. Kłopoty są ciągle ogromne. Zresztą nie ma się czemu dziwić. Samo rozdzielenie wiązki laserowej na dwadzieścia kilka wiązek, odpowiednie ich wzmocnienie i precyzyjne nakierowanie symetryczne z różnych kierunków na punkt o średnicy zaledwie 1 milimetra – to zadanie wymagające ogromnej precyzji kosztownych elementów optycznych. Sam laser, który dostarczałby energii świetlnej koniecznej do wywołania reakcji, będzie kosztował dziesiątki milionów dolarów lub miliardy złotych. A reszta urządzeń? Ciągle nie wiadomo, czy uda się znaleźć materiał wytrzymujący bombardowanie ogromną liczbą rozpędzonych neutronów, o czym już wspominałem w związku z Tokamakami.
W tej sytuacji, któż mógłby stawiać jakieś realne daty, określać dokładnie, kiedy będziemy mogli zamknąć na cztery spusty dymiące piece w elektrowniach i zastąpić je miniaturkami Słońca? Rodzi się też obawa, że nasze wysiłki zmierzają w niezbyt właściwym kierunku...
„Zwykły to los nowych prawd – zjawiać się jako herezje, ginąć jako przesądy” - mawiał T. H. Huxley, filozof i biolog, dziad znanego pisarza Aldousa Huxleya. Wszelkie znaki wskazują, że podobnie ma się sprawa teorii opisujących gwiazdy. Pierwszą wskazówkę, że coś nie w porządku, stanowi niepowodzenie wszelkich prób znalezienia w promieniowaniu słonecznym cząsteczek elementarnych zwanych neutrinami. Gdyby istotnie w Słońcu zachodziła reakcja termojądrowa polegająca na łączeniu się protonów, musiałoby powstawać w jej toku tak wiele neutrin, że przy obecnym poziomie techniki ich wykrycie byłoby całkiem możliwe. Tymczasem, prowadzone już od trzech lat badania, nie przynoszą żadnych rezultatów...
Na domiar złego, dwie grupy uczonych, radziecka z Obserwatorium Astrofizycznego na Krymie i angielska z Uniwerstytetu w Birmingham wykryły ostatnio, że Słońce pulsuje. W powolnym dla nas, lecz szybkim w skali kosmosu rytmie 2 godzin 40 minut gigantyczna kula rozpalonych gazów nieco rozszerza się i kurczy. Za wcześnie jest jeszcze na ostateczne wnioski, lecz zdaniem fachowców, zjawiska tego nie tłumaczy żadna z istniejących teorii. W chwilowej konsternacji, jakże typowej dla załamania się teorii, którą wszyscy przyjmowali jako oczywistą, mnożą się fantastyczne hipotezy. A więc próbuje się wytłumaczyć obserwowane zjawisko obecnością we wnętrzu Słonca „czarnej dziury”, która stopniowo pochłania otaczające ją gazy. Inni powiadają, że Słońce zawiera bogate w metale jądro, w którym zachodzą reakcje jądrowe, zaś widziana przez nas otoczka wodoru i helu powstała znacznie później. Najwygodniejsze jest oczywiście stwierdzenie, że być może w Słońcu zachodzą reakcje nieznane jeszcze naszej nauce. Nie należy jednak wykluczać możliwości, że ktoś wkrótce odkryje neutrina biegnące ze słońca, a inny wskaże, iż z jakichś tam powodów gwiazda musi pulsować. Wówczas chwilowe zamieszanie zamieni się znów w błogie poczucie świadomości istoty sprawy. A jeśli nie?
Z mieszanymi uczuciami podziwu i niepokoju śledzić należy nie tyle wydarzenia w dziedzinie badań podstawowych, co próby praktycznego wykorzystania, zastosowania technicznego niedokładnie poznanych zjawisk. Podziw budzi dążenie do opanowania metody i skopiowania z natury jej gigantycznych tworów – gwiazd. Natomiast niepokoi to, że bez wahania poświęcamy na to ogromne sumy, angażując równocześnie zastępy najlepszych uczonych i techników. Któż może teraz zaręczyć, że jest to najlepsza droga do uzyskania taniego i bezpiecznego źródła energii, jeśli tracimy pewność, że natura zastosowałą to rozwiązanie w gwiazdach?
Jakże mało uwagi poświęcamy równocześnie, na przykład badaniu roślin. Do dziś nie całkiem wiadomo, jak działają ich zmyślne mechanizmy, które przy użyciu pochłanianych kwantów światła wytwarzają z dwutlenku węgla i wody przeróżne, nawet bardzo skomplikowane związki chemiczne, jak na przykład tłuszcze, białka czy cenny kauczuk. Dlaczego nie próbujemy skopiować najprostszej choćby rośliny? Zdaje mi się, że największym osiągnięciem, jakim możemy się poszczycić, jest szklana komórka, w której padające światło wytwarza różnicę potencjału elektrycznego po dwu stronach membrany zawierającej chlorofil. Zaiste, skromne to osiągnięcie, w porównaniu z możliwościami naszych niestrudzonych zielonych niewolników, którzy nas żywią i ubierają, a ich przodkowie z postaci węgla stanowią bezcenny surowiec. Nawet najlepszy reaktor termojądrowy nie zastąpi zasianego pola.
Z przedziwnym uporem trzymamy się koncepcji czerpania wzorów z największych obiektów Wszechświata. Czy jest to na pewno przyszłość naszej cywilizacji? Wydaje mi się, że zbieramy właśnie zasłużone cięgi od natury, która nieprędko ujawni swe tajemnice, zarówno w makro- jak i mikroświecie. Nadeszła chyba pora na uważniejsze przyjrzenie się naszemu otoczeniu. A na początek proponuję zielony listek, nie dlatego, że jest on znakiem początkującego kierowcy – kryje on w sobie precyzyjne mechanizmy, które mogą całkowicie zmienić naszą technikę, dostarczyć nam żywności i energii.

“Zacznij tam gdzie jesteś, użyj tego co masz, zrób co możesz”
Nie negocjuje na rozsądnych warunkach z ludźmi, którzy zamierzają mnie pozbawić rozsądku.


Jeśli widzisz uszkodzony post - kliknij "Zgłoś do moderatora". Dziekuje

Offline BladyMamut

  • Administrator
  • WyBudzony
  • *
  • Posts: 2 560
  • Reputacja: +12/-0
Odp: Marek Płużański - Siedem źródeł energii
« Reply #1 on: (Sun) 05.02.2017, 02:23:14 »
Gaja – matka Ziemia

Znany angielski chemik James Lovelock (wym. Lawlok), członek szacownego Towarzystwa Królewskiego w Londynie, jest jednym z niewielu uczonych świata, którzy pracują we własnym, prywatnym laboratorium. W swej posiadłości we wsi Bowerchalke prowadzi on badania na zlecenia różnych wielkich firm, jak na przykład Schell Oil. Pewnego dnia ten niespełna sześćdziesięcioletni uczony obejrzał fotografię ziemi wykonaną przez sztucznego satelitę i doszedł do arcyciekawych wniosków. Zauważył bowiem zadziwiające podobieństwo planety otulonej płaszczem atmosfery do żyjącego organizmu, na przykład do ślimaka w skorupie.
Wówczas, jak powiada sam uczony, narodziła się fascynująca koncepcja ścisłej zależności żyjących organizmów - biosfery i środowiska naturalnego. Dotychczas uważano (i wielu badaczy nadal tak sądzi), że środowisko naturalne decyduje o tym, które organizmy mogą na Ziemi przeżyć, a które wymrą. Hipoteza Lovelocka głosi, że wszystkie żyjące organizmy, lądy, oceany i atmosfera tworzą jakby gigantyczny makroorganizm nazwany przez niego „Gaja” od imienia bogini Ziemi czczonej przez starożytnych Greków. Teraz uczony chętnie pozuje do zdjęć u stóp rzeźby Gai, którą ustawił w ogrodzie swej posiadłości.
Według Lovelocka, żyjące organizmy mogą zmieniać swe środowisko i kontrolują skład atmosfery ziemskiej, tak by z jednej strony uchronić glebę od spalenia promieniami Słońca, a z drugiej – nie dopuścić do jej zlodowacenia. Życie powstało na Ziemi jakieś 3,5-4 miliardów lat temu i zdaniem Lovelocka, pierwsze kroki uczynione przez pierwotne mikroorganizmy to właśnie utworzenie ochronnej atmosfery. Skład chemiczny płaszcza otulającego Ziemię ulega ciągłym niewielkim zmianom i uzupełnieniom, tak aby temperatura powierzchni globu utrzymywała się w granicach umożliwiających życie. Jako jeden z dowodów na poparcie swej tezy Lovelock wykazał wraz z biologiem Lynnem Margulisem z Uniwerstytetu w Bostonie, że różne owady wytwarzają pokaźne ilości gazu metanu, który wędruje do stratosfery. Zapewnia to utrzymanie właściwej proporcji tlenu w dolnych warstwach atmosfery, czyli tam, gdzie przebywają organizmy żywe, poprzez odprowadzanie do góry nadmiaru szybko z nim reagującego wodoru. Gdyby nie to, mielibyśmy zamiast tlenu zwykłą wodę, która niezbyt nadaje się do oddychania, o czym wszyscy chyba dobrze wiedzą.
Innym dowodem jest to, że zgodnie z prawami chemii większość tlenu i azotu z atmosfery (a są to jej główne składniki) powinna się łączyć ze sobą i rozpuszczać w wodzie oceanów jako jon azotanowy. Tymczasem stężenie tlenu od tysięcy czy milionów lat nie ulega zmianie – jednym słowem jest on „sztucznie” wprowadzany do atmosfery przez procesy biologiczne.
Nie można odmówić Lovelockowi umiejętności kojarzenia faktów z różnych, dość odległych dziedzin wiedzy. Przecież biolodzy od lat wiedzieli, że owady wytwarzają metan, a badacze atmosfery, że w górnych jej warstwach – w stratosferze – występuje metan, lecz nie potrafili skojarzyć tych dwóch zjawisk ze sobą. Nawiasem mówiąc, to właśnie Lovelock odkrył, że gaz freon, uwalniany z puszek z chętnie stosowanymi przez nas aerozolami, poważnie zagraża warstwom ozonu chroniącego Ziemię i jej mieszkańców przed groźnym promieniowaniem kosmicznym.
Jeśli uczony ma rację, jeśli istotnie tworzymy wraz ze wszystkim, co nas otacza, jeden wielki organizm Gai, zastanówmy się, czy nie można by skorzystać z zawartych w nim źródeł energii. Czy naprawdę musimy szukać dziwnych dróg wyjścia z sytuacji – rozbijać lub łączyć jądra atomowe, wypalać drogocenne pokłady węgla i ropy naftowej? Pamiętajmy, że wprawdzie Gaja – to bogini Ziemi, ale równocześnie istota okrutna i mściwa, małżonka władcy świata Uranosa, która rozgniewana jego postępkami sprawiła, że utracił swój tron i zginął w mrokach niepamięci.
Spalanie węgla i ropy naftowej powoduje wydzielanie do atmosfery ogromnych ilości gazów i pyłów, co grozi zachwianiem odwiecznej równowagi w tak wielkim stopniu, że żywe organizmy mogą pewnego dnia nie sprostać zadaniu regulacji składu atmosfery i wszystko, na czym opiera się nasze istnienie, runie jak kostki domina czy domek z kart. Z kolei zatruwanie środowiska naturalnego odpadami promieniotwórczymi może także spowodować nieobliczalne wprost skutki. Zastanówmy się więc, czy można korzystać z różnych źródeł energii, które istnieją w organizmie Gai od miliardów lat, tak aby nie rozgniewać jej nie przemyślanymi postępkami. A możliwości rozsądnego postępowania jest sporo, o czym zaraz się przekonacie.
Gaja, którą będziemy więc teraz szczegółowo badać, to kula ziemska, z jej lądami i oceanami, rzekami i morzami, otoczona płaszczem atmosfery. Już najprymitywniejszy obserwator może zauważyć, że wszystko jest tu w ciągłym ruchu, który trwa od niepamietnych czasów, może nawet od miliardów lat. Ba, nawet sama twarda skorupa ziemi wydziela ciepło, a przecież ciepło to jedna z form energii! - można je zamieniać na elektryczność, czego dowodem są także liczne elektrownie.
Od bardzo dawna, odkąd istnieją kopalnie, ludzie wiedzieli, że tylko powierzchnia Ziemi zmienia swą temperaturę wraz z porami roku – czasem zamarza, niekiedy zaś jest tak gorąca, że aż trudno na nią stąpnąć bosą nogą. Ale im głębiej ludzie wkopywali się pod powierzchnię, tym bardziej temperatura rosła – w płytszych kopalniach trudno było zauważyć różnicę, lecz w głębszych ledwie można pracować. Przeciętnie, co jakieś 33 metry temperatura podnosi się mniej niż 1 stopień Celsjusza. Nie jest to dużo, lecz gdyby było więcej, nie moglibyśmy budować kopalni, w których pracują ludzie.
Istnieje jednak wiele wyjątków od tej reguły. W pewnych miejscach na kuli ziemskiej tamperatura podnosi się znacznie szybciej, na przykład w miasteczku Neuffem w Niemczech podnosi się ona o 1 stopień co niecałe 4 metry. To już jest coś, o czym można myśleć w związku z wykorzystaniem Ziemi, na przykład do ogrzewania wody. Ale warto chyba zastanowić się, co grzeje skały we wnętrzu Ziemi i dlaczego grzeje je nierównomiernie.
Zagadkę tę wyjaśniono dopiero w XX wieku, gdy fizycy ujawnili zjawisko rozpadu promieniotwórczego. Większość skał tworzących skorupę Ziemi to granit, który zawiera tylko nieznaczną domieszkę uranu. Ale jak wykazują dokładne obliczenia, już nawet tak niewielka ilość radioaktywnych atomów wystarcza do owego, jak byśmy powiedzieli, normalnego nagrzania skał. Jedyna jednak korzyść z tego ogrzewania, to ta, że nie trzeba zakładać kaloryferów w kopalniach.
Ciekawsze więc dla nas są wspomniane obszary nietypowe, gdzie coś grzeje skały silniej, niż by to czyniły rozpadające się pierwiastki promieniotwórcze. Co to takiego? Oczywiście, jak się to określa uczenie, działalność wulkaniczna. Ziemia, mimo iż jej powierzchnia na to nie wskazuje, ma w swym środku gorące, rozpalone jądro otoczone cienką, spękaną skorupą skalnych płyt, które powolnym ruchem przesuwają się po płynnym wnętrzu globu. Przez pęknięcia, rozdzielające wielkie płyty, na których leżą kontynenty i dna oceanów, gorąca lawa czy magma z wnętrza Ziemi przedostaje się bliżej powierzchni i jej wpływ na temperaturę gruntu zaczyna przewyższać wpływ pierwiastków radioaktywnych. Co ciekawe, wysoka temperatura utrzymuje się bardzo długo po wygaśnięciu wulkanów. Nawet jeśli czynne niegdyś wulkany wygasły już przed 7 milionami lat, i tak przy wierceniu okazuje się, że temperatura wzrasta znacznie szybciej niż tam, gdzie wulkanów nie było nigdy.
Lecz najpiękniej i najwidoczniej przejawia się ciepło wnętrza ziemi w pewnych okolicach, w których tworzą się tak zwane gejzery. Podróżnikom, którzy pierwsi dotarli do tych odległych okolic wydawało się, że stanęli u wrót piekieł. Bo jakże inaczej wytłumaczyć sobie widok cuchnących siarką rozpadlin skalnych, z których co pewien czas tryskają w górę fontanny gorącej wody i pary, sięgające nieraz dziesiątków metrów. Co prawda od dawien dawna znano już gorące źródła i syczące obłoki pary, wydobywające się z ziemi w Toskanii, około 100 kilometrów na południe od Florencji. Już Rzymianie korzystali z tych źródeł dla celów leczniczych. Ale w innych punktach naszego globu można dostrzec widoki zaiste przerażające.
Owe inne punkty to przede wszystkim wąwozy odległej Kamczatki, Nowa Zelandia, Islandia i zachodnie wybrzeże Stanów Zjednoczonych. Tam poprzez spękaną skałę woda, która niemal wszędzie znajduje się pod powierzchnią ziemi, dociera do bardzo silnie rozgrzanych obszarów. I cóż się wówczas dzieje? Każdy kto zna choć trochę fizykę, odpowie od razu – woda zamienia się w parę, gwałtownie zwiększa swą objętość i szuka dla siebie ujścia spod ziemi. Wypycha wówczas gorącą wodę, która jeszcze nie zdążyła zamienić się w parę i ze szczeliny skalnej tryska wspaniały pióropusz wrzątku i pary, nieraz nawet na 300 metrów w górę. Niektóre gejzery wybuchają co kilka godzin, z regularnością zegarka, inne są zdradliwe, nigdy nie wiadomo kiedy z ich wnętrza chluśnie wrzątek, który może dotkliwie poparzyć nieostrożnego a ciekawego człowieka, zaglądającego do jego wnętrza. No, ale nam to nie grozi, niestety, w Polsce gejzery nie istnieją.
Na Kamczatce, gdzie gejzerów są setki, trzeba bardzo uważać – przewodnicy chętnie pokazują na brzegu jednego z gejzerów ślady pazurów niedźwiedzia, zwierzęcia obeznanego z niebezpieczeństwami tej okolicy, który zaskoczony przez wybuch zsunął się do wrzącej czeluści. Gejzer ten znajduje się w odnalezionej niedawno przepięknej dolinie o krajobrazie jakby z innej planety. Jest ona skryta między górami i tak trudno dostępna, że wiele ekspedycji naukowych pracowało zaledwie o kilkanaście kilometrów od jej wylotu, nie przeczuwając nawet, jak ciekawe rzeczy kryje przed nimi zazdrosna przyroda.
Istnieje również na Kamczatce znacznie mniej malownicza dolina, którą przepływa niewielka rzeczka Paużetka, wpływająca do większej rzeki Oziornej. Dolinę i znajdujące się w niej osiedle nazwano Paużetska. Osiedle powstało w końcu lat pięćdziesiątych, zbudowane rękami komsomolskich ochotników, między innym po to, by mogli w nim zamieszkać pracownicy zatrudnieni w unikalnej elektrowni – nie ma w niej kotłów ani palenisk, a para jest doprowadzana do turbin wprost z wnętrza ziemi. Gorąca woda płynąca również z ujarzmionego gejzeru ogrzewa mieszkania, szklarnie, w których rosną różne egzotyczne jak na tę surową okolicę kwiaty i rośliny, a nawet drogę wiodącą z osiedla do elektrowni. Dzięki temu w czasie największych śniegów i najsroższych zim można przejść do pracy dosłownie w rannych pantoflach.
Pierwsza elektrownia geotermiczna (geos – znaczy po grecku ziemia, zaś termiczna to po prostu cieplna) zbudowana na Kamczatce pracuje do dziś, już niemal 10 lat, bez usterek, a podobne do niej powstały i w innych miastach, na przykład w Esso i Kliuczi. Cały wielki półwysep jest jednym laboratorium, w którym pracują naukowcy, badający sposoby lepszego wykorzystania ciepła ziemi. A problemów do rozwiązania jest jeszcze niemało, zresztą ludzie interesują się tymi zjawiskami już ponad 2 tysiące lat...
Już w III wieku przed naszą erą Rzymianie zażywali kąpieli leczniczych w słynnych gorących źródłach Toskanii. Przemysłowcy zainteresowali się tymi źródłami dopiero w początkach XIX wieku, kiedy znaleziono w gorących wodach różne związki chemiczne, na przykład kwas borowy. Pierwszy większy zakład wydobywający kwas borowy założył w 118 roku francuski emigrant Francois Larderel, a niecałe 30 lat później miejscowość, w której znajdował się ten zakład, nazwano od jego nazwiska – Larderello. Już w 1827 roku do ogrzewania kotłów w zakładach zaczęto tam z powodzeniem wykorzystywać parę wydobywającą się z wnętrza ziemi. Jest to data warta zapamiętania, jako historyczny moment pierwszego przemysłowego wykorzystania energii geotermicznej.
Następnym punktem zwrotnym jest rok 1904. Wtedy to ówczesny właściciel zakładów Piero Ginori Conti (wym. Konti) postanowił oświetlić Larderello elektrycznością. Kupił niewielką prądnicę, silnik parowy i doprowadził do niego parę spod ziemi. A już w rok później po tej pierwszej udanej próbie stanęła w Larderello pierwsza w świecie spora elektrownia geotermiczna. Zresztą do dziś gorące źródła Larderello nie straciły znaczenia. W okolicy znajduje się sześć dużych elektrowni, które dostarczają elektryczność na potrzeby kilku miast i to zupełnie za darmo.
Jednakże nie wszędzie i nie wszystkim szło tak łatwo. W Stanach Zjednoczonych odkryto w górach na północ od San Francisco Dolinę Gejzerów już w roku 1847 – dotarł tam podróżnik William Bell Elliott. W 75 lat później znaleźli się ludzie, którzy chcieli się dorobić na taniej elektryczności i zbudowali pierwszą elektrownię geotermiczną, jednak szybko zbankrutowali – kropelki wody porywanej przez parę niosły tak wiele różnych minerałów, że użyte przez nich rury i części turbin rdzewiały niemal w okamgnieniu. Odstraszyło to ich następców na ponad 30 lat.
Dziś, dzięki postępom techniki, nade wszystko kłopotom ze źródłami energii, już osiem państw wykorzystuje na znaczną skalę energię geotermiczną. Stolica niewielkiej Islandii, Reykjawik, jest ogrzewana wodą spod ziemi. Elektrownie istnieją w ZSRR, Japonii, Nowej Zelandii, Chinach, USA, Italii i Meksyku. Wszystkie kraje, w których były gejzery, nie oparły się pokusie wykorzystania ich jako źródeł energii.
A co mają czynić kraje, w których gejzery nie występują? Jak uczy doświadczenie geologów, często miejsca nawet pozornie całkiem wystygłe kryją pod ziemią skały rozgrzane w niepamiętnej przeszłości. W wielu miejscach istnieją też podziemne zbiorniki gorącej wody mające wielkość małych mórz. Trzeba ich tylko poszukać, czyli innymi słowy przeprowadzić dokładne badania geologiczne pozornie nieciekawych pokładów „zwykłych” skał, mierząc ich temperaturę. A gdy się już taką gorącą skałę znajdzie?
Trzeba wtedy wywiercić dwa otwory. Jednym z nich wprowadza się wodę pod ciśnieniem, a z drugiego jakby nigdy nic wylatuje z sykiem para. Brzmi to prosto, ale nie zapominajmy o rozlicznych trudnościach. Największą z nich jest odpowiednie uszczelnienie obu wywierconych przewodów, przez które przepływa woda i para pod ciśnieniem. Najciekawszym chyba rozwiązaniem jest opracowany niedawno świder, który nie wierci skał, tylko je stapia. Po jego przejściu powstaje otwór o gładkich ścianach, jakby wyłożonych szkliwem – niezwykle szczelną warstwą stopionego kamienia.
Ziemia kryje w sobie jeszcze wiele tajemnic i wiele krajów może liczyć na odkrycie źródeł taniej energii. Pewne jest, że za kilka czy kilkanaście lat na wszystkich kontynentach ruszą potężne siłownie geotermiczne. Nie będą one niestety w stanie zaspokoić wszystkich potrzeb energetycznych ludzkości, lecz trudno sobie wyobrazić takie pojedyńcze źródło, które zawładnęłoby energetyką całego świata.
Ale przewędrowawszy Kamczatkę, Islandię i inne dalekie i ciekawe krainy, nie zapominajmy o Polsce. Czy u nas energia geotermczna może mieć jakieś znaczenie? Znalezione w kraju zasoby gorących wód mają temperaturę zaledwie kilkudziesięciu stopni Celsjusza i nadają się co najwyżej na kąpiele lecznicze. Można by powiedzieć, że i to jest już coś. Przynajmniej zaoszczędzimy paliwa na podgrzewanie wody w uzdrowiskach w Sudetach – w Lądku i Cieplicach. Od dawna też słynny jest Ciechocinek ze swymi termami. Doniesienia geologów badających inne okoloce nie brzmią optymistycznie. Ale za to możemy spać spokojnie. Przynajmniej nie grożą nam trzęsienia ziemi ani wybuchy wulkanów. Przecież wszędzie tam, gdzie istnieją gejzery, ludzie żyją w ciągłym strachu, że spotka ich los na przykład mieszkańców Gwatemali czy Włoch, których tragedia z 1976 roku rozniosła się szerokim echem na cały świat. Nie ma tego złego, co by na dobre nie wyszło...
Warto jednak zwrócić uwagę na śmiały i nie tak nieprawdopodobny, jak by się na pierwszy rzut oka zdawało, pomysł trzech uczonych amerykańskich – G. Kennedy'ego, D. Stewarta (wym. Stiuart) i J. Burnhama (wym. Bernam). Zaproponowali oni, ni mniej ni więcej, by utworzyć sztucznie rozpalone ognisko skalne na głębokości 2-3 kilometrów pod powierzchnią ziemi za pomocą eksplozji wielu niezbyt silnych bomb atomowych w głębokim szybie, specjalnie wywierconym w tym celu. Nazwano ten pomysł „Projekt Lemiesz”.
Atomowy lemiesz miałby nie tylko rozgrzać skały do wysokiej temperatury, ale również połupać je, podzielić siecią pęknięć, rozciągających się daleko od miejsca wybuchu. Ułatwiłoby to przepływ wody wtłaczanej pod ziemię i wydobywanie się pary. Obliczono, że eksplozja około 50 średniej wielkości bomb atomowych, odpowiednio rozmieszczonych pod ziemią, utworzyłaby źródło energii geotermicznej zdolne napedzać ogromny zespół elektrowni przez co najmniej 30 lat. Perspektywa to zaiste oszałamiająca. Czemu więc nie została jeszcze zrealizowana?
Myślę, że po prostu ze strachu, czy inaczej mówiąc, z rozsądku. Nikt nie może bowiem przewidzieć, jakie skutki przyniesie tak brutalne traktowanie skorupy naszej planety. Jest to przecież niezwykle wątła powłoka, o czym jakże często przekonują nas straszliwe trzęsienia ziemi. Nie wiadomo, czy wybuchy atomowe nie spowodują uaktywnienia wulkanów od dawna wygasłych albo czy nie rozerwą tych części płyt kontynentalnych, na których leżą nasze lądy czy dno morskie, co wywołałoby straszne w skutkach fale, zalewające brzegi. Zresztą, nie można wykluczyć, że ostatnie trzęsienie ziemi w Gwatemali zostało wywołane przez podziemną eksplozję jądrową w USA. Dokładnie na 3,5 minuty przed trzęsieniem eksplodowano bombę na poligonie w rejonie Yucca Flats w stanie Nevada. A 3,5 minuty to czas, jakiego potrzebowała fala sejsmiczna, by przebyć drogę miedzy Yucca Flats i Gwatemalią.
Z kolei, nawet pozornie niewinne wykorzystywanie istniejących gorących skał również może mieć skutki opłakane. Przyspieszenie ich stygnięcia spowoduje szybsze kurczenie się powłoki ziemi. Nikt jeszcze nie jest w stanie przewidzieć następstw, które mogłyby się jednak okazać korzystne. Być może, czerpanie energii z wnętrza ziemi będzie jakby klapą bezpieczeństwa, hamując niszczycielską działalność wulkanów.
Trzeba będzie jeszcze wielu lat pracy inżynierów i naukowców, by elektrownie geotermiczne znalazły miejsce w naszym krajobrazie. Ale perspektywa jest kusząca. Po pierwsze nie wymagają one dostarczania paliwa, nie trzeba dowozić ani węgla, ani ropy, ani też substancji promieniotwórczych. Nie zanieczyszczają one środowiska naturalnego. A gdybyśmy opanowali technikę wiercenia otworów do głębokości 30-50 kilometrów, wówczas można by je budować praktycznie wszędzie. Na tej głębokości skały są tak gorące, że nie potrzeba się uciekać ani do wymyślnych sztuczek, ani też groźnych jak by nie było wybuchów atomowych.
Największą zaletą energii geotermicznej jest jednak chyba jej taniość. Raz zbudowana elektrownia będzie mogła tę energię wykorzystywać dopóty, dopóki nie rozpadnie się ze starości, a i wtedy wystarczy po prostu wymienić jej zużyte części na nowe.
Gaja oferuje nam więcej takich źródeł energii, które nie wymagają większych kosztów dla uzyskania korzyści. Jednym z nich są liczne rzeki, które przecinają w różnych kierunkach ziemskie kontynenty. Początki wykorzystania energii płynączej wody do zastąpienia pracy wykonywanej przez ludzi (poza transportem drogą wodną), to bez wątpienia wynalezienie koła wodnego i połączenie do z żarnami. Pierwsze młyny wodne zbudowali niemal dwa tysiące lat temu Rzymianie, chociaż nie obyło się bez przeszkód. Podobno, gdy wynalazca proponujący zastąpienie niewolników kołem z łopatkami obracanym przez strumień wody zgłosił się ze swym projektem do rzymskiego cesarza Wespazjana, ten, obawiając się pogorszenia mąki, nie tylko odrzucił ten pomysł, ale dla świętego spokoju również pozbawił życia biednego męczennika techniki. Cóż, historia obfituje w podobne przypadki niedocenienia wynalazków.
Mimo sprzeciwów cesarza wynalazek koła wodnego przyjął się i przetrwał wiele stuleci. Dopiero maszyna parowa wyparła je z zakładów przemysłowych. Ale nie na długo. Już pod koniec XIX wieku, niedługo po uroczystym otwarciu pierwszej na świecie elektrowni Edisona, przy słynnym gigantycznym wodospadzie Niagara zbudowano pierwszą maleńką jeszcze elektrownię wodną, czyli hydroelektrownię. Z biegiem lat zwykłe koła „młyńskie” zastąpiono wymyślnymi turbinami, a elektrownie wodne jako najtańsze źródła elektryczności pojawiły się wszędzie tam, gdzie woda płynęła z dużą szybkością, czyli na wartkich, górskich rzekach. Na przykład w krajach Skandynawii większość elektryczności powstaje właśnie w elektrowniach wodnych.
Ale elektrownie wodne można budować również w innych miejscach. Najlepszym tego przykładem jest Związek Radziecki. Sztuczne, wzniesione rękami ludzkimi zapory spiętrzają wody wielkich rzek: Wołgi, Angary, Jeniseju. Powstajś dzięki temu prawdziwe śródlądowe morza, a u ich wylotu ustawia się turbiny, które napędzają generatory ogromnych elektrowni. Do niedawna elektrownia Bracka na Angarze była największą na świecie, teraz palmę pierwszeństwa przejmuje elektrownia Krasnojarska na Jeniseju. Hydroelektrownie zbudowane na Angarze produkują niemal tyle energii elektrycznej, co wszystkie elektrownie polskie. Z tą tylko różnicą, że produkują ją za darmo. Na przykład, już w rok po uruchomieniu elektrownia Bracka zwróciła nakłady poniesione na jej budowę. A system elektrowni na Jeniseju pobije nawet Angarę o głowę...
Zwłaszcza w krajach rozwijających się, w Afryce, Azji i Ameryce Południowej toczą swe wody ogromne rzeki, które przepływają przez te państwa bezużytecznie. Zbudowanie hydroelektrowni zapewniłoby im tanią elektryczność w ilości znacznie przewyższającej ich dziesiejsze potrzeby. Ale wymaga to pieniędzy, których owe państwa nie mają. W Afryce eksploatuje się obecnie zaledwie około tysięcznej części energii rzek, a w Ameryce Południowej może dziesięć razy więcej, co i tak pozostawia jeszcze ogromne rezerwy.
Z kolei w Europie, również w Polsce, perspektywy są znikome. Na dobrą sprawę wszędzie tam, gdzie elektrownie można było zbudować, już je zbudowano. Ważną przeszkodą jest obawa przed zniszczeniem piękna krajobrazu w górach. Zostało już tak niewiele miejsc, w których można odpocząć od widoku betonowych budowli, że każdy projekt budzi kategoryczne sprzeciwy ludzi, którzy chcieliby od czasu do czasu nie oglądać widomych przejawów postępu technicznego. I to bardzo dobrze, że nie zostaniemy pozbawienie widoku natury w jej nieskażonej postaci.
Jednakże na świecie powstanie jeszcze z pewnością wiele hydroelektrowni. Na przykład, może doczeka się realizacji projekt przekucia w Tybecie pod przełęczą Doszong La w Himalajach tunelu, którym popłynęłaby część wód rzeki Brahmaputra. Tunel ten o długości niecałych 20 kilometrów spinałby pętlę rzeki przełamującej się przez Himalaje – woda spadałaby w nim o około 2 kilometry. Wystarczyłoby to do zbudowania jednej z największych elektrowni, nie mających sobie równych w świecie. Na przeszkodzie znów stoi brak kilkunastu miliardów dolarów – wydaje się, że nawet połączone siły sąsiadów: Chin, Indii i Bangladeszu nie zdołałyby podołać temu zadaniu.
Tak więc państwa rozwijające się, o ile tylko dostaną pomoc finansową od państw bogatych, mogą, przynajmniej przez jakiś czas, nie kłopotać się o źródła elektryczności. Opanowanie rzek zapewni im energię na wiele lat.
Lecz rzeki to tylko maleńka cząsteczka wód należących do Gai. Płyną bowiem po kontynentach, które zajmują mniej niż trzecią część powierzchni naszego globu. Reszta to oceany i morza, ogromna masa wody, która bezustannie faluje, przesuwa się w prądach morskich, wreszcie pod wpływem przyciągania Księżyca tworzą się potężne przypływy i odpływy. Czy nie można by wykorzystać zmagazynowanej w nich energii dla naszych potrzeb/ Ależ tak! Tyle tylko, że do niedawna wszystkie takie projekty uważano za fantazje. Przecież całkowicie wystarczało nam spalanie paliw kopalnych, ponadto wierzyliśmy, że już za parę lat opanujemy reakcję termojądrową. Po cóż mielibyśmy zawracać sobie głowę rozwiązywaniem różnych problemów technicznych? Teraz jednak znajduje się coraz więcej zwolenników czerpania energii z tego niezmierzonego źródła, jakim są oceany.
O brzegi oceanów i mórz bezustannie biją fale. Toczą się skądś z dalekich stron, by z szumem lub nawet ogłuszającym rykiem w czasie sztormu, załamać się na skałach lub piaskach wybrzeża. Nie jest ważne dlaczego i gdzie fale powstają. Ciekawe jest natomiast, w jaki sposób można by spożytkować ich energię.
Pierwszym człowiekiem, który mierzył siłę fal uderzających o brzeg, był Anglik Thomas Stevenson, ojciec znanego pisarza Roberta Louisa Stevensona, autora licznych książek ulubionych przez młodych czytelników. Nic dziwnego, że właśnie Anglika zainteresowało to zagadnienie, bowiem rzadko gdzie zdarzają się tak potężne fale, jak na atlantyckim wybrzeżu północnej Anglii. Zadziwiają doniesienia, na przykład o fali, która potrafiła wyrwać z dna morskiego kamienno-betonowy falochron ważący ponad 2,5 tony i przerzucić go o wiele metrów dalej. Latarnicy często opowiadają o ogromnych kamieniach, które wyrwane przez fale z dna morskiego wybijają szyby w oknach latarni, znajdujących się przecież o kilkadziesiąt metrów nad poziomem wody. A jednak to prawda. Lecz dla naszych celów potrzebne są raczej fale spokojniejsze, które toczą się na głębszej wodzie, w większej odległości od brzegu.
Pomysł czerpania energii z fal morskich nie jest nowy. Wkrótce po zakończeniu I wojny światowej dziesiątki wynalazców opatentowało ponad 100 „niezawodnych” urządzeń, z których, o ile wiem, do dziś tylko jeden doczekał się realizacji, a i to na bardzo skromną skalę. Mechanizm ten zawierał tłk czy pływak, który unosił się do góry, gdy nadbiegała fala i opadał na dół po jej przejściu. Urządzenie ma bardzo małą wydajność, więc zastosowanio je wyłącznie do zasilania lamp w pływających bojach, wytyczających szlaki żeglugowe.
Niedawno, w kwietniu 1975 roku, w znanym angielskim czasopiśmie naukowym „Nature” ukazał się artykuł profesora Stephena Saltera z Uniwerstytetu w Edynburgu. Okazuje się, że przy odrobinie pomysłowości nawet tak pozornie trudne zadanie można rozwiązać w sposób dziecinnie prosty. Stephen Salter zaproponował, aby wykorzystać nie ruch falującej wody do góry i na dół, lecz ruch wirowy, czyli to, że fala popycha i obraca przeszkodę, którą napotyka na swojej drodze. Co więcej, artykuł zawierał już wyniki doświadczeń i prób, które wykazały nie tylko całkowitą przydatność urządzenia wynalezionego przez Saltera, lecz również jego ogromną wydajność, nawet dla fal o różnej wysokości i odległości pomiędzy kolejnymi szczytami.
Pora chyba powiedzieć, jak wygląda owo cudowne urządzenie. Tak prosto, że aż się wierzyć nie chce, że nikt przedtem nie wpadł na ten pomysł. Elementem, który będzie w urządzeniu Saltera odbierał energię falom, jest walec o długości kilkudziesięciu metrów i średnicy około 15 metrów, mający kształt w przekroju, jak można go określić w przybliżeniu, jajowaty. Oś obrotu wału znajduje się w środku jego grubszej części, a węższa część stanowi jakby skrzydełko, które będzie obracane przez fale o pewien kąt, zaś w przerwie między falami będzie powracało do położenia wyjściowego. Obudowę stanowi ogromne pudło żelbetowe o długości niemal kilometra i głębokości około 20 metrów, prawie całkowicie zanurzone w wodzie, w którym zostanie umieszczonych na wspólnej osi 20-40 wałów. Cała ta konstrukcja o wielkości supertankowca będzie wystawać ponad powierzchnię wody niewiele więcej niż metr.
Oczywiście pudło z wałami będzie zakotwiczone, tak aby fale go nie porwały i nie rzuciły na brzeg. Wybrano już nawet miejsce, w którym zostanie ustawiona pierwsza elektrownia Saltera. Znajduje się ono około 16 kilometrów na zachód od Hebrydów. Wiadomo również, że zespół 10 takich elektrowni może zaopatrzyć w energię elektryczną spore miasto, przy czym nie tylko będzie on pracował przez cały rok, ale w zimie, kiedy potrzeba najwięcej elektryczności, zaś fale są większe, elektrownia będzie dostarczać nawet więcej prądu. Wynalazca twierdzi, że rozwiązał już większość problemów technicznych, między innymi sposób przetwarzania wahadłowego ruchu wałów na ruch obrotowy napędzający generator elektryczności.
Kto wie, czy za 10-15 lat wybrzeża oceanów nie zostaną opasane licznymi elektrowniami Saltera. Wcale bym się nie zdziwił, bowiem mają one same zalety. Po pierwsze, podobnie jak hydroelektrownie dostarczają energii za darmo. Nie powodują zanieczyszczenia środowiska naturalnego, a nadto poza nimi, przy brzegu, powstanie pas spokojnej wody, w którym będą mogli działać rybacy i żeglować sportsmeni. Nadto skończy się zmora niszczącego działania fal na brzegi. Urządzenie Saltera odbierać bedzie falom niemal całą ich energię. Wypada jeszcze dodać, że zespół uczonych i techników, pracujący pod kierunkiem Saltera otrzymał ostatnio pokaźne dotacje na zbudowanie pierwszej elektrowni, więc chyba nie będziemy długo czekać na wyniki.
Fale przewalające się po powierzchni oceanów to najlepiej widoczny przejaw ruchu wody – zresztą ruchu pozornego, polegającego na kołysaniu się do góry i na dół. Niezależnie od falowania, w głębi oceanów płyną istne rzeki, znacznie większe od tych, które przecinają kontynenty. Lecz Europejczycy dowiedzieli się o tym dopiero w początkach XVI wielku, kiedy przez Ocean Atlantycki zaczęły pływać żaglowce. Wyprawy Thora Heyerdala na tratwach przez Ocean Spokojny, a później Atlantycki, stanowią pewien dowód na to, że starożytni znali prądy i umieli z nich korzystać w wędrówkach między kontynentami. Jednak wiedza ta poszła później w zapomnienie.
Hiszpańscy kapitanowie, którzy w początkach XVI wieku pływali często po Atlantyku, szybko nauczyli się korzystać z prądów i wiedzieli zarówno którędy one płyną, jak też w jakim kierunku. Ale początki były trudne. Na przykład trzy statki Ponce de Leona, płynące w 1513 roku z przylądka Canaveral na Tortugę, „chociaż miały dość wiatru, nie były zdolne iść naprzód, lecz posuwały się wstecz”. Jeszcze w 1769 roku, kiedy Ameryka Północna była kolonią Anglii, a stanowisko wicedyrektora poczt dla koloni piastował znany wynalazca piorunochronu Beniamin Franklin, miał on nie lada orzech do zgryzienia. Otóż dyrekcja ceł w Bostonie uskarżała się, że statki pocztowe z Anglii płynęły na zachód o dwa tygodnie dłużej, niż dowodzone przez kapitanów amerykańskich. Strapiony Franklin żalił się wówczas pewnemu kapitanowi z Nantucket, Tymoteuszowi Folgerowi, który bez trudu wyjaśnił mu tę zagadkę. Otóż kapitanowie angielskich statków pocztowych nie wiedzieli o istnieniu silnego Prądu Zatokowego, podczas gdy wielorybnicy z Nantucket, spośród których rekrutowała się większość kapitanów statków pocztowych, znali te wody „na wylot”.
„Poszukując wielorybów, które podpływają do Prądu, lecz nigdy nie są w nim spotykane, żeglowaliśmy wzdłuż niego często go przecinając; wówczas natykaliśmy się niekiedy na statki pocztowe tkwiące w Prądzie Zatokowym i usiłujące go pokonać. Wyjaśniliśmy im, że żeglują pod prąd płynący przeciwko nim z szybkością trzech mil na godzinę, byli oni jednak za mądrzy na to, aby przyjmować rady od prostych amerykańskich rybaków” - opowiadał Folger. Na prośbę Franklina Folger wykreślił wówczas na mapie trasę Prądu Zatokowego – ta gigantyczna „rzeka”, kilkaset razy większa od Missisipi, ma szerokość ponad 170 kilometrów, głębokość niemal cztery kilometry i płynie z szybkością około 5,5 kilometra na godzinę niosąc masy ciepłej wody od wybrzeży Ameryki Środkowej, w poprzek Atlantyku, aż za Europę, na Ocean Lodowaty.
Dziś wiemy, że wszystkie morza i oceany przecinają niezliczone prądy. Zdarza się nawet, że w warstwach wody położonych na różnych głębokościach prądy płyną w przeciwnych kierunkach. Jeśli więc wykorzystujemy rzeki płynące po lądach, czemu nie mielibyśmy skorzystać z energii gigantycznych „rzek” płynących w morzach i oceanach. Znów, podobnie jak w przypadku innych „egzotycznych” źródeł energii, również i to zwróciło na siebie uwagę dopiero wtedy, gdy ludzie zaczęli w ostatnich latach gorączkowo poszukiwać dróg wyjścia z kryzysu energetycznego.
Najciekawszy i chyba najbardziej dojrzały pomysł zaprezentował niedawno Bernard Morin, ( wym. Morę) francuski inżynier, specjalista od samolotów. Chce on wykorzystać szybkie prąd opływające brzegi wysp i kontynentów. Opatentował wynalazek urządzenia, jakby młyna, które jego zdaniem stanowi rozwiązanie wszelkich kłopotów ludzkości z zaopatrywaniem w energię. Nawiasem mówiąc, każdy z wynalazców przekonuje nas o tym samym...
Zasadniczą część urządzenia wynalezionego przez Morina stanowi wielka płaska tarcza, która może obracać się dokoła osi, przechodzącej przez jej środek. Na górnej i dolnej powierzchni ustawionej poziomo tarczy znajdują się umieszczone promieniście zawiasy, utrzymujące klapy, które mogą się odchylać – albo leżą na tarczy, albo stoją prostopadle do niej. Klapy na górnej powierzchni są wykonane z materiału cięższego niż woda, na dolnej z lżejszego i dzięki temu, gdy nie ma prądu, leżą po prostu na tarczy. Nie ulega chyba żadnej wątpliwości, że po wstawieniu takiej tarczy do strumienia płynącej wody zacznie się ona obracać, przy czym co ciekawe, kierunek jej obrotu nie zależy wcale od kierunku prądu wody, a tylko od ustawienia zawiasów. Będzie zgodny z kierunkiem, w którym otwierają się klapy z położenia równoległego do tarczy do położenia prostopadłego. Jeżeli ktoś nie wierzy, nic łatwiejszego niż zrobić model tarczy...
Na konferencji prasowej, zwołanej w Paryżu 11 września 1975 roku Bernard Morin zapewnił, że jego wynalazkiem zainteresowały się trzy wielkie przedsiębiorstwa – japońskie, holenderskie i międzynarodowe, lecz równocześnie nie skrywał oburzenia, że projekt ten nie wzbudził zachwytu francuskiej komisji do spraw energii. Cóż, od dawna wiadomo, że najtrudniej być prorokiem wśród swoich. Również opowiedział zebranym, że opracowuje dokładne plany konstrukcyjne elektrowni, która niedługo zostanie umieszczona na dnie Morza Śródziemnego, przy południowym wybrzeżu Sycylii.
Będzie to prawdziwy gigant – tarcza ma mieć średnicę 400 metrów, a klapy wysokość 15 metrów. W prądzie morskim o szybkości 10 mil na godzinę (czyli węzłów) elektrownia ta ma wytwarzać tyle samo energii elektrycznej, co spora elektrownia jądrowa. Koszt energii elektrycznej będzie około 500 razy niższy niż w elektrowni opalanej węglem i 30 razy niższy niż w najlepszej elektrowni jądrowej. Nie wypada nam nic innego, jak uchylić kapelusza przed pomysłowością owego inżyniera, a nade wszystko poczekać, czy jego przepowiednie się sprawdzą. Jeśli ma on rację, wiele krajów wszystkich kontynentów mogłyby skorzystać z jego propozycji. Doprawdy trudno znaleźć wybrzeże, które nie byłoby omywane przez dość szybko płynący prąd morski.
Mówiąc o oceanach nie sposób zapomnieć o przypływach i odpływach. Co prawda na Bałtyku są one niezauważalne, wąskie cieśniny duńskie skutecznie izolują nasze morze od ruchów wody w oceanach, ale to piękne zjawisko warte jest kilku słów. Starożytni widząc, jak dwa razy na dobę poziom wody w oceanach i większych morzach podnosi się nieraz o kilka metrów, po czym opada, mawiali, że to wielki potwór żyjący w głębinach morskich powoli oddycha. Od czasów Newtona wiemy już, że Księżyc, naturalny satelita Ziemi, wywiera poważny wpływ nie tylko na lunatyków, lecz także na całą przyrodę. Jednym z jakże widocznych przejawów jego obecności, są właśnie przypływy o odpływy, czyli jak mawiają uczeni, pływy morskie. Księżyc okrąża Ziemię i w ślad za nim zdąża potężna fala przypływu – siła grawitacji oddziaływając na wodę, jakby ją wybrzusza. Istnieją nawet miejsca na kuli ziemskiej, w których wskutek szczególnego ukształtowania linii brzegu i profilu dna różnica poziomów w czasie przypływu i odpływu przekracza 10 metrów. Do miejsc tych należą między innymi Puerto Gallegos w Argentynie, Cook Inlet na Alasce, Zatoka Frobishera w Cieśninie Davisa, rzeka Koksoak, uchodząca do Cieśniny Hudsona, Zatoka St. Malo we Francji czy wreszcie Zatoka Penżyńska na Morzu Ochockim w ZSRR.
Widok wody przypływającj i odpływającej z niezwykłą gwałtownością, a więc i wielką energią od lat zaprzątał umysły ludzi mieszkających na wybrzeżach. Nic więc dziwniego, że już 300 lat temu we Francji i Anglii znaleźli się zmyślni młynarze, którzy budowali młyny wykorzystujące pływy morskie. Zwykłe koła młyńskie, takie jak na spiętrzonych strumykach, poruszane były na zmianę przez przypływy i odpływy – tyle tylko, że kręciły się za każdym razem w inną stronę. Dziś technicy znów zwrócili uwagę na to źródło energii.
I znów byli to przedsiębiorczy Francuzi, którzy wykorzystali wysokie przypływy w Zatoce Saint Malo. Do zatoki tej wpada rzeka Rance o długim lejkowatym ujściu. Francuski uczony Robert Gibrat (wym. Żibra) przez 15 lat pracował teoretycznie, obliczając wszystko co trzeba. Następnie 10 lat trwała budowa i wreszcie w roku 1966 oddano do użytku pierwszą na świecie elektrownię, która działa podobnie jak młyny sprzed 300 lat, tyle że jest to budowla znacznie większa i bardziej skomplikowana. Ujście rzeki przegrodzono zaporą wodną i kanałami, w których znajdują się turbiny. Kręcą się one raz w jedną, raz w drugą stronę starając się wydobyć jak najwięcej energii z wody pchanej na zaporę przez odległy Księżyc. Nie jest to jednak zadanie łatwe. Ponieważ prędkość przepływającej wody stale się zmienia, specjalnie zaprogramowany komputer reguluje ustawienie łopat turbin. Mimo wszystko jednak opłaca się pokonywać te kłopoty.
Najlepszym dowodem na to, że warto ujarzmić energię przypływów, jest fakt przystąpienia już w wielu innych państwach do budowy podobnych elektrowni. Jako pierwsza z nich niedawno została uruchomiona elektrownia radziecka w maleńkiej zatoczce Kisłaja Guba w pobliżu Murmańska. Podobne powstaną w Argentynie, USA i w Anglii. Jednak astronomowie ostrzegają przed nadmierną eksploatacją pływów morskich. Tarcie przypływów o dno morskie zwalnia obrót Ziemi. Wszelki dodatkowe opory spowodują silniejsze zahamowanie wirowania globu. Sama zapora na rzece Rance wydłuży dobę o dziesiątą część sekundy w ciągu 2000 lat. Nie jest to wiele, ale ostrożność w tym przypadku powinna zapanować nad głodem energii.
Obraz Gai byłby niepełny, gdybyśmy nie wspomnieli o innym oceanie – atmosferze, która otula niby płaszczem całą kulę ziemską. Jak wiadomo powszechnie, płaszcz ten jest w ciągłym ruchu, stale wieją wiatry, które mimo pozornej nieważkości powietrza potrafią nieraz przewracać drzewa i czynić różne szkody. Zarazem jednak już od czasów niemal prehistorycznych ludzie znajdowali sposoby na ciągnięcie z nich znacznych korzyści. Nie wiemy kto i gdzie wpadł pierwszy na pomysł, by na swej prymitywnej łódce ustawić pionowy kij i rozpiąć na nim żagiel. Zyskano wówczas najtańszy, choć nie zawsze niezawodny środek transportu. Żaglowce zaczęły przemierzać morza, a równocześnie na lądzie, było to chyba w starożytnej Persji, zbudowano pierwsze wiatraki, które zastąpiły ludzi obracających żarna.
Pierwsze wiatraki miały bardzo charakterystyczną budowę. Oś obrotu ich łopatek była pionowa, a śmigła przypominały nieco młyńskie koło, tyle że były pokryte materiałem lub ciasno ułożonymi oatykami. Później narodziły się wiatraki mające śmigłą. Te pracowite maszyny były nieocenione w okolicach, w których nie można było budować młynów wodnych i w wielu miejscach można je spotkać do dziś, jako malownicze upiększenie wiejskiego krajobrazu. Niestety, niewiele z nich jeszcze pracuje. Zostały wyparte przez szybciej i dokładniej pracujące młyny parowe. Ale wszystko wskazuje na to, że wkrótce wiatraki znów wrócą do łask. Zajmuje się nimi wielu poważnych naukowców, którzy – jak wszyscy pracujący nad dziedziną zdobywania nowych źródeł energii – usiłują nas przekonać, że właśnie ich pomysł jest zbawieniem dla ludzkości.
Wiatraki mielące powietrze skrzydłami gdy tylko zawieje wiatr wykorzystywano już w Danii od lat dziewięćdziesiątych ubiegłego wieku do produkcji taniej elektryczności. Po pierwszej wojnie światowej mnóstwo zamożniejszych właścicieli gospodarstw rolnych, oddalonych od miast mających elektrownie, zaopatrzyło się w wiatraki, które poruszając prądnicę umożliwiały im oświetlenie domów elektrycznością. Jednak rozwój sieci elektrycznej przybliżył elektrowdo najbardziej nawet zapadłych wiosek. Znacznie lepiej było mieć pewne źródło prądu niż wiatrak, który w bezwietrzną pogodę nieraz parę dni smętnie spoczywał w bezruchu. Trudno wyprodukować wiele energii elektrycznej na zapas. Nawet najlepsze akumulatory mają ograniczoną pojemność i po kilku dniach bez wiatru nieuchronnie trzeba było wyciągać lampy naftowe z komórek.
Gdy jednak zaczęły się obecne kłopoty z wytwarzaniem coraz większych ilości energii elektrycznej, właśnie rozbudowana sieć elektryczna umożliwia ustawienie wielu wiatraków w różnych punktach kraju – trudno bowiem sobie wyobrazić, by wszędzie panowała cisza, można liczyć, że zawsze gdzieś będzie wiał wiatr. Ponadto, ogromne postępy techniki umożliwiają budowanie większych, bardziej wydajnych wiatraków, które nawet przy dość słabym wietrze i tak będą wytwarzać sporo energii elektrycznej. Trudno jednak zgodzić się na plany różnych fanatyków proponujących ustawianie zgrupowań tysięcy gigantycznych wiatraków, aby zapewnić pokrycie niemal wszystkich potrzeb energetycznych kraju. Jednym z takich uczonych jest profesor William Heronemus z Uniwerstytetu w Massachusetts, który nawołuje do zbudowania około 300 tysięcy wież o wysokości ponad 200 metrów, z których każda utrzmywałaby 20 wiatraków. Wieże te miałyby stanąć USA w pasie sięgającym od Teksasu do Kanady. Trzeba przyznać, że oszpeciłyby one kawał kraju, na dokładkę może to przynieść skutki zarówno dobre, jak i katastrofalne.
Jednakże, jak pisał 4 marca 1976 roku korespondent „Życia Warszawy” z Danii, mieszkańcy tego gęsto zaludnionego kraju protestują przeciwko budowie reaktorów jądrowych, których się po prostu boją, znacznie więcej natomiast zwolenników ma wśród nich projekt specjalistów z Akademii Nauk Technicznych, którzy zaproponowali wzniesienie na zachodnich wybrzeżach Pólwyspu Jutlanckiego 500 wiatraków o 50-metrowych skrzydłach. Zbudowanie 1500 wiatraków zaspokoiłoby już połowę potrzeb energetycznych Danii.
Najbardziej pociągającym projektem jest chyba jednak propozycja uczonych radzieckich. Odkryli oni, że w oceanie powietrznym istnieją prądy, podobne do tych, które płyną w oceanach. Znajdują się one na wysokości 10-12 kilometrów nad powierzchnią ziemi. Wystarczy więc wytropić taki prąd, wiejący w stałym kierunku z niezmienną prędkością (bo to je właśnie charakteryzuje) i umieścić w nim strowiec wypełniony lekkim gazem – helem. Sterowiec, oczywiście przymocowany do ziemi potężnmi linami, po to, aby nie poleciał z wiatrem, miałby duży wiatrak i prądnicę. Wytworzony prąd elektryczny można by przesyłać na ziemię poprzez liny kotwicze. Projekt ma wielkie szanse realizacji w odda- lonych rejonach Syberii, gdzie wystarczałoby zawiesić na niebie jeden taki sterowiec nad każdym miastem. Kto wie, czy nie doczekamy się widoku pierwszych zdjęć podniebnych elektrowni już w bliskiej przyszłości.
A jeśli już jesteśmy przy atmosferze, to czy pamiętacie słynne doświadczenie Beniamina Franklina, które doprowadziło go do wynalezienia piorunochronu? Pisał o nim w liście do Petera Collinsona: „A gdy deszcz zmoczył latawiec i nitkę, tak że mogły swobodnie przewodzić ogień elektryczny, można było spostrzec, że wypływa on obficie z klucza przy zbliżeniu palca”.
Widząc nadchodzącą burzę Franklin wypuszczał latawca na jedwabnej nici, do której końca przywiązał klucz i obserwował przepływ prądu elektrycznego pomiędzy kluczem i własnym palcem. Prawdę powiedziawszy, trudno orzec, jaka szczęśliwa gwiazda czuwała nad uczonym, który według wszelkiego prawdopodobieństwa powinien był zginąć od uderzenia piorunu, jak to się przytrafiło innym mniej szczęśliwym badaczom. Nie to jednak jest ważne. Często nie zdajemy sobie sprawy, jak wielkie napięcia elektryczne wytwarzają się pomiędzy wyższymi warstwami atmosfery a ziemią.
Pole elektryczne występujące w atmosferze ziemskiej charakteryzuje właśnie duża różnica potencjałów, czyli napięć elektrycznych, nawet na stosunkowo niedużej wysokości. Wystarczy zawiesić niezbyt wysoką antenę, by pomiędzy jej końcem i ziemią uzyskać wysokie napięcie. Jednak zwykle stosowane silniki elektryczne wymagają niezbyt wyskokich napięć, natomiast wysokiego natężenia przepływającego prądu – są to silniki elektromagnetyczne. Obrót ich wirnika wymusza zmienne pole magnetyczne. A czy można zbudować inny silnik, taki, który mogłby pracować przy zasilaniu prądem wysokiego napięcia i o niskim natężeniu? Oczywiście, można, pierwszy z nich zbudował w 1748 roku Beniamin Franklin.
Mam tu na myśli tak zwany silnik elektrostatyczny, którego działanie opiera się na fakcie, że jednakowe ładunki elektryczne odpychają się, a różnoimienne – przyciągają. Silniki takie buduje się z izolatorów, które można naładować elektrycznie. Nie będziemy wnikać w szczegóły ich konstrukcji. Ważne jest tylko to, że już przed kilkoma laty uruchomiono pierwsze niezwykle lekkie i nieskomplikowane silniki, które czerpią energię elektryczną wprost z powietrza,
czyli praktycznie biorąc, z niczego. Nie mają one dużej mocy, to prawda, nie mogłyby na przykład uruchamiać windy w domu. Ale istnieje mnóstwo zadań, które silniki te mogą spełniać, na przykład zasilanie różnego rodzaju przyrządów pomiarowych, żyroskopów w samolotach i na statkach itp. Zresztą nie można wykluczyć, że przy dokładniejszym zbadaniu zostaną wynalezione nowe typy silników elektrostatycznych, a wtedy zyskamy jeszcze jednego sprzymierzeńca w walce o zaspokojenie potrzeb energetycznych.
Tak oto dobiegliśmy końca przeglądu możliwości Gai. Są one ogromne i nikt jeszcze nie zdaje sobie sprawy z tego, co może przynieść przyszłość. Pochłonięci spalaniem tego, co mieliśmy pod ręką: węgla, ropy naftowej i gazu oraz rozbijaniem i łączeniem jąder atomowych, nie zwracaliśmy uwagi na to, co jest nam najbliższe. Trzeba było dopiero kryzysu energetycznego, by pozornie utopijne i nikomu niepotrzebne badania zyskały należną sobie rangę. Mało kto dziś wyśmiewa uczonych szukających nowych źródeł energii, choć jeszcze przed kilkoma laty niemal wszyscy mieli ich za nieszkodliwych maniaków. Być może żadne z zaprezentowanych przeze mnie źródeł nie uzyska monopolu jako wyłączne źródło energii na świecie. Ale każde z nich z osobna może znacznie poprawić najlepszą możliwość w każdych warunkach, a widmo kryzysu przestanie spędzać nam sen z powiek. Zresztą Gaja ma potężnego konkurenta, który bezustannie zalewa ją potokami energii – jest nim Słońce. Ale to już znów temat na osobną opowieść, choć być może, uważni czytelnicy spostrzegli, że większość zasobów enrgetycznych Gai pochodzi w prostej linii od Słońca. Wiatry i ruchy wód są tego najlepszym przykładem.

Energia za darmo?

W czasie II wojny punickiej, w roku 214 p.n.e. Rzymianie oblegali miasto Syrakuzy. Silna flota pod wodzą Marcellusa stanęła u wejścia do portu i pewnego dnia ruszyła do ataku na sprzymierzone z Kartaginą miasto. Lecz jednym z obywateli miasta był słynny Archimedes. Podanie mówi, że ustawił on na murach szereg żołnierzy z dobrze wypolerowanymi tarczami i rozkazał im, by wszyscy skieorwali odbite od tych tarcz promienie słoneczne na najbliższy wrogi statek.
Na wynik nie trzeba było długo czekać – okręt stanął w ogniu. Byłoby to pierwsze wykorzystanie energii słonecznej na większą skalę. Od czasów Archimedesa mijały stulecia, w czasie których energię słoneczną wykorzystywano głównie do suszenia upranego ubrania. Po wnalezieniu soczewek i wklęsłych zwierciadeł, często dla zabawy ogniskowano promienie słoneczne, by coś zapalić. Przykładem może być armatka, którą w 1573 roku Samuel Zimmermann, znany technik, połączył z wklęsłym zwierciadłem tak, że w południe zogniskowana wiązka światła zapalała lont i następował donośny wybuch.
Dopiero w roku 1878, na Wystawie Światowej w Paryżu, A. Mouchor (wym. Muszor) zaprezentował budzącą powszechną sensację maszynę parową, która pracowała tylko przy słonecznej pogodzie, a nieruchomiałą po zachodzie lub gdy było pochmurno. Maszyna ta bowiem była połączona z kotłem umieszczonym w ognisku dużego zwierciadła wklęsłego o kilkumetrowej średnicy. Skupione promienie słoneczne ogrzewały wodę, zamieniając ją na parę, która napędzała silnik. W 1912 roku dwaj inżynierowie z Filadelfii, Shuman (wym. Szuman) i Boys zbudowali w miejscowości Meadi, leżącej o 11 kilometrów na południe od Kairu siłownię słoneczną, w której szeregi luster w kształcie rynien skupiały promienie na rurach z wodą. Wytwarzana para zasilała 100-konny silnik parowy.
I znów na wiele lat zapanował zastój. Mimo iż wzrastało zapotrzebowanie na energię, nikt nie zważał na promienie słoneczne, a wszyscy starali się spalić jak najwięcej węgla i nafty, aby tę energię uzyskać.
Jest to co najmniej dziwne, bowiem Słońce wysyła w naszym kierunku niezrównany potok energii, na skalę zaiste kosmiczną. Zaledwie jedna trzydziestomiliardowa część tej energii trafia w maleńką tarczę Ziemi, a i tak każdego roku otrzymujemy porcję energii 150 tysięcy razy większą niż wyniosła produkcja energii elektrycznej na Ziemi w 1975 roku.
Energia słoneczna dociera do Ziemi w postaci promieniowania elektromagnetycznego – czyli światła oraz promieniowania cieplnego (podczerwonego) i nadfioletowego. Spora jej część jest pochłaniana przez atmosferę ziemską i często zalegające na niebie chmury, ale i to, co zostaje, jest prezentem nie do pogardzenia. Już Dymitr Mendelejew obliczył, że na samej pustyni Kara-Kum wciągu jednego dnia marnuje się tyle energii, ile jej wytworzą w ciągu niemal 20 lat wszystkie istniejąc obecnie radziecki elektrownie na paliwa kopalne – węgiel, ropę i gaz ziemny. W ciągu 15 minut Słońce rzuca na Ziemię potok energii równy co do wielkości energii zużywanej przez ludzkość w ciągu całego roku.
Liczby te brzmią wręcz fantastycznie i być może to właśnie odstręczało uczonych od zajmowania się energią słoneczną. Właściwie może trudno mówić tu o uczonych, raczej niechętni byli tym projektom ci, którzy za badania naukowe płacą, a więc rządy niemal wszystkich państw. Nic w tym dziwniego, jeśli weźmiemy pod uwagę, że przed II wojną światową energii nikomu jeszcze nie brakowało – krajom rozwinętym gospodarczo wystarczał tani węgiel i kupowana niemal za darmo ropa naftowa, a w zacofanych koloniach i tak nikt elektrowni nie budował. Natomiast po wojnie od razu powstało środowiko fizyków jądrowych, którzy mieli wielkie wpływy w rządach i na ich badania szła większość funduszów przeznaczonych na rozwój nowych źródeł energii.
Jednakże od razu trzeba zastrzec, że wyjątek stanowiły dwa państwa, które właściwie oceniły korzyści z opanowania energii słonecznej. Były to ZSRR i Francja. W Związku Radzieckim już w 1949 roku powstał jedyny w świecie Instytut Energii Słonecznej. Jego siedzibą jest Taszkient, stolica słonecznego Uzbekistanu, a założycielem i kierownikiem profesor Hijas Umarow. W sąsiedniej Turkmenii podobne badania prowadzi profesor Walenty Baum. Obie te republiki należą do najbardziej nasłonecznionych miejsc na kuli ziemskiej, nic więc dziwnego, że postanowieono tam zaprzęgnąć słonce do pracy.
Zarówno w Taszkiencie, jak i w Aszchabadzie uczeni osiągnęli wspaniałe rezultaty. Budowane przz nich urządzenia do odsalania wody na pustyniach pracują bez zarzutu już ponad 10 lat, a koszt uzyskiwanej w ten sposób wody do picia jest co najmniej 20-krotnie niższy niż wody do tego czasu sprowadzanej z odpowiednich źródeł. Zresztą wodę wydobywa się tam spod ziemi również przy użyciu pomp zasilanych przez kocioł parowy, nagrzewany przez słońce. Z doświadczeń uczonych rzdzieckich korzystają, między innymi, liczne kraje Afryki i Azji.
Francuzi zaś mogą się poszczycić tym, że w 1968 roku zakończyli budowę gigantycznego pieca słonecznego w Odeillo w odległości 8 kilometrów od ruin twierdzy Font Romeu w Pirenejach. Piec ten, którego twórcą był profesor Felix Trombe (wym. Trąb), wytwarza temperaturę ponad 3600 stopni Celsjusza i jest wykorzystywany do produkcji cennego metalu cyrkonu z tlenku cyrkonu. Jest to budowla imponująca. 63 płaskie zwierciadła kierowane przy pomocy silników dokładnie na Słońce odbijają promienie słoneczne tak, aby padały na wielkie wklęsłe zwierciadło, zajmujące całą ścianę 7-piętrowego budynku laboratorium, które ogniskuje światło na tygiel z wytapianym metalem. W laboratorium – rzecz jasna – prowadzi się również najróżniejsze badania naukowe.
Poza wymienionymi gigantami, istnieją jeszcze rozsiane po całym niemal świecie, oczywiście tylko tam, gdzie słońce mocno grzeje, różne pompy, destylarnie wody i piecyki. Na przykład, na wyspie Nisyros na Morzu Egejskim 32 destylarnie słoneczne zaopatrują 700 mieszkańców w słodką wodę do picia. W miasteczku Chinguetti w Mauretanii pompy słoneczne wydobywają wodę spod ziemi. Ale stać nas na więcej i wkrótce z pewnością będziemy wykorzystywać znacznie większą niż dotychczas część energii słonecznej padającej na Ziemię.
Dotychczas głównie wykorzystywano promieniowanie cieplne słońca. W pierwszych, najprymitywniejszych urządzeniach skupione przez zwierciadłą światło słoneczne ogrzewało wodę, która parowała i uzyskaną parę kierowano do różnych silników. Nie były to urządzenia zbyt wydajne, znaczna część energii, którą można było spożytkować, uciekała bezpowrotnie w przestrzeń.Wiele uwagi poświęcili więc uczeni próbom znalezienia takich powierzchni, które skutecznie zatrzymywałyby kwanty podczerwieni.
Wiadomo jednak, że większość ciał równie łatwo oddaje pochłonięte ciepło, ogrzewając otaczające je powietrze wysyłanymi kwantami podczerwieni i nigdy nie osiąga zbyt wysokiej temperatury. Jednym ze sposobów, niestety dość kosztownych, jest wykorzystanie zjawiska interferencji światła wcienkich warstwach napylonych na powierzchni rozgrzewanego ciała. Warstwy takie wykonuje się między innymi z krzemu. Blacha stalowa pokryta odpowiednio dobranymi, niezwykle cienkimi powłokami rzeczywiście nagrzewa się do znacznie wyższej temperatury niż blacha niczym nie powleczona. Warstewki mają jeszcze dodatkową zaletę, że mogą zamieniać kwanty światła widzialnego na ciepło. A oto konkretny projekt urządzenia, zaproponowanego przez profesora Adena Meinela z Uniwerstytetu Arizony w Tuckon, byłego dyrektora znanego obserwatorium astronomicznego w Kitt Peak.
Zasadniczą część urządzenia stanowią dwie rury, wewnętrzna stalowa, powleczona powłoką cienkich warstw i zewnętrzna z wytrzymującego wysoką temperaturę szkła kwarcowego, której wewnętrzna powierzchnia jest posrebrzona, z wyjątkiem dwu dość wąskich pasków, biegnących na całej jej długości. Przestrzeń pomiędzy rurami jest szczelna i opróżniona z powietrza, wcelu zmniejszenia strat ciepła przez przewodnictwo w gazie. Obie rury znajdują się w ognisku parabolicznego zwierciadła o kształcie rynny, które jest nastawione przez automat tak, aby patrzało w słońce przez cały dzień. Promienie słoneczne padające na zwierciadło przechodzą przez przezroczyste paski w zewnętrznej rurze do jej wnętrza, a gdy już się tam dostaną, odbijają się od jej wewnętrznej powierzchni, aż wreszcie trafią na rurę stalową, która je pochłonie.
Próby wykonane dla prototypu wykazały, że około 95 procent energii padającego na zwierciadło promieniowania słonecznego zostaje zamienione na ciepło i rozgrzewa gaz przepływający we wnętrzu rury stalowej. Z kolei gorący gaz pod wysokim ciśnieniem można wykorzystać do napędzania turbiny elektrowni. W ostatecznym rozrachunku aż trzecia część padającej energii słonecznej zostaje zamieniona na energię elektryczną. Jest to ogromna ilość – wystarczyłoby ustawić klektory Meinela na niewielkiej części ziemskich pustyń, by zaspokoić całe zapotrzebowanie ludzkości na energię. Dowiemy się wkrótce, czy konstrukcja ta działa na większą skalę, bowiem Meinel uzyskał już pieniądze potrzebne do zbudowania sporej elektrowni. Jeśli jego przepowiednie spełnią się, wówczas z pewnością elektrownie tego typu staną się groźnym konkurentem elektrowni jądrowych i termojądrowych; są one nie tylko tańsze, ale również znacznie bezpieczniejsze – nie tylko nie zagrażają ludziom, lecz również nie powinny mieć żadnego wpływu na środowisko naturalne.
Innym, bardzo podobnym pomysłem, jest zbudowanie wieży o wysokości 300 metrów, otoczonej zwierciadłami ustawionymi na ziemi, które ogniskują promienie słoneczne na jej szczycie. W dużym kotle na szczycie wieży można na przykład uzyskiwać silnie przegrzaną parę, która zasili turbiny elektrowni. Przy takiej elektrowni na pustyni ulokowano by zakłady przemysłowe, które wymagają dużo energii elektrycznej, jak na przykład hutę aluminium. A gdyby wreszcie na świecie zapanowała zgoda, więcej państw mogłoby współdziałać w budowaniu na pustyniach elektrowni słonecznych, które zostałyby włączone do ogólnoświatowego systemu energetycznego, z ogromną korzyścią dla wszystkich zainteresowanych. Ponieważ ropa naftowa występuje głównie w państwach, które również dysponują największą ilością energii słonecznej, można by po prostu kupować od nich elektryczność zamiast wydobywać ropę i przewozić ją do odległych państw, powodując zanieczyszczenie oceanów i marnując cenny surowiec dla przemysłu chemicznego. Ale jest to, jak na razie, pomysł dość utopijny.
Przyznać należy, że państwa leżące w strefie równikowej, mimo iż obecnie najmniej rozwinięte, są najbardziej uprzywilejowane przez Słonce. U ich wybrzeży rozciąga się również największy na ziemi kolektor energii słonecznej, a mianowicie oceany, które miedzy zwrotnikami Raka iKoziorożca, gdzie słonce grzeje najsilniej, zajmują aż 90 procent powierzchni globu. W okolicach równika powierzchnia oceanu jest o ponad 20 stopni cieplejsza niż warstwy wody leżące o kilkadziesiąt metrów głębiej.
Pomiędzy zwrotnikami Raka i Koziorożca temperatura powierzchni wody utrzymuje się niemal zawsze na poziomie około 25 stopni Celsjusza, w wyniku ustalenia się równowagi miedzy ogrzewaniem przy pochłanianiu promieniowania słonecznego i ochładzaniem w wyniku parowania wody. Natomiast na głębokości 300-400 metrów niemal zawsze utrzymuje się temperatura około 5 stopni, ponieważ spływają tam wody chłodniejsze z okolic odległych od równika. Nie jest to duża różnica temperatury, lecz jak się okazało, zupełnie wystarczająca.
W 1929 roku wykorzystano pomysł francuskiego inżyniera nazwiskiem Claude (wym. Klod) do zbudowania niewielkiej elektrowni u wybrzeży Kuby. W tak zwanym cyklu Claude parę uzyskuje się nie z podgrzewania wody, lecz przy wprowadzeniu ciepłej wody powierzchniowej do komory, w której panuje niskie ciśnienie. Wytworzona w ten sposób para o niskim ciśnieniu popycha łopatki turbiny, a za nimi trafia do skraplacza chłodzonego przez wodę pompowaną przez rurę z warstwy ziemnej, z głębokości około 300 metrów. Para skrapla się, co powoduje poważne zmniejszenie ciśnienia. W ten sposób powstaje różnica ciśnień pomiędzy wlotem i wylotem turbiny. W cyklu Claude uzyskuje się prócz elektryczności również bardzo duże ilości czystej, destylowanej wody, która zazwyczaj w okolicach równikowych jest płynem bardzo poszukiwanym.
Obecnie opracowano już plany gigantycznej pływającej elektrowni, która przypuszczalnie zostanie uruchomiona przed rokiem 1985. Będzie to betonowa beczka o średnicy 103 metrów i wysokości 17 pięter, w której wnętrzu znajdują się pompy, turbiny, generatory, skraplacze i inne urządzenia. Zamiast cyklu Claude zostanie zastosowany zamknięty obieg łatwo parującej cieczy, takiej jak amoniak. Zimna woda będzie pobierana z głębokości 1200 metrów przez rurę o średnicy 15 metrów. Platformy tej nie trzeba będzie zakotwiczać – dzięki wykorzystaniu strumieni pompowanej wody, działających jak silniki odrzutowe, będzie ona miała znaczną swobodę poruszania się jak statek.
Czy projekty te są realne? Wszystko wskazuje, że tak. Elektrownia tego typu będzie produkować energię elektryczną taniej niż elektrownie opalane węglem lub naftą, a nadto może dostarczać sól, wodę do picia i lód – wszystko to ma przecież swą cenę, zwiększającą jeszcze bardziej opłacalność przedsięwzięcia. Wypada więc żałować, że nasz Bałtyk nie jest morzem podzwrotnikowym, skończyłyby się dla nas kłopoty z energią. Ale temperatura wody w naszym morzu rzadko osiąga 25 stopni, a nieraz zimą Bałtyk wręcz zamarza.
Jesteśmy więc dość upośledzeni przez nasze położenie geograficzne. Nie mamy ciepłego oceanu i kraj nasz leży daleko od obszarów o największej operacji słońca. Czy ma więc w ogóle sens mówienie o energii słonecznej? Z pewnością tak. Po pierwsze, nawet dość prymitywne kolektory energii słonecznej, jakie stosuje się obecnie w innych krajach do ogrzewania domów, u nas można stosować jako wspomagające źródło ciepła, znacznie redukujące ilość opału potrzebnego do ogrzania domków jednorodzinnych, fabryk czy szklarni ogrodniczych. Słońca jest w Polsce mniej, ale choć brzmi to nieprawdopodobnie, w ciągu roku na metr kwadratowy powierzchni pada u nas zaledwie dwa razy mniej energii niż w najbardziej nasłonecznionym stanie USA – Arizonie. Wszędzie tam, gdzie istnieje rolnictwo, rosną lasy, opłaca się myśleć o wykorzystaniu energii słonecznej. Jeśli jest dość dla roślin, można również pożytkować ją w urządzeniach wytwarzających ciepło lub elektryczność. Dotychczas nie mówiliśmy jeszcze o jednym ciekawym urządzeniu, które bezpośrednio zamienia energię słoneczną na prąd elektryczny. Idzie tu oczywiście o półprzewodnikowe ogniwa słoneczne. Te zmyślne kryształki krzemu, siarczku kadmu i wielu innych substancji zostały wynalezione dopiero niespełna ćwierć wieku temu i dotychczas niewiele zrobiono dla ich ulepszenia.
Powszechnie stosuje się je w światłomierzach fotograficznych, lecz tam wytwarzają tak znikome ilości energii elektrycznej, że trudno o nich nawet mówić jako o źródle energii. Większe ogniwa, całe ich baterie, zastosowano do zasilania urządzeń na sztucznych satelitach ziemi, ale i tam uzyskiwana energia jest znacznie mniejsza niż na przykład zużywana w średnim gospodarstwie domowym.
We wrześniu 1975 roku rozmawiałem z profesorem Josephem Loferskim, Polakiem z pochodzenia, który mieszka w Stanach Zjednoczonych i zajmuje się badaniami ogniw słonecznych od samego początku ich istnienia. Profesor Loferski od jesieni 1974 roku do lata 1975 roku przebywał w Polsce i pracował w Instytucie Badań Jądrowych w Świerku, a we wrześniu 1975 roku przyjechał na Zjazd Fizyków Polskich. Ponieważ wszyscy przeciwnicy wykorzystania energii słonecznej jako koronny argument przeciwko niej wysuwają fakt, że ogniwa słoneczne mają bardzo małą wydajność - czyli trzeba operować ich dużymi powierzchniami, oraz że kosztują ogromne sumy, co łącznie wyklucza możliwość ich stosowania na Ziemi, zapytałem profesora Loferskiego, co o tym sądzi. Oto co mi odpowiedział:
„Pierwsze krzemowe ogniwa słoneczne powstały niewiele ponad 20 lat temu i ich badaniami zajmowało się bardzo niewielu ludzi. Nawet dziś, na przykład w Polsce, zaledwie cztery osoby badają te ogniwa, a podobnie jest w innych krajach, choć wszystkim zagląda do oczu głód energii. Ogniwa słoneczne staną się konkurencyjne dla wszystkich innych źródeł energii, gdy ich cena spadnie około 50-krotnie, a wszystko wskazuje, że niedługo to nastąpi. Znana jest reguła, że cena przyrządów czy elementów zależy od wielkości ich produkcji. Sądzę, że podobnie jak w przypadku tranzystorów i obwodów scalonych, cena będzie spadać o około 20 procent przy każdym podwojeniu ilości wyprodukowanych sztuk.
Trudno mi dokładnie przepowiedzieć, kiedy nastąpi wymagane zwiększenie produkcji. Ogniwa słoneczne wykorzystywano dotychczas wyłącznie na satelitach, to znaczy produkowano ich milion razy mniej niżby potrzeba na Ziemi. Cena ogniw była wskutek tego sztucznie zawyżona, bowiem nikt nie martwił się wydanim kilkuset tysięcy dolarów, jeśli wysyłanie rakiety kosztowało kilkadziesiąt milionów dolarów. Ogniwa musiały być za to doskonałe, bo przecież w Kosmosie nikt ich nie mógł naprawiać. Było to tak, jak byśmy produkowali same cadillaki, a przecież potrzebne nam są tanie volkswageny.
Gdy cena ogniw spadnie do rozsądnego poziomu, wystarczy dla nich słońca i w Polsce. Gdyby w Polsce zużycie energii elektrycznej na jednego mieszkańca dorównywało jej zużyciu w USA, wówczas ogniwa słoneczne zaspokajające całość potrzeb powinny mieć powierzchnię około 1,5 tysiąca kilometrów kwadratowych, czyli pół procenta powierzchni kraju. Ale po pierwsze nie musiałoby to przecież, być jedyne źródło energii, a po drugie, można ogniwa słoneczne „zdecentralizować” i umieszczać je na przykład na dachach domów. Jednak w czasie swego pobytu w Polsce zorientowałem się, że wasi specjaliści unikają myśli o wykorzystaniu tak „egzotycznego” źródła energii.
Zresztą również w USA jeszcze cztery lata temu na wykorzystanie energii słonecznej, nikt poza NASA, która finansowała wyłącznie badania baterii dla pojazdów kosmicznych, nie dawał na to pieniędzy. Ale już w 1975 roku dostaliśmy 50 milionów dolarów. Coś się zaczęło dziać. To przecież już jest kilka procent tego, co się przeznacza na badania w dziedzinie fizyki jądrowej. Silna grupa fizyków jądrowych skutecznie ośmieszała wykorzystanie energii słonecznej, ale jestem przekonany, że zwyciężymy fizyków jądrowych na Ziemi, tak samo jak w kosmosie. Pamiętam rozmowy, jakie toczyły się przy wysyłaniu pierwszych satelitów w kosmos. Fizycy jądrowi zgadzali się, by na razie zastosować te „śmieszne ogniwa”, zanim oni nie zbudują odpowiedniego reaktora. W ciągu ponad 10 lat przeznaczono na te badania ogromną sumę pieniędzy. Zasiadałem później w komisji, która miała ocenić postępy i zadecydować, czy dalsze finansowanie tych badań ma sens. Mimo iż większość członków komisji stanowili fizycy jądrowi, wobec znikomych wyników i mizernych perspektyw badania przerwano.
Żywot energii jądrowej, a raczej projektów jej stosowania w kosmosie obejmuje 10-15 lat. Na Ziemi poczyniono już ogromne inwestycje w tym zakresie i trudno się teraz wycofywać. Przecież nakłady na fizykę półprzewodników były niewspółmiernie mniejsze. Problemy, jakie tu występują, są błahe w porównaniu, na przykład, z konstrukcją tak chętnie ostatnio wspomnianych reaktorów powielających czy reaktorów termojądrowych. Nawet dobór materiałów wytrzymujących wysoką temperaturę i ciśnienie jest tam niezwykle trudną sprawą. A konstrukcja tańszych i doskonalszych ogniw słonecznych to tylko dobór atomów i kryształów oraz opracowanie tańszej, masowej technologii.
Słyszymy czasem demagogiczne argumenty przeciwko energii słonecznej, polegające na stwierdzeniu, że jeśli już dziś trzeba pokryć powierzchnię Ziemi ogromnymi płachtami ogniw, to co będzie za lat na przykład 200. A przecież, gdybyśmy mieli całą energię elektryczną czerpać z elektrowni jądrowych, za niecałe 100 lat wzdłuż wszystkich wybrzeży oceanów trzeba by w odstępach 10-kilometrowych ustawić wielkie elektrownie – tylko w ten sposób można by je chłodzić. Widzę miejsce i dal energii jądrowej, choć w ograniczonym zakresie. Na pewno będziemy wykorzystywać również energię wiatru, tam gdzie to jest możliwe, i energię przypływów morskich. Ogromnym i nie wykorzystanym źródłem energii są prądy morskie i różnice temperatury na powierzchni i w głębi mórz tropikalnych. W każdym rejonie świata istnieją specyficzne źródła energii i należy je wszystkie wykorzystywać”.
Trudno nie zgodzić się z profesorem Loferskim. Na dodatek, jak doniosła prasa fachowa, opracowano niedawno dwie „nowinki” techniczne, które z pewnością przyspieszą wykorzystanie energii słonecznej i zmniejszą jego koszt. Pierwsza z nich znajdzie zastosowanie w kolektorach ciepła niesionego przez promieniowanie słoneczne. Dotychczas stosowano powierzchnie absorbujące gładkie, które mimo pokrywania cienkimi powłokami nie były doskonałe. Trzej wynalazcy z laboratorium znanej firmy IBM produkującej komputery, opracowali sposób pokrywania cienkiej blaszki wolframowej mikroskopijnymi gęsto upakowanymi kryształkami wolframu. Światło padające na gąszcz niewidocznych gołym okiem maczugowatych igiełek zostaje uwięzione, a na dokładkę wolfram niechętnie oddaje zgromadzone ciepło z powrotem w postaci promieniowania. W ten sposób aż 95 procent padającej energii rozgrzewa płytkę i można ją wykorzystać na przykład do ogrzania cieczy, która z kolei krąży w rurach centralnego ogrzewania.
Wiele mówiono o wysokiej cenie krzemowych ogniw słonecznych. Wynikała ona głównie z tego, że trzeba było najpierw produkować duże kryształy, później precyzyjnie je rozcinać na wąskie pasemka i wreszcie zamykać w obudowie z elektrodami odprowadzającym wytworzony prąd. Dopiero takie pojedyńcze pudełeczka łączono w większą baterię. Wszystkie te kolejne operacje niezwykle podnosiły cenę, bowiem były bardzo pracochłonne i wymagały skomplikowanych przyrządów. Kłopoty te są już w znacznej mierze za nami. Trzej uczeni, profesor Bruce Chalmers (wym. Czolmers) z Uniwerstytetu Harwardzkiego oraz A. Mlavsky i D. Jewett (wym. Dżuet) z laboratoriów firmy Tyco wymyślili, w jaki sposób można od razu wytwarzać kryształy w formie taśmy o szerokości 2,5 centymetra, grubości 0,3 milimetra i długości aż 2 metrów. Szczegóły techniczne nie są ważne, cenna jest tylko informacja, że już sprawdzono działanie tych kryształów jako ogniw słonecznych i niczym nie ustępują one tym maleńkim kryształkom, które obrabiano z takim trudem. Obecnie trwają prace nad równoczesną produkcją wielu taśm, co jeszcze bardziej obniżyłoby ich cenę.
Innym problemem jest niezbyt wysoka wydajność ogniw słonecznych. Zaledwie około jednej dziesiątej padającej energii zamieniają one na energię elektryczną. Gdyby udało się znaleźć nowe materiały półprzewodnikowe produkujące więcej elektryczności, wystarczyłaby mniejsza powierzchnia baterii, a tym samym energia elektryczna uzyskiwana z tych ogniw znacznie bypotaniała. Prowadzone w laboratoriach próby wykazują, że wielce obiecującą substancją jest siarczek kadmu, który w laboratoriach daje niemal dwukrotnie więcej elektryczności niż krzem. Ale potrzeba bedzie jeszcze wiele pracy, aby wykorzystać nowe materiały na skalę przemysłową.
Tymczasem uczeni, nie zrażeni chłodnym przyjęciem i brakiem funduszy na badania, snują wspaniałe wizje wykorzystania baterii słonecznych, jako głównego źródła energii. Jednym z nich jest Peter Glaser (wym. Glejzer) ze znanej firmy zajmującej się nowościami technicznymi, prowadzonej przez Arthura Little'a (wym. Litl). Zaproponował on ni mniej ni więcej, tylko zbudowanie gigantycznych elektrowni słonecznych w kosmosie. Profesor Loferski powiedział o tym projekcie: „osobiście wierzę w powodzenie projektu Glasera. Baterie słoneczne leżące na dachach domów są dla ludzi zbyt prostym rozwiązaniem. Nie pachną, nie szumią, a leżeć mogą niemal całą wieczność niezauważalnie. Nie jest to pomysł zbyt ludzi pociągający. Natomiast słoneczne elektrownie kosmiczne – to zupełnie coś innego, to chyba zafascynuje wszystkich. Lubujemy się przecież w wielkich budowlach”.
Kosmiczna elektrownia słoneczna, której plany już opracowano, a Peter Glaser uzyskał na nią patent nr 3 781 647, znajdowałaby się w odległości 35 800 kilometrów od Ziemi, na tak zwanej orbicie stacjonarnej. Oznacza to, że okrążałaby ona naszą planetę z szybkością odpowiadającą dobowemu ruchowi obrotowemu, czyli innymi słowy, wisiałaby jakby nieruchomo nad stale tym samym wybranym punktem planety. Podobnie jak „zwykłe” sztuczne satelity, ma ona mieć skrzydła czy tace wyłożone ogniwami słonecznymi. Jest tylko jedna różnica. Wymiary „skrzydeł” sputników liczy się w metrach, zaś elektrownia miałaby dwa jakby pola o rozmiarach 4 na 4 kilometry. Zebrana w nich energia elektryczna, przekazana do korpusu elektrowni, zostałaby zamieniona na bardzo krótkie fale radiowe, tak zwane mikrofale i wysłana przez specjalną antenę w kierunku wybranego punktu na powierzchni Ziemi.
W owym punkcie na Ziemi trzeba by zbudować podobną antenę odbiorczą. Miałaby ona średnicę około 7 kilometrów, co zajmuje wręcz nieznaczną powierzchnię. Jedna elektrownia to jeszcze za mało. Aby zaspokoić wszystkie potrzeby energetyczne USA w roku 2000 trzeba by ich zbudować 30. Z kolei, gdyby połączyć wszystkie elektrownie orbitalne w jeden pierścień otaczający ziemię w odległości odpowiadającej orbicie stacjonarnej, mający szerokość około 4 kilometrów, wówczas uzyskalibyśmy w nich energię elektryczną w ilości 200 razy wiekszej, niż wyniesie na nią zapotrzebowanie świata w roku 1980. Są to projekty dość fantastyczne, ale nie tak bardzo, jak by się mogło wydawać na pierwszy rzut oka.
Elektrownie kosmiczne (jeśli zostaną zbudowane) zapewnią ciągłą dostawę energii elektrycznej w postaci zupełnie czystej, bez zanieczyszczenia środowiska czy uszczuplenia zasobów ziemskich. Ważne jest również to, że będą pracowały przez całą dobę. W znacznej odległości od Ziemi Słońce świeci stale, nie ma dnia i nocy, czyli odpada główny argument przeciwników wykorzystania energii słonecznej na Ziemi. Ponadto, w przestrzeni kosmicznej Słońce operuje aż 15 razy silniej niż na powierzchni Ziemi, po przejściu przez atmosferę i zawieszone w niej pyły i chmury. Innymi słowy, każde ogniwo słoneczne na orbicie dostarczy znacznie więcej energii elektrycznej, niż zainstalowane na Ziemi.
Przeciwnicy Glasera, a raczej jego projektu, stale twierdzą, że jest to przedsięwzięcie zbyt kosztowne, niepewne i niebezpieczne. Ale koszt wysłania pierwszej elektrowni na orbitę ma wynieść zaledwie 4 miliardy dolarów, co wcale nie jest zbyt wiele jak na spodziewane korzyści, a poza tym wykonane już programy badań kosmicznych kosztowały znacznie więcej. Nikt ponadto nie twierdzi, że wszelkie wysiłki ma ponosić jeden kraj. Zapoczątkowana wspólnym lotem Sojuz-Apollo współpraca dwu wielkich potęg kosmicznych, ZSRR i USA, wskazuje, że możliwe jest współdziałanie nie tylko dwóch krajów. Przy odpowiednim rozdzieleniu wydatków i zadań, już za 15-20 lat można by zaspokoić większość potrzeb. A chyba wszystkim powinno zależeć, aby stało się to jak najszybciej.
Argument, że przedsięwzięcie jest niepewne, wydaje się po prostu śmieszny. Przecież wszystkie potrzebne zjawiska fizyczne i konstrukcje techniczne zostały już dawno opracowane. Sprawdzono zarówno przydatność baterii słonecznych do zasilania pojazdów kosmicznych, jak i możliwości przesyłania energii za pośrednictwem wiązki mikrofal. Nie musimy tu już nic odkrywać, wystarczą jedynie niewielkie ulepszenia istniejących urządzeń. Dla przypomnienia podam, że w przypadku reaktorów termojądrowych nie dysponujemy jeszcze nawet podstawowymi informacjami o zachowaniu materiałów, z których zostanie zbudowana komora – nikt nie wie, czy znajdzie się taki stop, który wytrzyma napór połączonego działąnia wysokiej temperatury silnego strumienia neutronów i żrącej cieczy – litu.
Ostrzeżenia przed niebezpieczeństwem, jakie grozi kierowanie na Ziemię silnych wiązek mikrofal, są jawną demagogią. Głoszą je najczęściej zwolennicy reaktorów jądrowych i termojądrowych, tych beczek z prochem, ba, nawet stokroć groźniejszych od przysłowiowej beczki z prochem. Prawdą jest, że promieniowanie mikrofalowe , takie jakie wykorzystuje się na przykład w kuchniach „Agata” może upiec każde żywe stworzenie, a więc i człowieka, w mgnieniu oka. Ale wystarczą przecież proste urządzenia zabezpieczające, które wyłączą elektrownię, gdyby nacelowana wiązka zaczęła się zsuwać z anteny odbierającej energię na Ziemi. Wszystko, czego trzeba, to kilkadziesiąt czy też z czasem nawet kilkaset ogrodzonych obszarów o promieniu paru kilometrów. Można je otoczyć nawet strefą ochronną o szerokości dalszych paru kilometrów, i tak jest to powierzchnia znikomo mała w porównaniu na przykład z poligonami, na których wypróbowuje się obecnie bomby atomowe.
Jednakże, mimo tych wszystkich zalet, każdy trzeźwo myślacy człowiek zdaje sobie sprawę, że zbudowanie elektrowni kosmicznych nie jest sprawą nawet najbliższych pięciu lat. Trzeba pokonać liczne opory i zmobilizować wielkie siły do realizacji tego niezwykle amitnego planu. Zwolennicy projektu stale wysuwają tę koncepcję i możemy mieć tylko nadzieję, że ich słowa zostaną wysłuchane. Ale projekt Glasera nie jest ani najśmielszy, ani najbardziej dalekowzroczny.
Na Uniwerstytecie w Princeton, czyli tam gdzie pracował w ostatnich latach swego życia wielki Albert Einstein, działa profesor fizyki Gerald O'Neill (wym. Onil). Co prawda, złośliwi twierdzą, że od początku 1974 roku przestał być fizykiem, a jego jedynym zajęciem jest opracowanie planów kolonii w kosmosie, ale to przecież nie ma znaczenia. Chyba projekt zbudowania osiedla w przestrzeni kosmicznej, w którym mieszkaliby i pracowali ludzie, może być na tyle frapujący, by oderwać trzeźwo myślącego fizyka od jego zajęć.
Brzmi to jak opowiastka fantastycznonaukowa, ale chciałbym przypomnieć słowa wielkiego twórcy kosmonautyki, Konstantego Ciołkowskiego: „Ziemia jest kolebką ludzkości, lecz nie można spędzić całego życia w kolebce”. Zdanie to stało się teraz szczególnie aktualne, nasza klebka staje się trochę zbyt ciasna i zaczyna nam doskwierać głód energii, której w kosmosie jest w bród.
Projekt O'Neilla przewiduje zbudowanie miasteczka kosmicznego na 10 tysięcy ludzi. Które miałoby kształt walca o długości 30 kilometrów i średnicy 7 kilometrów. Walec powoli obracać się madookoła swej osi, tak aby wytworzyć sztuczne ciążenie w jego wnętrzu – ludzie nie będą potrafili odróżnić siły odśrodkowej od zwykle działającej na nich na powierzchni Ziemi grawitacji. We wnętrzu walca zostanie założony prawdziwie rajski ogród – będą tam pola uprawne, pastwiska dla zwierząt, rzeki pełne ryb i drzewa, na których uwiją gniazda wesoło ćwierkające ptaki. Przez całą długość walca będą się ciągnęły cztery okna, na które specjalnie uformowane zwierciadła skierują odbite promienie słoneczne. Zwierciadła te posłużą również jako okiennice, które po zamknięciu wywołają złudzenie nocy. Powolne ich zamykanie da całkowite złudzenie ziemskiego zmierzchu.
Ludzie będą mieszkać w pobliżu jednej z podstaw walca, tam gdzie również znajdą się wszelkie urządzenia zapewniające im energię, odświeżające atmosferę i oczywiście zakłady przemysłowe, bo przecież pozaziemski raj nie polega na nieróbstwie. Osiedle będzie czerpało energię z promieniowania słonecznego, przy czym oczywiście możliwe jest zarówno wykorzystanie kolektorów cieplnych dla napędu turbin, jak i baterii słonecznych, które bezpośrednio dostarczą elektryczności. Dysponując niemalże nieograniczonymi zasobami energii koloniści będą mogli dowolnie zmieniać klimat swego osiedla, pracować i przeprowadzać badania naukowe.
Najodpowiedniejszym miejscem dla umieszczenia kolonii będzie punkt nazwany L5, znajdujący się na orbicie Księżyca, w równej odległości od Ziemi i od Księżyca. L występujące w nazwie tego punktu pochodzi od pierwszej litery nazwiska znanego matematyka Lagrange'a (wym. Lagranż), który jako pierwszy obliczył, że siły przyciągania Ziemi i Księżyca idealnie się w tym miejscu równoważą, tak że ciało o niewielkiej masie (w porównaniu z masami obu ciał niebieskich) pozostanie w nim na zawsze. A o to przecież idzie, by nasza kolonia nie poleciała gdzieś w bezkresną przestrzeń.
Kolonizacja i kolonie zawsze kojarzyły się z wyzyskiem i podbojem, prowadzącym do wykorzystania podbitych ludów przez silniejszych najeźdźców. Tym razem, po raz pierwszy w historii ludzkości, będzie to podbój terenów, na których nie ma istot żywych, tak że koloniści wykorzystają wyłącznie niezmierne bogactwa leżące dotychczas bezużytecznie w przestrzeni kosmicznej. A najwżniejszym z nich jest energia słoneczna.
Zresztą pierwsza kolonia, ważąca około 500 tysięcy ton, zostanie głównie, bo aż w 98 procentach, zbudowana z materiałów pochodzenia pozaziemskiego. Tylko niezbędne na początek maszyny i urządzenia przylecą z Ziemi. Reszta zostanie wykopana z Księżyca. Uszczerbek, jaki poniesie przy tym nasz satelita, będzie praktycznie niezauważalny. Później będzie można czerpać surowce z niezliczonych planetoid, które bezużytecznie krążą w naszym układzie słonecznym.
Założenie kopalni na Księżycu i planetoidach pozwoli na znaczne zaoszczędzenie wydatków. Gdyby wszystko trzeba było przywozić z Ziemi, musiałyby kursować miedzy naszym globem i kolonią kosmiczną liczne rakiety, zużywające masy paliwa, a co za tym idzie cennej energii. Zaś na Księżycu siła ciążenia jest znacznie mniejsza. Projekt przewiduje, by do napędu robotów dowożących surowce wykorzystać również energię słoneczną. Pierwsza kolonia byłaby niewielka, ot tyle, aby pomieściły się zakłady przemysłowe, które umożliwią wykonanie odpowiednich urządzeń dla kolonii, budowanej z materiałów pozaziemskich.
Jaki cel ma budowanie kolonii kosmicznych? Czy chodzi tylko o zbudowanie jakby wesołych miasteczek dla znudzonych ludzi? Otóż nie. Głównym zadaniem kolonistów będzie zbudowanie elektrowni kosmicznych według projektu Glasera. Przy przeniesieniu produkcji w kosmos, koszty spadną co najmniej dziesięciokrotnie, a wtedy naprawdę będzie można mówić o pełnym wykorzystaniu energii słonecznej. Używając do tego niewielkich silników rakietowych można będzie umieszczać gotowe elektrownie na właściwej orbicie okołoziemskiej, skąd zaczną wysyłać na ziemię energię w postaci skoncentrowanych wiązek mikrofal.
Czy projekt profesora O'Neilla jest jeszcze jedną utopijną wizją, nie mającą pokrycia w rzeczywistości? Przedstawia on konkretne obliczenia, projekty i nie wykorzystuje w nich niczego, co nie było sprawdzone we wcześniejszych próbach. Nawet analizy kosztów tego przedsięwzięcia wykazują, że nie stanowiłoby ono większego obciążenia niż na przykład projekt Apollo. Zresztą znajduje ono zwolenników wśród znanych uczonych z całego świata. Do najznakomitszych z nich należą J. Szkłowski i N. Kardaszew z ZSRR oraz C. Sagan i F. Dyson (wym. Dajson) z USA. Jednak mimo wszystko jest to zadanie bardzo trudne i wszyscy zgodnie powiadają, że nie należy oczekiwać jego realizacji wcześniej niż za 20-25 lat. Ale przecież tyle możemy poczekać?
Prócz zwolenników oczywiście są i wrogowie. Warto przedstawić przynajmniej jednego z nich. Jest nim profesor Howard Odum (wym. Oudam) z Uniwerstytetu Florydy w Gainesville. Jego zdaniem wszystkie nowe źródła energii są gorsze odropy naftowej i węgla. Nie ulega bowiem wątpliwości, że aby energię uzyskać, trzeba również ją stracić. Na przykłąd w kopalniach odkrywkowych muszą pracować zastępy potężnych maszyn, które zdejmują warstwy ziemi i wydobywają minerały zasobne w substancje palne. Każda z tych maszyn spala dużo cennej benzyny czy oleju napędowego.
Zdaniem profesora Oduma, najważniejszym czynnikiem określającym przydatność nowych projektów jest uzyskiwana przy ich użyciu energia netto, czyli różnica całkowitej wytworzonej energii i tej, którą trzeba było zużyć dla jej zdobycia. Tracenie coraz większych ilości energii, aby uzyskać jej nieznacznie więcej, to nie jest, jego zdaniem, korzystny interes. Ocena wszystkich istniejących i proponowanych źródeł energii przy pomocy skomplikowanych modeli komputerowych przyniosła niezbyt pocieszające wnioski.
Okazuje się, że o ile bliskowschodnia ropa naftowa daje ponad 6 jednostek energii w zamian za jedną jednostkę energii, o tyle kopalnia odkrywkowa daje już tylko trzy jednostki, a elektrownia jądrowa zaledwie dwie. Profesor Odum również kwestionuje celowość budowy orbitalnych elektrowni słonecznych i twierdzi, że ich koszt (zarówno urządzeń satelitarnych, jak i naziemnych) stawia pod znakiem zapytania celowość tych nakładów. Jednym słowem, spirala zużycia energii, potęgowanego przez nakłady na jej uzyskiwanie, przypomina sięganie lewą ręką do prawego ucha. Porównanie to byłoby niepełne bez przypomnienia, że ręka ta bezustannie się skraca, a odległość do ucha rośnie. Ale każdy szanujący się uczony, jeśli tylko coś krytykuje, zgłasza własne kontrpropozycje.
To, co zgłosił profesor Odum, jest prawdziwą wizją „nowego wspaniałego świata”, choć delikatnie mówiąc, nieco utopijną. Jego propozycja polega na oparciu gospodarki na rolnictwie posługującym się głównie pracą ręczną, niemal bez nawozów sztucznych. Byłby to „stan stacjonarny” gopodarki, wykorzystującej wydajne i samoodtwarzające się przetworniki energii słonecznej – lasy, uprawy i inne rośliny, które towarzyszyły nam od niepamiętnych czasów.
Nie jest to miła perspektywa dla ludzi, którzy zaznali już dobrodziejstwa cywilizacji. Jej autor spotkał się z potężną dawką krytyki – jego propozycja to przecież też sięgnięcie po niezmierzone zasoby energii słonecznej, tyle że w najmniej korzystny sposób. Wszelkie rośliny, choć nie chciałbym im odmawiać talentu w czerpaniu energii z promieniowania, czerpią jej tak niewiele, że istotnie musielibyśmy potężnie cofnąć wstecz, aby nam to wystarczyło.
Dotychczas korzystaliśmy z zapasów energii wytworzonych przez rośliny, zmagazynowanej w postaci energii chemicznej w ropie naftowej i węglu. Ale zapasy te powstawały w ciągu milionów lat, a my rozprawiliśmy się z nimi skutecznie w ciągu niespełna 300 lat, tak że zostało nam ich zaledwie na następne 200-300 lat. Zdrowy rozsądek nakazuje znów czerpać energię z promieniowania słonecznego, tyle że w sposób godny etapu rozwoju, jaki osiągnęliśmy. Słońce, które dało nam życie, z pewnością umożliwi wspaniały rozkwit cywilizacji. Nie można cofnąć się z raz obranej drogi. Gdybyśmy mieli polegać na roślinach, na cóż by się zdały osiągnięcia techniczne, których dokonali inżynierowie idący tropem odkryć naukowych. Stoimy dziś w przededniu nie spotykanego w dziejach ludzkości rozkwitu i wszelkie cofnięcie się może oznaczać tylko przekreślenie rozwoju naszej cywilizacji.
Warto chyba posłuchać, jak widzi rozwój cywilizacji radziecki astrofizyk, profesor Mikołaj Kardaszew. Jego zdaniem cywilizacje przechodzą przez trzy stadia rozwoju. W pierwszym cywilizacja znajduje potrzebne źródła energii na własnej planecie. W drugim stadium, bardziej rozwiniętym, następuje podbój układu słonecznego i cywilizacja zaczyna czerpać energię ze swej gwiazdy. Wreszcie, w trzecim stadium, cywilizacja jest na tyle skomplikowana, a jej potrzeby energetyczne tak się rozrastają, że zaczyna je zaspokajać w skali całej galaktyki.
Osiągnięcie fazy pierwszej następuje po trwającej miliardy lat ewolucji biologicznej, zaś przejście ze stadium pierwszego do drugiego (to właśnie nas dotyczy) następuje już w kilka tysiącleci później. Z kolei przejście ze stadium drugiego do trzeciego wymaga aż kilkudziesięciu milionów lat. Obecne kłopoty z zasobami naturalnych surowców i źródłami energii zdają się wymownie świadczyć o tym, że zaczyna nam się robić ciasno na naszej planecie, czyli – jeśli nawet nie jesteśmy jeszcze na granicy między stadium pierwszym i drugim – moment ten już jest bardzo bliski. A więc, jaka przyszłość czeka naszą energetykę? Oczywiście sięgnięcie po energię słoneczną.

“Zacznij tam gdzie jesteś, użyj tego co masz, zrób co możesz”
Nie negocjuje na rozsądnych warunkach z ludźmi, którzy zamierzają mnie pozbawić rozsądku.


Jeśli widzisz uszkodzony post - kliknij "Zgłoś do moderatora". Dziekuje

Offline BladyMamut

  • Administrator
  • WyBudzony
  • *
  • Posts: 2 560
  • Reputacja: +12/-0
Odp: Marek Płużański - Siedem źródeł energii
« Reply #2 on: (Sun) 05.02.2017, 02:23:33 »
Dziwne losy góry Żar

Na początku XVIII wieku stały się modne badania elektryczności. Uczeni, badacze tajemnic natury, starali się wyjaśnić zjawiska, które obserwowali. A dostrzegali już niemało. Wiedzieli, że pomiedzy ciałami naładowanymi elektrycznie (przez potarcie) mogą występować zarówno siły przyciągając, jak i odpychające; że ciało trzymane blisk ciała naładowanego również staje się naładowan; wreszcie, ze istnieją dwa rodzaje elektryczności – podobne ładunki odpychają się, zaś różne przyciągają. Daleko jeszcze było do zrozumienia istoty zjawisk, lecz każde doświadczenie przynosiło coś nowego.
Jednym z tych eksperymentatorów był profesor Musschenbroeck (wym. Muszenbrek), mieszkający w mieście Leyden, w Holandii. Pewnego dnia w 1746 roku, czcigodny frofesor próbował naładować elektrycznie wodę, którą trzymał w szklanym naczyniu. W tym celu maszynę elektrostatyczną (jaką – nie wiem, ale mogła to być na przykład osadzona na żelaznym pręcie obracanym korbą, kula siarki, która elektryzowała się przez tarcie o rękę) połączył z wodą w naczyniu za pomocą metalowego przewodu. Oczywiście połączenie z wodą polegało na zanurzeniu w niej przewodu. Kiedy już uczony uznał, że dość długo kręcił korbą, wziął naczynie z wodą do ręki i sięgnął po drut, aby go wyjąć z wody.
Nie był to krok rozważny, ale skąd Musschenbroeck miał o tym wiedzieć? W każdym razie pewne jest, że wiecej tego nie zrobił. Otrzymał bowiem tak silne uderzenie prądem, że upadł bez czucia na podłogę, a jak się potem żalił w opisie swego doświadczenia, wydawało mu się, że już nie żyje. Ale cóż, zdobywanie wiedzy nie obywa się bez pewnych ofiar. Mimo wstrząsu dzielny profesor zrozumiał co się stało – po obu stronach szklanej ścianki naczynia (w wodzie i w dłoni) nagromadziły się różnoimienne ładunki, których przepływ po dotknięciu drutu odczuł tak boleśnie.
Wynalezione przez profesora Musschenbroecka „naczynie do zbierania ładunków”, nazwane niedługo później „butelka lejdejską” na cześć miejsca, w którym dokonano odkrycia, znalazło ważne miejsce w laboratoriach ówczesnych badaczy zjawisk elektrycznych. Nawiasem mówiąc, urządzenia oparte na tej samej zasadzie zwane dziś kondensatorami, znajdują się w każdym radioodbiorniku, telewizorze itp. W owych czasach jednak pierwszy na świecie magazyn elektryczności nie znajdował praktycznego zastosowania... O przepraszam, z jednym wyjątkiem:
Abbé Nollet (wym. Nole), francuski badacz przyrody, zebrał wielką grupę mnichów z zakonu Kartuzów i ustawił ich na podparyskiej łące w koło o obwodzie długości jednej mili (ponad półtora kilometra). Mnisi utworzyli łańcuch trzymając się za ręce, a Nollet ustawił w miejscu jednego z nich potężną butelke lejdejską, silnie naładowaną. Sąsiedzi butelki wzięli prowadzące do niej przewody w rękę i wtedy... wtedy okazało się, że wszyscy mnisi na całym milowym kręgu równocześnie pisnęli i podskoczyli wysoko do góry. Pomijając niewątpliwie korzyści naukowe, jakie Nollet uzyskał z tego eksperymentu, podobno licznie zebrane znakomitości wraz ze swymi damami mieli wiele uciechy. Oto, jak należy popularyzować nauki ścisłe wśród ważnych osobistości.
Lecz dość żartów. Początki były trudne, ale wkrótce nauka o elektryczności zaczęła odnosić poważne sukcesy. Przede wszystkim czworga imion Alessandro Giuseppe Antonio Volta zbudował czy raczej wynalazł w 1800 roku ogniwo elektryczne – pierwsze źródło prądu elektrycznego płynące w sposób stały, a nie jako iskra z butelki lejdejskiej czy maszyny elektrostatycznej. Potem sformułowano prawa rządzące przepływem elektryczności, a wreszcie, jak wiemy, w 1882 roku ruszyła pierwsza elektrownia Edisona...
Proszę mi wybaczyć, że przemknąłem przez historię elektryczności w takim pośpiechu, ale ważne są dwie sprawy. Po pierwsze mamy elektrownie i to coraz więcej, a po drugie, od dawna ludzie próbowali zbudować zbiornik elektryczności. Pierwszy z takich zbiorników, czyli jak mawiamy dziś, akumulatorów, powstał na dwa lata przed elektrownią Edisona. Był nim, skonstruowany przez Francuza Faure (wym. For) i Amerykanina Brusha (wym. Brasz) w 1880 roku, tak zwany akumulator ołowiowy. Zawiera on dwie elektrody – jedną z ołowiu, a drugą z tlenku ołowiu, umieszczone w rozcieńczonym kwasie siarkowym. Po dołączeniu do elektrod akumulatora napięcia stałego zostaje on naładowany, czyli magazynuje energię elektryczną.
Po naładowaniu można z niego czerpać tę energię. Akumulatory są dziś niezastąpionymi źródłami prądu elektrycznego dla silników spalinowych (zasilają układ zapłonu mieszanki benzyny i powietrza oraz na postoju zasilają oświetlenie samochodu). Czy jednak trzeba magazynować energię elektryczną? Przecież w miastach świecą latarnie, w domach wystarczy przekręcić kontakt, by zaświeciły żarówki, więc wydawałoby się, że poza tranzystorowymi radioodbiornikami, latarkami i samochodami można sobie robienie zapasów elektryczności darować.
Jednak pogląd taki jest z gruntu błędny, bo wystarczy pomyśleć o tym, jak zużywamy energię elektryczną w ciągu doby. O świcie miliony ludzi wstają do pracy, zapalają światło, mężczyźni golą się maszynkami elektrycznymi, grzeją sobie kawę i robią śniadanie – często z grzankami z elektrycznego opiekacza. Ruszają elektryczne pociągi podmiejskie, aby dowieźć wszystkich na czas do pracy. Wcześnie rano ruszają wielkie zakłady przemysłowe – trudno znaleźć takie, które nie wykorzystywałyby energii elektrycznej do napędu maszyn. Po południu historia się powtarza, tyle że wszyscy zmierzają do domów, zapalają telewizory, gotują jedzenie, włączają pralki i inne urządzenia pobierające prąd.
Wreszcie nadchodzi późny wieczór. Kraj zasypia. Poza nielicznymi zakładami pracującymi na trzy zmiany wszystko zamiera. I wówczas mało kto korzysta z energii elektrycznej. Na dobrą sprawę, niemal jej nie potrzebujemy, można by wyłączyć większość elektrowni i zamknąć na kłódkę, aż do następnego ranka. Ale nie jest to takie proste. Elektrowni nie można wyłączyć tak jak lampki nocnej. Rozpalone paleniska pod kotłami, zgromadzona para – to majątek, z którego nie można zrezygnować lakką ręką. Zwłaszcza że rozpalenieognia i uzyskanie odpowiedniego ciśnienia wymaga sporo czasu – nawet paru godzin. Właściwie nie opłaca się więc elektrowni unieruchamiać na te parę godzin, kiedy nie potrzebujemy prądu.
Albo wyobraźmy sobie, że któregoś dnia w telewizji wczesnym popołudniem nadają sprawozdanie z ważnego międzypaństwowego meczu piłki nożnej, powiedzmy Polska-Włochy. Myślę, że niewiele telewizorów wówczas odpoczywa. Ale również pracują wszystkie zakłady przemysłowe. Okazuje się nagle, że w ciągu dwu godzin potrzeba więcej energii elektrycznej niż w zwykłe dni. I co wtedy robić? W centralnym ośrodku dyspozycyjnym krajowej sieci elektrycznej – bo niemal wszystkie elektrownie są połączone w taką sieć, by awaria jednej z nich nie spowodowała wyłączenia prądu w całym, obsługiwanym przez nią rejonie – nastaje isnty sądny dzień. Wysiadają przeciążone linie, obniża się napięcie w sieci, zmienia częstotliwość prądu (w sieci, płynie, jak już wiemy, prąd zmienny), jednym słowem następuje chaos. Gdyby tak mieć choćby mały zapas elektryczności! - wzdychają wówczas energetycy.
Trzeba od razu otwarcie powiedzieć, że do niedawna takich możliwości nie było. Po prostu, elektryczności nie można magazynować – tym różni się ona odwęgla, benzyny i gazu. Akumulator ołowiowy, o którym wspominałem, jest urządzeniem niezbyt odpowiednim. Po pierwsze, nie magazynuje on elektryczności, tylko zamienia ją na energię chemiczną, a później, gdy czerpiemy z niego prąd, znów zamienia zgromadzoną energię chemiczną na elektryczność. Przy tym dział tylko na prąd stały, więc trzeba by stosować urządzenia zamieniające prąd zmienny na stały i odwrotnie. Po drugie, jest urządzeniem ogromnie ciężkim i trzeba w niego naładować masę ołowiu, by zmagazynowana energia miała jakieś znaczenie. Co innego zasilać zapłon samochodowy, a co innego oświetlać na przykład miasto. Wreszcie, po trzecie, przy wielokrotnym ładowaniu i wyładowywaniu szybko się psuje – a przecież musimy mieć urządzeni niezawodne i działające przez dłuższy szas. Jednym słowem, akumulator się nie nadaje. A przecież w nocy, kiedy elektrownie pracują właściwie bezużytecznie, marnują się ogromne ilości energii elektrycznej.
Cóż więc można uczynić, by uchronić się przed tym, jakże kosztownym marnotrastwem? Myślało nad tym wiele tęgich głów i to przez bardzo wiele lat. Wreszcie przed kilkunastu laty znaleziono niezłe rozwiązanie. Nie idealne, ale trudno przypuścić, by kiedykolwiek udało się ten problem rozwiązać w sposób całkowicie zadowalający wszystkich malkontentów.
W odległości 18 kilometrów od Żywca, stolicy polskiego piwa, znajduje się niezbyt wielka góra Żar. Ma ona około 760 metrów wysokości, jej strome zbocza porastają świerki, tu i ówdzie wznoszą się niezbyt liczne domy. U jej stóp leży sztuczne jezioro, którego wody spiętrza zapora w Porąbce ustawiona na rzece Sole. Zapora i zbiornik mają chronić położone poniżej wsie i pola przed groźną w czasie roztopów Sołą, która powodowała nieraz poważne powodzie.
Góra Żar była przez wiele lat istną Mekką polskich szybowników. Tu bardzo często startowali oni do lotów po diamenty, tutaj uczyli się trudnej sztuki pilotażu. Zbocza Żaru nadawały się do jak mało które miejsce na uprawianie szybownictwa. Później o górze stało się głośno nie tylko wśród miłośników tego pięknego sportu. Na jej wierzchołku zbudowano obserwatorium meteorologiczne połączone z przekaźnikiem telewizyjnym nadającym programy Katowic i Krakowa. Ale to dopiero początek kariery góry Żar.
W 1969 roku, po licznych badaniach, obliczeniach i naradach, postanowiono zbudować we wnętrzu góry Żar elektrownię. Na jej wierzchołku miał znaleźć się zbiornik na wodę, połączony rurociągami z hydroelektrownią umieszczoną dosłownie we wnętrzu góry, w wykutej hali, a oda po wprowadzeniu w ruch turbin elektrowni miała wpływać do sztucznego jeziora Porąbka. Niby wszystko jak zwykłe, jak w normalnej elektrowni wodnej, a jednak niezupełnie. Bo przecież, skąd wziąć wodę, i to dużo wody na szczycie stromej góry? Odpowiedź może będzie zaskoczeniem – wpompowują ją na górę te same turbiny, wtedy gdy prądnice pobierając prąd z sieci działają jak zwykłe silniki elektryczne.
Teraz chyba wszystko jest jasne. Nocą, kiedy energia elektryczna jest tania, elektrownia wpompowuje wodę do zbiornika na szczycie góry. Później, gdy trzeba zwiększyć dostawę elektryczności dla różnych prądożerców, otwiera się zawory i woda spływa z hukiem w dół, porusza generatory hydroelektrowni, która oddaje nagromadzoną energię. Różni się to od akumulatora tylko tym, że energia elektryczna zostaje tu zmagazynowana w postaci energii mechanicznej – a jak wiadomo urządzenia mechaniczne są łatwiejsze w obsłudze od chemicznych.
Zapas wody w zbiorniku wystarcza na cztery godziny nieprzerwanej pracy elektrowni. Później, by zapas odnowić,turbiny muszą mozolnie pracować przez prawie sześć godzin. To znaczy w kolejnych operacjach pompowania i produkcji elektryczności traci się trzecią część energii, ale całe przedsięwzięcie i tak się opłaca. Elektryczność nocą jest prawie darmowa.
Budowa elektrowni Żar, rozpoczęta w 1971 roku, jest nie lada wyczynem. Mamy się czym pochwalić. Trudno w kilku słowach opisać ogrom i rozmach tego przedsięwzięcia. Ponieważ cała elektrownia jest ukryta we wnetrzu góry, zamiast budowniczych musieli działać tu górnicy, a właściwie kolejność robót była jeszcze inna – najpierw trzeba było zbudować drogę na szczyt góry, którą wjechały ciężkie maszyny i kurowały ogromne wywrotki, wywożące wydarte z wnętrza góry odłamki skalne. Na szczycie pracę rozpczęto od wydrążenia wielkiego zbiornika – ma on powierzchnię 16 hektarów i głębokość 23 metrów. Dopiero wówczas ekipa górników ruszyła w głąb góry dwiema wykuwanymi sztolniami. Równocześnie druga ekipa rozpoczęła drążenie od dołu. Najpierw ponad półkilometrowy kanał odpływowy o średnicy sześciu metrów, później komora, w której staną maszyny (to też nie bagatelka, ma rozmiary takie, że można by w niej, jak na stadionie, grać w piłkę nożną) i wreszcie stromo pnące się w górę kanały, prowadzące do górnego zbiornika.
Obie ekipy szybko zbliżały się do siebie, mimo iż praca była niezwykle trudna – górnicy pracowali na przemian to w skale, to w błocie, to w chmurach pyłu z pokruszonego piaskowca. Nie ułatwiał zadania duży spadek kanałów – podobno drążenie bardziej stromych jest już niemożliwe. Mimo to doświadczeni specjaliści z Mysłowic każdego miesiąca posuwali się o 50 metrów wydrążonych sztolni. Warto wspomnieć, że projekty przewidywały zaledwie 30 metrów miesięcznie...
Górnicy mieli do dyspozycji najlepszy sprzęt, zarówno krajowy, jak i z zagranicy. Przebijanie sztolni od obu końców było możliwe tylko dzięki zastosowaniu laserów, których promienie dokładnie wytyczały kierunek, w jakim trzeba się było posuwać. Podobno obie ekipy drążyły ostatnie metry z wielką emocją, czy aby napewno natrafią na siebie. Lecz obawy były płonne, trafili z dokładnością co do milimetrów.
W chwili gdy piszę te słowa, wszystkie prace górnicze zostały już zakończone. Oddanie elektrowni do użytku w roku 1977 będzie stanowiło nie lada rekord. Podobną elektrownię budowano na przykład w Jugosławii kilkanaście lat. naszą tylko sześć. Wysokość spadku wody we wnętrzu góry Żar też jest rekordowa, wynosi aż 440 metrów. A wysokość spadku decyduje o wydajności elektrowni. Kanały, którymi popłynie woda, zostaną zabezpieczone pancernymi rurami stalowymi o grubości ścianek przekraczającej 5 centymetrów. Nic dziwnego, ciśnienie wody w pobliżu turbin wyniesie aż ponad 60 atmosfer.
Ważne jest również to, że elektrownia będzie właściwie niewidoczna. Zbiornika wykutego w wierzchołku po prostu nie będzie widać z dołu, a niemal wszystkie pozostałe urządzenia zostaną ukryte głęboko w skałach. Ma to niemałe znaczenie, bowiem nad zalewem w Porąbce rozlokowały się liczne ośrodki wypoczynkowe i szkoda by było zeszpecić tę piękną okolicę widokiem żelbetonowych buynków i stalowych rur.
Elektrownia Żar będzie w znacznym stopniu zautomatyzowana i sterowana przez specjalny układ elektroniczny. Jeśli trzeba będzie jąuruchomić, to znaczy gdy zabraknie gdzieś energii elektrycznej, wówczas wystarczy naciśnięcie guzika w okręgowym ośrodku dyspozycyjnym w Katowicach lub w ośrodku centralnym w Warszawie. Już po trzech minutach od zdalnego uruchomienia z elektrowni popłynie prąd. I to jest jej majwiększa zaleta. Uzyskamy niezawodne źródło energii elektrycznej, które łatwo można wykorzystać, gdy tylko będzie potrzebne. Elektrownie tego typu nazwane przez specjalistów szczytowo-pompowe, są obecnie niezastąpione i buduje się je niemal we wszystkich krajach. W miarę wzrostu zużycia nergii elektrycznej stają się coraz bardziej potrzebne, bowiem bez nich stale zwiększałaby się ilość energii traconej w „normalnych” elektrowniach nocą. Elektrownie szczytowo-pompowe magazynują ją, byśmy mogli korzystać z niej w ciągu dnia.
Nic więc dziwnego, że na świecie powstaje średnio dwukrotnie więcej elektrowni szczytowo-pompowych niż zwykłych. W Polsce istnieją już takie elektrownie w Solinie i Żydowie. Budowane są elektrownie w Młotach i Żarnowcu. Elektrownia żaronowiecka powstaje nad jeziorem o tej samej nazwie, na przeciwległym brzegu do wspomnianej przeze mnie projektowanej pierwszej polskiej elektrowni jądrowej. Nocą elektrownia jądrowa będzie pompować wodę z jeziora na szczyt wzgórza, a w ciągu dnia woda spływać bedzie na dół poruszając turbiny, co zwiększy moc naszej elektrowni jądrowej w godzinach szczytu.
Lecz nie wszystkie kraje i nie wszystkie okolice mają tak korzystne ukształtowanie terenu jak Polska. Nie wszędzie występują strome pagórki, na szczycie których można budować sztuczne zbiorniki wody dla elektrowni szczytowopompowych. Czy można i tam znaleźć sposób na magazynowanie elektryczności, czy też trzeba nadmiernie rozbudowywać sieć elektrowni? Oczywiście można, na bardzo podobnej zasadzie.
Jeśli pod warstwą gleby znajduje się twarda skała, można z niej wykuć ogromny zbiornik, uszczelnić jego ściany betonem i połączyć przewodem z turbiną gazową, to znaczy taką, do której wprowadza się mieszaninę sprężonego powietrza i paliwa. Część produkowanej energii elektrycznej turbina taka zużywa na sprężanie powietrza. Ale jeśli ma zbiornik podziemny, wówczas nocą można do komory pompować powietze na zapas, a w ciągu dnia wykorzystać dużą masę sprężonego gazu. Bez większych obaw można powierze sprężać do ciśnienia aż 40 atmosfer. Jednakże po to, aby turbina pracowała równo i bez zakłóceń, ciśnienie dopływającego do niej powietrza musi być stałe, dlatego też trzeba wyposażyć komorę w urządzenie, które zapewni spełnienie tego warunku. W najprostrzym przypadku można nad zbiornikiem gazu, na powierzchni ziemi zbudowac sztuczne jezioro i połączyć szeroką rurą jego dno z dnem zbiornika powietrznego. Stałe ciśnienie słupa wody będzie wówczas, jak uczy fizyka, zależne od różnicy poziomów wody w zbiorniku górnym i pod ziemią. W miarę czerpania sprężonego powietrza, poziom wody w zbiorniku podziemnym będzie się podnosił, objętość zajmowana przez gaz będzie się zmniejszać, a jego ciśnienie niemal się nie zmieni do chwili, gdy wykorzystamy cały gaz zawarty w komorze. Oczywiście, by różnica poziomów wody nie zmieniała się w zbyt drastyczny sposób, zbiornik podziemny powinien raczej być szeroki i płaski, niż wąski i wysoki.
W ten sposób pod ziemią musi się znajdowac tylko komora gazowa, a cała elektrownia (można ją też nazwać szczytowo-pompową) znajdzie się na powierzchni ziemi. Już obecnie rozważane są plany budowy takiej elektrowni w Bretanii we Francji, a w Szwecji firma Stal-Lawal, znany producent turbin, już niedługo przystąpi do budowy pierwszego powietrznego magazynu elektryczności.
W poszukiwaniach najlepszych możliwych magazynów energii uczeni zwrócili niedawno uwagę na koła zamachowe. Nie można powiedzieć, że jest to wynalazek czy szczególna nowość, bowiem już przed tysiącami lat garncarze wykorzystywali energię zmagazynowaną przez koło zamachowe do obracania maszyny, na której formowali gliniane naczynia. Dziś koła zamachowe znajdują zastosowanie w najróżniejszych urządzeniach. Najbardziej wśród nich powszechne to silniki motocyklowe, w których koło zamachowe spełnia rolę magazynu energii mechanicznej i obraca wał silnika w przerwach między kolejnymi wybuchami mieszanki paliwowo-powietrznej.
Jednakże zwykłe koła zamachowe wykonane z metalu jako pełny krążek osadzony na osi, mają wiele wad, a główna z nich polega na tym, że nie nadają się do magazynowania większych ilości energii. Brzmi to trochę jak anegdota o Napoleonie, który zapytał: „Dlaczego nie strzelaliście?” „Z wielu powodów, Sire – odparł przerażony winowajca – przede wszystkim nie mamy armat”. „To mi wystarczy” - odpalił zirytowany cesarz.
Rozpędzone koło zamachowe gromadzi tym więcej energii, im szybciej wiruje. Ale wówczas niezmiernie wzrasta siła odśrodkowa, która przy lada przyczynie może spowodować rozerwanie koł. Taką przyczyną może być niemożliwe do wykrycia wewnętrzne osłabienie materiału. A jeśli oderwie się jeden, choćby niewielki kawałeczek, wylatuje on jak kula wystrzelona z karabinu, zresztą i całe koło może się wówczas rozpaść niszcząc wszystko dookoła. Po kilku takich wypadkach uznano na wiele lat, że koła zamachowe nie nadają się do magazynowania energii, oczywiście poza niewielkimi i mało ważnymi wyjątkami.
Tymczasem, jak w każdej zresztą dziedzinie, również i tu pojawili się entuzjaści, którzy przemyśliwali nad możliwością ulepszenia tego antycznego wynalazku. Jednym z nich jest profesor David Rabenhorst z Uniwerstytetu Johna Hopkinsa. Postanowił on zrezygnować z budowania koła w postaci pełnej tarczy i zastąpił ją jakby gigantyczną szczotką w kształcie wałka o średnicy około 8 metrów i wysokości paru metrów. Każdy z niezliczonych „włosów” tej szczotki miałby średnicę około 1 centymetra i wagę około 2 kilogramów. Należałoby je wykonać z materiałów o wysokiej wytrzymałości w kierunku ich długości, a więc ze strun stalowych, włókien szklanych czy wreszcie drewna. Można też obłożyć wewnętrzną strunę o wysokiej wytrzymałości ciężkim materiałem, który zwiększałby wagę całego koła i utrzymywany był przez tę strunę. Zresztą najważniejszy jest sam pomysł, reszta to już tylko ulepszenia techniczne.
Czy koła zamachowe znalazły już jakieś konkretne zastosowanie? To jest przecież najciekawsza dla nas sprawa. Otóż wiadomo mi o dwu próbach ich zastosowania w środkach masowego transportu – w pociągu metra i trolejbusie. Oba te pojazdy są zależne od dostawy energii elektrycznej. Gdy z jakiś przyczyn zabraknie prądu, stają niemal w tym miejscu, w którym zostały zaskoczone przez awarię. Jeśli trolejbus zatrzyma się na skrzyżowaniu, wówczas powstają gigantyczne korki uliczne, a z unieruchomionego pociągu metra w tunelu pasażerowie nie mogą się wydostać nieraz godzinami. Gdy na dokładkę zdarzy się to w godzinach szczytu i metro jest przepełnione, trudno wprost opisać sceny, jakie się wówczas rozgrywają.
Gdyby każdy trolejbus i pociąg metra zaopatrzyć w sprawne koło zamachowe, wówczas mogłyby one o własnych siłach dojechać do najbliższego przystanku. W eksperymentalnym wagonie metra koło zamachowe ma dodatkowo czerpać energię z hamowania. Wiadomo, że przy hamowaniu hamulce rozgrzewają się do wysokiej temperatury, a powstająca energia cieplna ulega bezpowrotnie straceniu. Przy pochłonięciu energii rozpędzonego pociągu przez koło zamachowe można wykorzystać zmagazynowaną energię, gdy pociąg rusza ze stacji i przyspiesza.
Ale trzeba uczciwie przyznać, że nie wyszliśmy tu poza wstępne eksperymenty i trudno na razie oceniać przydatność takich urządzeń. Zresztą w Polsce nie mamy metra, a trolejbusy kursują w niewielu tylko miastach, więc nie musimy czekać w napięciu na wyniki tych doświadczeń.
Również konstruktorzy samochodów rozpoczęli doświadczenia z kołami zamachowymi. Liczne firmy próbują zbudować samochód miejski o niewielkim zasięgu i nezbyt dużej prędkości, który nie zanieczyszczałby powietrza w miastach, gdzie obecnie na dużych skrzyżowaniach wprost nie ma czym oddychać. Istniejące akumulatory są ciężkie, drogie i wymagają wielogodzinnego ładowania. Poza tym, odpukajmy w nie malowane drewno, zawsze może się zdarzyć wypadek drogowy, a wtedy z rozbitych akumulatorów wyleje się kwas siarkowy. Poparzenia tą cieczą są niezwykle groźne dla niefortunnych pasażerów pojazdu. Gdyby udało się (a wstępne próby są zachęcające) zbudować samochód z kołem zamachowym, wówczas mieszkańcy miast odetchnęliby z ulgą (w całym tego słowa znaczeniu). Po ulicach poruszałyby się pojazdy ciche, niemal bezgłośne, niesmrodliwe i łatwe w obsłudze. Ale to chyba jeszcze dość odległa przyszłość. Na razie zresztą znacznie więcej naukowców pracuje nad ulepszeniem akumulatorów i znalezieniem nowych ich typów, zawierających lżejsze materiały i pracujących niezawodnie przez wiele lat, przy wielokrotnym ładowaniu i rozładowywaniu.
Akumulator ołowiowy, staruszek już niemal stuletni, został w ostatnich latach zagrożony przez wielu konkurentów. Pojawiły się akumulatory niklowo-kadmowe, srebrowo-cynkowe i inne jeszcze, zawierające kombinacje różnych metali. Mimo iż wydajniejsze od starych, są jednak drogie i trudno myśleć o ich powszechnym wykorzystaniu poza niewielkimi urządzeniami, takimi jak radioodbiorniki tranzystorowe. Potrzebne nam są akumulatory duże, w których można zgromadzić wiele energii elektrycznej stosunkowo tanim kosztem.
Najwięcej nadziei można chyba wiązać z akumulatorami, w których jako elektrolit stosuje się substancje stałe w temperaturze pokojowej. Stają się one w wyższej temperaturze cieczami, a więc cały akumulator musi mieć ciepłotę większą od otoczenia. Jest to pewien kłopot,ale nie tak wielki, jak mogłoby się wydawać. Po prostu część elektryczności magazynowanej w akumulatorze można wykorzystywać do ogrzewania jego wnętrza. Maksymalna temperatura, o jakiej wspominają konstruktorzy, sięga zaledwie 370 stopni Celsjusza – byłoby to wiele, gdyby taki akumulator nosić w ręku. Lecz jeśli ma spoczywać w hali, połączony w baterię z tysiącami innych, wówczas wystarczy tę halę wyłożyć izolacją cieplną i wcale nie trzeba do niej wchodzić.
Ze względu na tajemnicę, co już świadczy o zaletach nowych konstrukcji, trudno podać dokładniejsze szczegóły techniczne. Wszystki firmy prowadzące te badania chcą wyprzedzić swych konkurentów, opatentować wynalazek i czerpać ogromne korzyści, bowiem należy przypuścić, że jeśli tylko powstanie niezawodny akumulator, w którym mieści się więcej energii niż w akumulatorze ołowiowym, w ciągu paru lat wszyscy będą chcieli kupować owych pracowitych magazynierów elektryczności. Z grubsza wiadomo tylko, że jedną z elektrod będzie stanowił metal, taki jak lit lub sód, zaś drugą chlor, fluor lub siarka.
Bateria szczelnie zamknięta, tak aby nie dostała się do jej wnętrza wilgoć z powietrza, która łatwo reaguje chemicznie z użytymi substancjami, będzie miała pojemność dla elektryczności kilkanaście razy większą niż akumulator ołowiowy. A to już jest postęp.
Jak będzie wyglądał taki akumulator? Lit będzie się znajdował w ujemnej elektrodzie, wykonanej z porowatej stali nierdzewnej, zaś na przykład siarka w dodatniej elektrodzie zrobionej z porowatego węgla. Obie elektrody będą otoczone elektrolitem, którego składu dokładnie jeszcze nie znamy – na przykład może to być mieszanina chlorku sodu (soli kuchennej) i chlorku glinu. Próby takiej konstrukcji wypadły pomyślnie, teraz tylko trwają prace nad zapewnieniem jej niezawodności. Przecież po to, aby cała sprawa była opłacalna, akumulatory muszą pracować bez przerwy przynajmniej przez 5-10 lat.
Cały magazyn elektryczności będzie zawierał transformatory obniżające napięcie, połączone z układem zamieniającym prąd zmienny na stały i baterią akumulatorów. A układ zamieniający prąd zmienny na stały (i odwrotnie) to dwie prądnice, które przy zasilaniu prądem działają również jak silniki elektryczne. To znaczy, że gdy w nocy będzie płynął zmienny prąd elektryczny z sieci, prądnica prądu zmiennego będzie obracać wirnik prądnicy prądu stałego, a wytworzony przez nią prąd stały naładuje akumulatory. W ciągu dnia natomiast sytuacja się odwróci. Teraz akumulatory zasilą prądnicę prądu stałego, która obracając wirnik prądnicy prądu zmiennego, wytworzy prąd zmienny, wspomagający obiążoną sieć elektryczną.
Wszystko to brzmi prosto i nieskomplikowanie. Lecz musimy pamiętać, że upłynie jeszcze parę lat, zanim nowe akumulatory staną się niezawodne. Wtedy jeszcze trzeba będzie przekonać ewentualnych użytkowników, że opłaci się na pewno. Gdyby na przykład w dużej fabryce założyć akumulatorowy magazyn elektrycności, wówczas w nocy można by ładować akumulatory tanim prądem i korzystać z niego w godzinach pracy. Uzyska się wówczas oszczędności na cenie elektryczności, a poza tym w wyniku znacznego obniżenia ilości energii czerpanej z sieci, będzie można zbudować słabszą linię, tj. transformatory i inne elementy urządzenia. Również w wielkich biurowcach, gdzie korzysta się z elektryczności tylko w ciągu dnia (maszyny do liczenia, do pisania, klimatyzcja i inne) można podobny magazyn, tyle że nieco mniejszy, założyć w piwnicy. Czy prędko nastanie czas budowy takich magazynów? Wszelkie znaki wskazują, że wcześniej niż nam się wydaje. Przypuszczalnie w połowie lat 1980-1990 energia elektryczna stanie się tak cenna, że nikogo nie będzie stać na jej marnotrawienie.
„Sądzę, że pewnego dnia woda znajdzie zastosowanie jako paliwo, że wodór i tlen, które ją tworzą, użyte oddzielnie lub razem, staną się niewyczerpalnym źródłem światłą i ciepła, o intensywności, jakiej nigdy nie osiągnie węgiel. Pewnego dnia bunkry parowców i tendry lokomotyw zamiast węglem zostaną załadowane tymi dwoma gazami w stanie sprężonym, które spalając się wydzielają niezwykłe ilości ciepła. Tak więc nie mamy się czego obawiać. Bez względu na to ilu mieszkańców będzie liczyła Ziemia, spełni ona wszystkie ich potrzeby, tak że nie zabraknie im ani światła, ani ciepła...” - oto co napisał przed stu laty wielki wizjoner Jules Verne w swej książce „Wyspa Tajemnicza”. Co prawda nasze ambicje sięgają już dalej niż parowców i lokomotyw, światła i ciepła, ale i tak zachęcam wszystkich do czytania książek Verne'a.
To prawda, że wodór, występujący w tak wielkiej obfitości na naszej planecie jako składnik wody, jest paliwem znakomitym. Kiedyś nawet tn najlżejszy z pierwiastków był paliwem zbyt dobrym – wtedy gdy na Ziemi królowały parowce i lokomotywy, a węgiel był tani i dostępny w potrzebnych ilościach. Wówczas nikt nie myślał o spalaniu oceanów. Ponadto w roku 1937 cały świat obiegła wiadomość o tragicznej katastrofie niemieckiego sterowca pasażerskiego Hindenburg. Ten prawdziwy podniebny statek zabierający na pokład 50 pasażerów i 40 członków załogi spłonął w czasie jednego z lotów. Zginęły wówczas 34 osoby, co jak na czasy, w których latały małe samoloty, było katastrofą na ogromną skalę – dziś przywykliśmy już niestety do większych katastrof powietrznych...
Tragedia owa wryła jednak na wiele lat w pamięć ludzi, że wodór jest niesłychanie niebezpieczny. Tworzy z powietrzem mieszankę wybuchową, co przy najmniejszej nieostrożności może się zawsze przytrafić, a wtedy - „ratuj się kto może”, lada iskra powoduje groźny w skutkach wybuch. Od czego jednak postęp techniczny, a nade wszystko stale rosnące potrzeby energetyczne ludzkości. Okazuje sie, że nie taki diabeł straszny. Technicy przestali więc obawiać się do niedawna zakazanego gazu i zaczęli coraz śmielej zgłaszać różne projekty jego wykorzystania.
Ma wodór liczne zalety. Najważniejszą z nich jest to, że przy spalaniu, czyli łączeniu z tlenem, powstaje najzwyklejsza w świecie woda. Jest to, iinymi słowy, paliwo niemal idealne. Nie dymi, nie wytwarz szkodliwych substancji, a nade wszystko mamy go bardzo dużo – zresztą nawet gdybyśmy mieli mało, to i tak nie ulega on zniszczeniu w czasie spalania. To prawda. Lecz łączy się znów z tlenem w związek bardzo trwały i trzeba włożyć sporo energii, aby go z cząsteczek wody wyrwać z powrotem.
Ale nie popadajmy w pesymizm. Mamy przecież kłopoty ze znalezieniem możliwie najlepszego sposobu magazynowania energii elektrycznej. Czemu więc nie skorzystać z wodoru? Można przecież przy elektrowniach umieścić zakłady, w których dokonywano by elektrolizy wody. Uzyskane nocą wodór i tlen, w stanie skroplonym lub sprężonym można wykorzystać w ciągu dnia. A jak? Proszę bardzo, możliwości jest badzo wiele.
Przede wszystkim, od kilku lat wielką karierę robią tak zwane ogniwa paliwowe. Te zmyślne urządzenia bezpośrednio zamieniają energię chemiczną wodoru i tlenu na energię elektryczną i niezwykle czystą wodę. Warto może przypomnieć, że statki kosmiczne Apollo były wyposażone w takie właśnie ogniwa. Niestety, na razie są to urządzenia dość kosztowne – nawet ich zbiorniki trzeba było wykonywać ze złota i platyny. Nie miało to większego znaczenia w przypadku podboju Kosmosu, gdzie wszystkie części rakiet i statków były dosłownie nawagę złota, ale na Ziemi jest to nie do przyjęcia. Jednak niemal wszyscy fachowcy twierdzą, że już za kilka lat ogniwa znacznie stanieją i chyba można w to wierzyć. Znalezienie lepszych materiałów jest tylko kwestią czasu.
Jeśli zaś ogniwa paliwowe będą tanie i lekkie, zyskają wielką przyszłość jako źródła energii dla pojazdów, głównie samochodów elektrycznych, które zdaniem fachowców niedługo wyprą samochody z silnikami benzynowymi. Pomyślne doświadczenia z wodorowymi silnikami rakietowymi inspirują konstruktorów do prób zbudowania samolotu odrzutowego, którego silniki spalałyby wodór zamiast benzyny. Ba, nawet pewne projekty przewidują, że samolot taki osiągnie prędkość wielokrotnie większą od słynnego TU-144 czy Concorde. Nie są to mrzonki, bowiem wszyscy mają już dość spalin i wysokiej ceny benzyny.
W poprzednim rozdziale wspominałem o planach budowy gigantycznych elektrowni wykorzystujących różnicę temperatury w różnych warstwach wód oceanów. Projekty te pozostaną utopijne dopóty, dopóki nie znajdziemy sposobu przesyłania wytworzonej w nich elektryczności na ląd. Otóż najlepiej przesyłać ją pod postacią energii chemicznej, zmagazynowanej w wodorze, który w ogniwach paliwowych na lądzie znów zamieni się w energię elektryczną. To samo dotyczy elektrowni słonecznych budowanych na rozległych pustyniach. Trudno sobie wyobrazić inny sposób dostarczania wytworzonej przez nie energii do obszarów zamieszkanych. Kto wie, czy groźne tankowce, które krążą obecnie po oceanach, nie będą krążyły nadal, tyle że w ich zbiornikach zamiast cuchnącej ropy naftowej znajdzie się czysty wodór?
Pomysłów i projektów jest coraz więcej. Pewne z nich są nierealne, ale nie możemy jeszcze wiedzieć, które mają szanse realizacji. Jedno jest pewne, że przy obecnym zapotrzebowaniu na energię, gdy powstają coraz większe elektrownie, stale będzie wzrastała różnica między ilością energii elektrycznej zużywanej w różnych porach dnia. Tylko szeroko rozwinięty system magazynowania energii może nieco poprawić tę trudną sytuację. I znów, tak samo jak w przypadku produkcji energii, również i tu nie można ograniczać się tylko do jednego typu magazynów. Działanie nasze musi być elastyczne i dostosowane do wszelkich warunków i potrzeb. Wtedy magazyny energii staną się również jej źródłem o znaczeniu niemal takim samym jak zwykłe elektrownie.

Energia z lodówki

Niewielu chyba ludzi nie lubi siedzieć przed zapalonym kominkiem i grzejąc się w jego cieple spokojnie marzyć i wypoczywać. A są też ludzie, którym przy patrzeniu w ogień przychodzą do głowy ciekawe pomysły. Jednym z nich jest fizyk Lawrence Cranberg. Uczony ten zirytował się kiedyś, że kominek, w którym ułożył, tak jak to się zwykle czyni, trzy grube polana – dwa na dole i jedno na wierzchu – trudno się rozpalał i dawał za mało ciepła. Postanowił więc coś ulepszyć. Podszedł do zagadnienia jak prawdziwy naukowiec i uzyskał znakomite wyniki. Otóż zaproponował, by układać na ruszcie z tyłu jedno grube polano, drugie grube polano położyć na wierzchu, jak przedtem, tyle że oparte o żelazne wsporniki od przodu, a trzecie polano zastąpić drobnymi drwami. W ten sposób przy rozpalaniu ogień chwyta najpierw drobne kawałki drewna, a potem oba grube polana. Ciepło, które uciekało przedtem aż w 90 procentach do komina, teraz zostaje uwięzione w utworzonej przez grube polana wnęce i w znacznej mierze wychodzi do pokoju. Owo „w znacznej mierze” oznacza aż 30 procent. Ta niewielka innowacja daje trzykrotny wzrost wykorzystania opału.
Ciekawe, prawda? Ale jeszcze ciekawsze jest to, że nie wyczytałem tego przepisu w żadnym poradniku dla domowych majsterklepków, tylko w szanującym się amerykańskim tygodniku dla byznesmenów „Time”, również chętnie czytanym w Europie. Był to numer z dnia 22 grudnia 1975 roku, a więc informacja miała charakter poważny, a nie żartu primaaprilisowego. Tak, tak, nadeszły czasy, gdy nawet poważne gazety zaczęły zajmować się możliwościami czynienia choćby drobnych oszczędności energii. Ten, wydawałoby się, błahy przykład, odsłania jedną z najważniejszych bolączek naszej techniki, a mianowicie nikłą wydajność wszystkich niemal urządzeń służących do wytwarzania i wykorzystywania energii. Brzmi to niewiarygodnie, ale wykorzystanie aż trzeciej części ciepła wytwarzanego w kominku w trakcie spalania drewna jest poważnym osiągnięciem.
By to uzmysłowić, podam kilka przykładów. Zacznijmy od tego, co każdy z nas widzi na co dzień, to znaczy od zwykłej żarówki elektrycznej. To urządzenie, którego zadaniem jest wysyłanie światła, aż 95 procent dostarczanej energii elektrycznej zamienia na ciepło. Zaledwie dwudziesta część energii pobieranej z sieci oświetla nasze mieszkania, ulice czy inne obiekty. Co prawda w mieszkaniach tracona energia zostaje wykorzystana do ogrzewania, ale jest to zaleta tylko zimą. Latem, zwłaszcza w cieplejszych okolicach, w jasno oświetlonych pomieszczeniach trudno wytrzymać z gorąca, więc ludzie włączają klimatyzatory, co znów powoduje ogromne zużyci energii.
Czy musimy korzystać z tak niedoskonałych źródeł światła? Istnieją co prawda aż czterokrotnie bardziej wydajne lampy fluorescencyjne zwane świetlówkami, lecz ich światło jest wyjątkowo nieprzyjemne dla oka.- trudno przypuścić, by wyparły one żarówki, urządzenia na dobrą sprawę zabytkowe, bo przecież wynalezione już niemal 100 lat temu. Możemy tylko liczyć, że ktoś wynajdzie coś nowego. Ale na to potrzebne są poważne badania i przede wszystkim... pieniądze. Dotychczas wszyscy byli zadowoleni z istniejącego stanu rzeczy i nikomu nie przychodziło do głowy, by coś zmieniać. Ale już słychać o różnych nowych propozycjach i chyba coś się z nich wkrótce wykluje. Żarówka nazbyt wyraźnie odstaje od nowoczesnej techniki. Te nowe pomysły są jednak jeszcze zbyt słabo zaawansowane, by o nich opowiadać.
Zajrzyjmy teraz pod maskę samochodu. Silnik benzynowy, mimo licznych ulepszeń, jakich dokonano od czasów Otto i Benza, czyli w ciągu niemal 100 lat, ma wydajność zaledwie około 25 procent, to znaczy aż trzy czwarte ciepła uzyskiwanego przy spalaniu kosztownej benzyny ulatnia się. Nawet znakomite osiągnięcie Rudolfa Diesela, silnik wysokoprężny, zużywa na poruszanie, powiedzmy, samochodu, niespełna 40 procent ciepła spalanego oleju napędowego. A najnowsze osiągnięcie, silnik rotacyjny Wankla to już jawne marnotrastwo – jego sprawność nie sięga nawet 20 procent. Cóż, w porównaniu z najlepszą nawet lokomotywą parową i tak jest to postęp, ta bowiem wykorzystuje niespełna dziesiątą część węgla wrzucanego do paleniska.
Elektrownie parowe, opalane paliwami kopalnymi, w najlepszym przypadku przetwarzają na elektryczność zaledwie 40 procent ciepła wytwarzanego pod ich kotłami. Reszta ulatnia się przez komin, ogrzewając powietrze i wypływa wraz z gorącą wodą, powstającą ze skroplonej pary. Jeszcze gorzej przedstawia się sprawa w przypadku elektrowni jądrowych. Trzeba je łączyć z ogromnymi chłodnicami, o których zresztą już pisałem w jednym z poprzednich rozdziałów. Wniosek jest tylko jeden – wszystko, co spalamy głównie ogrzewa Ziemię – jej wody i atmosferę – a tylko w nieznacznym stopniu spełnia zamierzone zadania. Oczywiście dotyczy to w jeszcze większej mierze także elektrowni jądrowych i termojądrowych. A czym może nam to grozić?
Musimy sobie zdawać sprawę z tego, że zapotrzebowanie na energię we wszystkich jej postaciach stale wzrasta w sposób zaiste oszałamiający. Trudno snuć prognozy, bowiem jak uczy doświadczenie, nawet najznakomitsi przewidywacze przyszłości często się mylą. Nic jednak nie wskazuje na to, by ludzie zechcieli zmniejszyć swe wymagania. A poza tym jest nas coraz więcej, niedawno liczba ludności świata osiągnęła ponad cztery miliardy, co wskazuje, że być może już za lat kilkadziesiąt będzie nas 10 miliardów. Każdy z mieszkańców Ziemi zechce korzystć z udogodnień techniki, z owych mechanicznych niewolników, którzy wspomagają nas w pracy i uprzyjemniają życie. Po drugie, należy pamiętać, że większa część ludzkości dotychczas nie korzysta ze źródeł energii w takim stopniu jak mieszkańcy krajów rozwiniętych gospodarczo. Państwa rozwijjace się, w Azji, Afryce i Ameryce Południowej, muszą osiągnąć taki stopień rozwoju, jak choćby kraje Europy. Tego wymaga elementarna sprawiedliwość. Ale równocześnie oznacza to niezmierny wzrost zużycia energii. Eksperci wygłaszają różne opinie na temat tempa tego wzrostu. Można z nimi dyskutować, twierdzić, że wzrost będzie jeszcze szybszy lub nieco wolniejszy, ale zasadniczej prognozy to nie zmienia.
Obecnie około dwu trzecich całej zużywanej energii idzie na marne, czyli innymi słowy, na ogrzewanie Ziemi. Jeśli nie nastąpi jakiś wyraźny przełom technicny, po pewnym czasie (celowo używam słowa „pewnym”, bowiem w istniejącym zamęcie nie można określić dokładnie, czy będzie to 150, czy 200 lat) energia ogrzewająca Ziemię stanie się porównywalna (czyli niewiele mniejsza) z energią promieniowania słonecznego, ogrzewającego ziemskie oceany.
Wtedy może nastąpić katastrofa. Nikt nie jest w stanie przewidzieć, na ile możemy sobie pozwolić – to znaczy, kiedy sztuczne rozgrzewanie powierzchni Ziemi spowoduje poważniejsze perturbacje odwiecznego rytmu parowania wód i tworzenia chmur, z których woda w postaci deszczu lub śniegu trafia z powrotem do oceanów. Podgrzanie oceanów może także spowodować stopienie lodów Arktyki i Antarktydy, co wywołałoby groźne w skutkach podniesienie się poziomu oceanów. Gdyby niebo zasnuła dość gruba warstwa obłoków, wówczas temperatura powierzchni Ziemi zaczęłaby wzrastać coraz szybciej, jak w gigantycznej cieplarni, cały proces narastałby lawinowo i Bóg jeden wie, czym to wszystko mogłoby się skończyć.
Jak zapobiec katastrofie? Oto główne, zasadnicze pytanie dzisiejszej energetyki. W mniej lapidarnej formie pytanie to brzmi: Czy można znaleźć sposoby lepszego wykorzystania surowców energetycznych, skonstruować silniki, które nie będą marnotrawiły dostarczanej im energii i w ogóle skończyć z niegodną naszych czasów rozrzutnością? Mimo rzeczywistego, ogromnego postępu nauki i techniki wciąż korzystamy z nieznacznie tylko ulepszonych urządzeń, wynalezionych przez naszych pradziadów w epoce pary i elektryczności. Jak je ulepszyć jeszcze bardziej?
Aby to wyjaśnić, musimy cofnąć się o dwa wieki, by opowiedzieć o pewnym genialnym Francuzie, nazwiskiem Mikołaj Leonard Sadi Carnot (wym. Karno). Jego ojcem był znany matematyk i wojskowy, jeden z filarów Rewolucji Francuskiej, generał Lazare Nicolas Marguerite Carnot (cóż, liczba imion członków tej rodziny jest spora, ale i zasługi mieli tak wielkie, że warto te imiona wszystkie wymieniać). Generał Carnot, jeden z ludzi, którzy skazali na śmierć króla Ludwika XVI, przechodził zmienne koleje losu. Nawet musiał się na krótko ratować ucieczką z Francji do Niemiec, gdy jego koledzy rewolucjoniści postanowili obciąć mu głowę na skutecznym przyrządzie doktora Guillotine'a. Lecz już w niecały rok później wrócił, by swą wiedzą wojskową wesprzeć Napoleona – zyskał sobie nawet przydomek „organizatora zwycięstw”. Zorientowawszy się w zaborczych planach swego wodza, zagorzały rewolucjonista znów wycofał się z czynnego życia, lecz gdy szczęście odwróciło się od Cesarza Francuzów, objął komendę Antwerpii, której bronił jak lew. Po ostatniej klęsce opuścił Francję na zawsze – najpierw bawił w Warszawie, później osiadł w Magdeburgu.
Generał Carnot miał dwóch synów. W 1796 roku urodził się wspomniany geniusz, zwany Sadim oraz w 1801 roku - znany polityk Lazare Hipolite Carnot (jego syn został w 1887 roku prezydentem Reppubliki Francuskiej i zginął w 1894 roku, zasztyletowany w Lyonie przez anarchistę). Tak w wielkim skrócie wygląda saga rodu Carnotów.
Sadi Carnot chciał pójść w ślady ojca i zostać wojskowym, lecz po klęsce Napoleona miał niewiekie szanse na awansowanie, więc niejako z musu został naukowcem. Zresztą i tak był kapitanem saperów, czyli wojsk inżynieryjnych, skończył bowiem Szkołę Politechniczną w Paryżu, uczelnię, która kształciła zarówno inżynierów cywilnych, jak i wojskowych.
W roku 1824 Sadi Carnot opublikował jedyną w swym życiu pracę naukową – książeczkę zatytułowaną „Rozmyślanie nad siłą poruszającą ognia”. Był pierwszym, który wyjaśnił w niej teorię maszyny parowej, urządzenia, które mimo szerokiego już wówczas stosowania, działało na zasadzie nie rozumianej nawet przez najtęższe głowy. Dopiero w 10 lat później inny inżynier wojskowy, Emile Clapeyron (wym. Klapejrą) odkrył tę pracę i rozgłosił jej wyniki. Niestety, twórca nowej dziedziny fizyki, nauki o cieple, czyli termodynamiki, Sadi Carnot, nie żył już wówczas od dwóch lat – zmarł w wieku 36 lat na cholerę. Resztę pisanych przed śmiercią notatek opublikował w roku 1878 brat Sadiego, Hipolit. Okazało się wówczas, jak dobrze Sadi Carnot rozumiał zagadnienia termodynamiki. Wyprzedził on innych uczonych o całe dziesięciolecia. Jednakże miało to już znaczenie czysto historyczne, bowiem inni w ciągu tak długiego czasu doszli do podobnych wniosków.
Ale na czym polega genialność Carnota, cóż on takiego wykazał? Otóż właśnie to, że wszelkie urządzenia, które zamieniają energię cieplną na pracę mechaniczną, czyli na przykład maszyna parowa, mają ściśle ograniczoną wydajność. Innymi słowy, nienaruszalne prawa fizyki powodują, że znaczna część energii cieplnej jest w nich tracona. Wydajność maszyny nie zależy od tego, jakiej się użyje substancji, może to być para wody lub innej dowolnej cieczy, a największa możliwa do osiągnięcia wydajność i tak będzie zawsze zależeć tylko od różnicy temperatury pary wchodzącej do silnika i temperatury pary z niego wychodzącj. Fizycy powiadają, że jest to różnica temperatury kotła i chłodnicy.
Wydajność idealnej maszyny parowej można wyliczyć z bardzo prostego wzoru matematycznego, w którym występują właśnie tylko te dwie wielkości temperatury. Przy okazji warto wspomnieć, że w fizyce operuje się tak zwaną temperaturą bezwzględną, wyrażoną w stopniach Kelvina. Skala Kelvina różni się od stosowanej na co dzień skali Celsjusza tylko tym, że zero stopni Kelvina przypada przy -273,16 stopni Celsjusza. Jest to tak zwane zero bezwzględne, najniższa temperatura, jaka może w ogóle wystąpić. Zaś zero stopni Celsjusza odpowiada 273,16 stopni Kelvina. O próbach osiągnięcia zera bezwzględnego będzie jeszcze mowa, teraz jednak wróćmy do wydajności silników.
Zgodnie ze wzorem Carnota, idealny silnik parowy zasilany parą o temperaturze 200 stopni Celsjusza, czyli 247 stopni Kelvina, gdy temperatura chłodnicy (powietrza) wynosi 30 stopni Celsjusza, czyli 303 stopnie Kelvina – ma wydajność 36 procent. To znaczy, że nie można zbudować silnika parowego, który pracując przy różnicy temperatur marnowałby mniej niż niemal dwie trzecie ciepła uzyskiwanego ze spalania węgla pod kotłem. A przecież istniejące maszyny znacznie odbiegają od ideału. Po pierwsze, traci się sporo ciepła pod kotłem. Po drugie, w maszynie występują różne opory tarcia i temu podobne zjawiska. Wreszcie, temperatura wychodzącej, skroplonej pary jest zawsze wyższa niż temperatura powietrza. Dokładne obliczenia wykonane już przez Clapeyrona wykazały, że rzeczywista sprawność istniejących maszyn parowych wynosiła zaledwie nikły ułamek ich możliwości. Ale też cały postęp może doprowadzić techników do zwiększenia wydajności tylko o kilka procent. Więcej niż dziewięć dziesiątych dostarczonej energii jest przez maszynę parową bezpowrotnie tracona.
Podobne rozważania można przeprowadzić również dla silników spalinowych. Granica ich możliwości jest znacznie wyższa niż maszyn parowych, ale i tu nie można się spodziewać rewelacji. Większość ciepła spalanej benzyny czy oleju napędowego w silniku wysokoprężnym Diesela zawsze ulatuje w powietrze. Na tym tle znakomicie wypadają silniki elektryczne, które zależnie od swoich rozmiarów (im są większe, tym wydajność jest większa) osiągają sprawność od ponad 60 procent do ponad 90 procent. To już jest wynik zupełnie dobry i byłoby wspaniale, gdyby nie nikła wydajność elektrowni (przypominam, cieplnych około 40 procent, a jądrowych około 10 procent). Ale również poważne straty energii występują w liniach dostarczających elektryczność z elektrowni do odbiorców. Z jednej strony trzeba więc wkładać wysiłki w poprawę wydajności elektrowni, a z drugiej w zmniejszenie strat energii w liniach przesyłowych.
Niestety można mieć pewne obawy, czy uda się polepszyć elektrownie. Nawet przy zastosowaniu ogromnych turbin oraz generatorów i wykorzystaniu gorącej wody do ogrzewania mieszkań magiczna granica czterdziestu procent zostaje przekroczona zaledwie o dalszych kilka. Więcej niż połowa energii, czyli cennego węgla spalanego bezużytecznie wskutek ogrzewania Ziemi, przynosi nam wręcz szkody. Może tu pomóc tylko radykalne odejście od przestarzałej metody, polegającej na wykorzystywaniu pary wodnej. Jednakże, jak już pisałem w poprzednich rozdziałach, reaktory jądrowe i termojądrowe nie tylko nie poprawią tej trudnej sytuacji, lecz wręcz ją pogorszą. Kiedy zaś przekroczymy granicę bezpieczeństwa podgrzewania Ziemi – tego nie wie nikt. Wypada chyba powtórzyć jeszcze raz, że cała nasza nadzieja spoczywa w wykorzystaniu energii słonecznej. Wielu uczonych, między innymi znany profesor Błagonrawow ze Związku Radzieckiego, widzi jedyną szansę w przeniesieniu elektrowni w kosmos, czyli w realizacji projektów Glasera i O'Neilla, o których wspomniałem w jednym z rozdziałów. To, czego może nie przetrzymać krucha równowaga zjawisk na niewielkiej planecie, z pewnością nie zagrozi wielkiemu kosmosowi, w każdym razie jeszcze przez miliony lat nie uda nam się wywierać wpływu na tak wielką skalę.
Tymczasem wiele jeszcze można zrobić w dziedzinie przesyłania energii elektrycznej, choć wciągu niecałego stulecia i tak uczyniono już sporo. Kiedy Tomasz Alva Edison uruchomił swą pierwszą elektrownię, umieścił w niej prądnice wytwarzające prąd stały, taki sam, jaki płynie na przykład z bateryjki do latarki, tyle że o znacznie wyższym napięciu. Prądnice te wytwarzały prąd o napięciu takim samym, jakie dostarczano do domów, w których zainstalowano żarówki, czyli 110 woltów. Od razu też okazało się, że na dłuższych odległościach straty w przewodach były tak wielkie, iż żarówki ledwo się żarzyły. Nawet drut miedziany stawia opór przepływowi prądu elektrycznego i rozgrzewa się, a to przecież powoduje straty energii.
Prądu stałego nie można transformować, to znaczy nie można podwyższać jego napięcia, a później, po przesłaniu do odbiorcy, znów obniżyć. Takie postępowanie w pewnym stopniu zmniejszałoby straty, które przy wzroście napięcia są mniejsze. Edison, zagorzały zwolennik prądu stałego, usilnie zwalczał wszelkie próby wprowadzenia do użytku prądu zmiennego. W swoim czasie nawet zakazał prowadzenia badań nad prądem zmiennym swojemu pracownikowi Nicola Tesli, wielkiemu wynalazcy pochodzenia jugosłowiańskiego. Dopiero kiedy ci dwaj znakomici ludzie pokłócili się, zresztą o pieniądze, które Edison miał wypłacić Tesli i nie wypłacił, rozstali się jako wrogowie i do końca życia pozostali sobie niechętni.
Tesla, który opracował konstrukcję prądnic dla prądu zmiennego i transformatorów zmieniających napięcie (były to tylko dwa spośród licznych jego wynalazków), znalazł sobie protektora w osobie George'a Westinghouse'a (wym. Uestinghaus), zamożnego przemysłowca. Ten zapłacił mu ogromną sumę miliona dolarów za jego patenty i przystąpił do produkcji wszelkich urządzeń koniecznych dla wprowadzenia prądu zmiennego do powszechnego użytku. Mimo licznych przeszkód i trudnej walki z cieszącym się ogromnym autorytetem Edisonem (jeden z najciekawszych epizodów tej walki opisałem w książce „Siedem sensacji w nauce”; w wyniku głoszonej przez Edisona tezy o niebezpieczeństwie prądu zmiennego władze Nowego Jorku zastosowały ten prąd w pierwszej egzekucji skazańca na krześle elektrycznym, co znacznie zaszkodziło Westinghouse'owi w oczach opinii publicznej), zalety prądu zmiennego były na tyle oczywiste, że w ciągu niewielu lat zaczęto go stosować na całym świecie. Jeśli przesyła się przewodami prąd o napięciu podwyższonym na przykład do 5 tysięcy woltów, a później obniża jego napięcie do 220 woltów, wówczas przy przesyłaniu straty zmniejszają się aż kilkasetkrotnie w porównaniu z wynikłymi przy przekazywaniu prądu niskiego napięcia na tę samą odległość.
Już w 1891 roku, na Wszechświatowej Wystawie Elektrotechnicznej we Frankfurcie nad Menem podziw i zdumienie całego kręgu fachowców budziły urządzenia zaprezentowane przez młodego, zaledwie 29-letniego wynalazcę, Michała Doliwo-Dobrowolskiego. Ten syn urzędnika polskiego pochodzenia, zamieszkałego w Petersburgu, musiał studiować za granicami Rosji, bowiem przekonania polityczne odcięły mu drogę do nauki w kraju. Skończył więc uniwerstytet w Darmstadt w Niemczech i tam też podjął pracę. Na wystawie we Frankfurcie zaprezentował ni mniej ni więcej tylko 1000 żarówek i fontannę, której pompę obracał silnik elektryczny. Znane to już były urządzenia, więc gdzie spodziewać się zapowiadanej rewelacji? Otóż zarówno żarówki, jak i silnik pompy zasilała w prąd elektrownia, zbudowana na rzece odległej od Frankfurtu o 175 kilometrów.
Hydroelektrownia wytwarzała prąd o napięciu 95 woltów, który po przetransformowaniu na napięcie 16 tysięcy woltów docierał na teren Wystawy, a tu znów transformator zmieniał go na napięcie 110 woltów. Na całej trasie zaledwie czwarta część energii zamieniała się na ciepło. To stanowiło zarówno ogromny sukces wynalazcy, jak i dowód zalet prądu zmiennego, który wówczas właściwie opanował świat, wypierając skutecznie prąd stały – dziś stosuje się go wyłącznie w bardzo specyficznych urządzeniach, na przykład do zasilania motorów tramwajowych, bowiem łatwiej wtedy zmieniać prędkość pojazdu.
Następnym wielkim przewrotem w dziejach elektryczności stała się elektryfikacja Związku Radzieckiego. Wtedy to bowiem z inicjatywy samego Włodzimierza Ilicza Lenina zespół projektantów opracował w 1922 roku plan elektryfikacji, zawierający zupełnie nowy element. Otóż wszystkie elektrownie i odbiorców – fabryki, miasta i wsie, połączono w jeden system. Tak zresztą, jak się to obecnie wszędzie stosuje. System przede wszystkim umożliwia sterowanie dostawą energii elektrycznej z centralnego ośrodka dyspozycyjnego, tak że nawet awaria jednej elektrowni niekoniecznie powoduje brak prądu w okolicy. Linie przesyłowe dostarczają wówczas elektryczność z elektrowni dalszych, czy też z elektrowni szczytowo-pompowych. Zasadniczą częścią systemu są więc linie przesyłowe.
A któż był kierownikiem zespołu pracującego nad pierwszym w świecie systemem energetycznym? Inżynier Gleb Krzyżanowski, Polak z pochodzenia. Po przeszło pół wieku dziś już nikogo nie dziwi widok ogromnych konstrukcji stalowych masztów, na których rozpięta jest sieć grubych przewodów, jakby naczyń krwionośnych oplatających współczesne państwa. Płynie w nich prąd o napięciu znacznie większym niż w pierwszych liniach przesyłowych. Nierzadko przekracza się już 100 tysięcy woltów, a projektanci na serio mówią już o osiągnięciu 1,5 miliona woltów. Nic dziwnego, zużycie energii elektrycznej w naszych czasach osiągnęło już niesłychane rozmiary, a należy sądzić, że jeszcze znacznie wzrośnie – wymaga to znów zwiększania napięcia przesyłanego prądu.
Ale im większe napięcie, tym wyższe i potężniejsze muszą być wieże podtrzymujące przewody. Widziałem plany takiego słupa – ma on wysokość ponad 50 metrów i ramiona o szerokości około 60 metrów. Budowa wież będzie kosztowna, ale również spore sumy pochłonie wykupywanie ziemi pod budowę takiej drogi elektrycznej. Ze względów bowiem bezpieczeństwa pod przewodami tak wysokiego napięcia nie powinny znajdować się domy ani drogi. Jeśli przyjmiemy, że goły pas ziemi będzie miał szerokość taką jak ramiona wieży, czyli 60 metrów, wówczas jeden kilometr napowietrznej linii elektrycznej pochłonie aż 6 hektarów ziemi. Wydaje się, że w pewnych obszarach, zwłaszcza w pobliżu miast, gdzie ziemia jest najcenniejsza, budowa takich linii jest praktycznie niemożliwa. Wzrastające zapotrzebowanie na energię zmusi nas do budowy podziemnych linii przemysłowych, które umożliwiają prawidłowe funkcjonowanie systemów energetycznych.
Tu, niejako ubocznie, będzie można skorzystać ze wspaniałej sposobności zaoszczędzenia na dotychczasowych stratach tak wiele energii elektrycznej, ile dostarczyłoby jej wiele nowych elektrowni. Zagadnienie likwidacji strat w istniejących liniach przesyłowych to jedno z najważniejszych zadań energetyki. I to zadanie całkiem możliwe i realne. Później pozostanie już tylko zastąpienie elektrowni parowych elektrowniami słonecznymi i zniknie ze świata zmora przegrzewania Ziemi i zatruwania jej atmosfery gęstymi dymami. Optymistyczne spojrzenie na zagadnienie strat przy przesyłaniu elektryczności umożliwia cała stosunkowo nowa dziedzina fizyki, o której warto wspomnieć.
Aby uhonorować wszystkich, którzy wnieśli wkład do tej dziedziny, musimy rozpocząć od dwóch uczonych polskich, a mianowicie Zygmunta Wróblewskiego i Karola Olszewskiego. Byli oni pierwszymi ludźmi, którym powiodło się skroplenie gazów – tlenu i azotu. To ważne wydarzenie z 1883 roku stanowiło narodziny nowej dziedziny nauki i techniki, kriogeniki (po grecku krios znaczy mróz). Do skraplania gazów trzeba bowiem osiągnąć niezwykle niską temperaturę. Na przykład hel trzeba oziębić aż do 4,2 stopnia Kelvina, czyli -269 stopni Celsjusza. Ta sztuka udała się dopiero znakomitemu Holendrowi, profesorowi Haike Kamerlingh-Onnesowi i to dopiero w roku 1908. Lecz wydarzeniem, które na długo zbulwersowało świat nauki, było dokonane w trzy lata później odkrycie nadprzewodnictwa.
Kamerlingh-Onnes badał zachowanie się i właściwości fizyczne różnych ciał oziębianych do coraz niższej temperatury, aż do najniższej osiągalnej wówczas temperatury ciekłego helu. Pewnego dnia na warsztat uczonego trafiła połyskliwa rtęć. Kamerlingh-Onnes badał zmiany oporu elektrycznego rtęci przy obniżaniu jej temperatury. Ale po osiągnięciu pewnej temperatury opór wręcz znikał, przestawał istnieć. Było to prawdziwe zaskoczenie. Początkowo nikt nie chciał w to zjawisko wierzyć, nie mieściło się ono w uporządkowanym gmachu wiedzy fizycznej. A jednak była to prawda i trzeba było ów gmach niejako przebudować. Swoją drogą trochę to potrwało. Pierwszą w miarę zadawalającą teorię nadprzewodnictwa, czyli znikania oporu elektrycznego metali w bardzo niskiej temperaturze, opracowano dopiero w 46 lat po odkryciu samego zjawiska.
Wykorzystanie nadprzewodnictwa w przesyłaniu energii elektrycznej ma same zalety. Jeśli przewodnik nie ma oporu, tzn. jest nadprzewodnikiem, wówczas nie ma w nim strat energii. Okazało się, że nadprzewodników jest sporo, jednak wszystkie mają jedną wadę – trzeba je oziębić do bardzo niskiej temperatury, a to słono kosztuje. Ponadto są to najczęściej stopy, z których trudno formować druty – są kruche i niezbyt plastyczne. Ale po wielu latach uczonym udało się zbudować różne urządzenia wykorzystujące zjawisko nadprzewodnictwa. W tej chwili toczy się walka o znalezienie takiego nadprzewodnika, który uzyskiwałby swe cudowne właściwości w temperaturze ciekłego wodoru, czyli jak na nadprzewodnictwo dość wysokiej. Ale gdyby się ta sztuczka udała, wówczas można by równocześnie przesyłać do miast pojedyńczym przewodem rurowym elektryczność i wodór do spalania zamiast gazu i benzyny. Korzyści byłyby ogromne – trzeba tylko znaleźć taki materiał nadprzewodzący. A badania trwają...
Wśród licznych instytutów zajmujących się badaniami nadprzewodników szczególnie poważnymi osiągnięciami może się poszczycić Międzynarodowe Laboratorium Silnych Pól Magnetycznych i Niskich Temperatur we Wrocławiu. Jest to unikalna placówka naukowa, założona przez cztery Akademie Nauk (Bułgarii, NRD, ZSRR i Polski), dzięki staraniom profesora Włodzimierza Trzebiatowskiego, prezesa Polskiej Akademii Nauk. Od wiosny 1968 roku w laboratorium założonym w budynku dawnej zajezdni tramwajowej (dlatego w zajezdni, że można było wykorzystać przetwornice zmieniające prąd zmienny na stały, potrzebny w badaniach magnetycznych właściwości nadprzewodników) stale przebywa kilkudziesięciu uczonych z czterech krajów i razem prowadzą badania na wspólnej aparaturze. Dzięki temu nie tylko wszyscy czynią znaczne oszczędności na sprzęcie, ale możliwa jest bezpośrednia wymiana pomysłów i poglądów w czasie pracy, co w fizyce ma znaczenie zasadnicze.
We Wrocławiu działa również Instytut Niskich Temperatur, a także zakłady doświadczalne KRIOPAN. Nad wszystkim czuwa profesor Trzebiatowski, który osobiście koordynuje wszelkie prace zmierzające do opanowania technicznego ciekłego helu i wykorzystania zjawiska nadprzewodnictwa. Zresztą prace te zyskały w naszym kraju szczególną rangę - zostały włączone do tak zwanych „tematów węzłowych”, czyli znajdują się wśród kilkudziesięciu najważniejszych zadań, jakie stoją przed naszą nauką i techniką.
Czy tylko świadczy to o wysokiej randze, jaką obdarzamy oszczędności energii elektrycznej, uzyskiwane poprzez wykorzystanie zjawiska nadprzewodnictwa? Mamy wszelkie szanse, by stać się europejskim potentatem w dziedzinie techniki niskotemperaturowej, czyli kriogeniki. Przed kilkoma laty okazało się, że złoża gazu ziemnego w Odolanowie, miasteczku niezbyt oddalonym od Wrocławia, zawierają nadspodziewanie dużą domieszkę helu. Prawdę mówiąc domieszka ta nie tylko stawia pod znakiem zapytania celowość wykorzystywania gazu ziemnego – będziemy raczej wykorzystywać tę domieszkę helu – ale także stawia nasz kraj na czele Europy. Jedynie złoża amerykańskie są bogatsze. A hel to podstawowy surowiec kriogeniki. Tylko dysponując tym gazem można prowadzić badania naukowe i poważnie myśleć o zastosowaniach technicznych kriotechniki, a więc między innymi i nadprzewodnictwa.
Wydaje się, że już bardzo niedługo Odolanów stanie się głównym dostawcą helu dla całej Europy. A zapotrzebowanie na ten gaz będzie ogromne. Wszyscy chyba zechcą skorzystać z możliwości zaoszczędzenia energii elektrycznej przez ochłodzenie przewodów. Mało kto ma zatem równie poważne powody do optymizmu jak my. Dysponujemy tak wielkimi zasobami helu, że właściwie nie musimy się obawiać o przyszłość naszej energetyki.
Ale czy owa przyszłość opiera się wyłącznie na zjawisku nadprzewodnictwa, występującym przy zamrażaniu metali do temperatury bliskiej zeru bezwzględnemu? Oto pytanie, które przed niespełna 10 laty wkroczyło na łamy prasy fachowej. Najpierw znany radziecki fizyk teoretyk W. Ginzburg napisał, że w świetle istniejącej teorii nadprzewodnictwa nie można wykluczyć, iż zjawisko tobędzie występować również w wysokiej temperaturze, zbliżonej do temperatury pokojowej, jeśli tylko uda się znaleźć odpowiednią substancję. Ginzburg proponował zajęcie się cienkimi warstewkami przewodników, ciasno upakowanymi pomiędzy dwie grubsze warstwy izolatora.
Prawdziwym apostołem nadprzewodnictwa wysokotemperaturowego jest profesor W. A. Little z Uniwerstytetu Stanford w Stanach Zjednoczonych. Od dobrych dziesięciu lat walczy on z opornymi cząsteczkami chemicznymi, tak skomplikowanymi, że nawet nie będę próbował podawać ich nazw i wzorów. Profesor Little uważa, że jeśli w organizmach istot żywych, a więc na przykład człowieka, istnieje niezwykły komputer – mózg, który działa z olbrzymią sprawnością i szybkością, to najwyraźniej zawiera on elementy nadprzewodzące, skoro nie przepala się, mimo iż płynie w nim prąd wystarczający do wywołania katastrofy. Owe elementy nadprzewodzące, o nie zbadanej jeszcze dokładnie naturze, muszą chyba istnieć, a jeśli potrafiłą je skonstruować sama natura, czemu nie mielibyśmy i my skorzystać z tych wzorów. Wielu uczonych z różnych labolatoriów próbuje znaleźć owe związki chemiczne, które umożliwią przesyłanie prądu elektrycznego bez żadnych strat i bez konieczności dość kosztownego zamrażania przewodów wykonanych z dość drogich metali – najlepsze znane dziś nadprzewodniki to stopy niobu i germanu.
Wydawałoby się, że mając takie zasoby helu, czyli możliwość zamrożenia wszystkich przewodów, które oplatają nasz kraj, nie powinniśmy zwracać uwagi na możliwości dziwnych związków, których badaniem zajmuje się profesor Little czy jego koledzy ze Związku Radzieckiego, profesorowie Szczegolew, Hidekel, Larkin i wielu innych. Jednakże, jak już powiedziałem, samo zamrażanie jest procesem dość kosztownym. Trzeba zbudować skomplikowane rury, podobne do termosów, w których znalazłyby się przewody z drogich metali, zanurzone w ciekłym helu. Aczkolwiek wydaje się to dziś jedyną możliwością przesyłania energii elektrycznej, jest jednak jeszcze „w powijakach” i sporo wody czy raczej prądu upłynie, zanim zaczniemy czerpać energię z oszczędności, z zamrożenia przewodów.
Dlatego też chciałbym przedstawić w tym opowiadaniu profesora Kazimierza Antonowicza z Uniwerstytetu Mikołaja Kopernika w Toruniu. Profesor Antonowicz od paru lat zajmuje się badaniami cienkich warstewek węgla, zwykłego węgla, tyle że bardzo czystego. Wszelkie znaki wskazują na to, że udało mu się zaobserwować zjawisko nadprzewodnictwa w węglu o temperaturze pokojowej. Ciekawe, czy uda mu się to dokładnie opracować i podać receptę na produkcję nadprzewodników z węgla. To przecież jest warunek możliwości ich wykorzystania na skalę techniczną.
Możemy więc chyba spać spokojni o naszą przyszłośc energetyczną. Nie tylko mamy najkorzystniejsze w Europie warunki do zakładania elektrowni szczytowo-pompowych, magazynujących energię elektryczną, ale również możemy stać się potentatem w dziedzinie oszczędności energii. Przy wykorzystaniu naszych zasobów helu, staniemy się gigantem kriogeniki, a w zanadrzu mamy jeszcze badania profesora Antonowicza, oczywiście jeśli ich wyniki okażą się pomyślne. W każdym razie warto wspomnieć, że pierwszy artykuł profesora w słynnym angielskim czasopiśmie naukowym „Nature” wywołał niemałą sensację w światku naukowców.
Na razie, zanim to nastąpi, chciałbym, aby wszyscy zapamiętali, że każda żarówka paląca się bez potrzeby, każdy samochód, który na postoju ma włączony silnik – powoduje nadmierne zużywanie energii, a przy obecnym stanie urządzeń, które nam jej dostarczają, również podgrzanie Ziemi o jeden maleńki ułamek stopnia. Ale gdy się wszystko zsumuje, może się okazać znacznie prędzej niż dziś przypuszczamy, że trzeba ograniczać owo zużycie energii, że wymagają tego względy naszego bezpieczeństwa. Dlatego trzeba chyba zastanowić się, jak wiele energii można jeszcze uzyskać przez likwidację marnotrawstwa.

*

Dobiegliśmy więc końca przeglądu energetycznych perspektyw świata. Pora odpowiedzieć jednoznacznie na pytanie, czy możliwe będzie zaspokojenie ogromnego zapotrzebowania na energię, które stale rośnie w zawrotnym tempie. Coż, możliwości są tak bogate, że chyba nie grozi nam powrót do manufaktur, omnibusów i pochodni. Ale musimy spełnić jeden warunek, a mianowicie korzystać ze wszystkich dostępnych źródeł energii. Tam gdzie silnie operuje słońce, w pierwszym rzędzie należy budować elektrownie słoneczne; jeśli wieją silne wiatry – trzeba stawiać wiatraki; na wybrzeżach mórz i oceanów należy zaprzęgnąć do pracy pływy i prądy. Wreszcie w systemie zdobywania energii nie powinno zabraknąć elektrowni jądrowych i, jeśli to będzie możliwe, termojądrowych.
Musimy zdać sobie sprawę z nierealności wszelkich prób znalezienia pojedyńczego, uniwersalnego źródła energii - jedynie elektrownie słoneczne mogłyby pretendować do tego miana, lecz na rozwiązania w skali kosmicznej trzeba będzie jeszcze długo poczekać. Tylko wtedy będziemy mogli dalej spokojnie zużywać energię, jeśli z równą uwagą potraktujemy wszelkie, jakże liczne projekty zdobywania nowych jej źródeł.
“Zacznij tam gdzie jesteś, użyj tego co masz, zrób co możesz”
Nie negocjuje na rozsądnych warunkach z ludźmi, którzy zamierzają mnie pozbawić rozsądku.


Jeśli widzisz uszkodzony post - kliknij "Zgłoś do moderatora". Dziekuje