Struktura mikroświata
Dziś nikt rozsądny nie kwestionuje istnienia atomów. Coraz lepiej znamy ich budowę, właściwości oraz to, jak wchodzą między sobą w interakcje, tworząc cząsteczki. Historia atomizmu obfitowała jednak w rozmaite zakręty i ślepe uliczki.
Aby prześledzić ewolucję koncepcji atomu, musimy się cofnąć do starożytności. Wszystko zaczęło się od przemyśleń o tym, co się będzie działo, jeśli zaczniemy dzielić jakiś przedmiot materialny, np. kamień. Czy nastąpi taki moment, że już się dalej nie da podzielić, czy też proces ten można kontynuować bez końca? Pierwszym znanym filozofem starożytnym, który rozważał te sprawy (jego poglądy znamy w zasadzie tylko pośrednio, z pism innych greckich filozofów), był żyjący w V w. p.n.e. Leucyp (Leukippos) z Miletu.
Leucyp uważał, że istnieje kres dzielenia, a materia składa się z niewidocznych gołym okiem bardzo małych cząstek, które są w ciągłym ruchu i to właśnie ten ruch powoduje wszystkie przemiany, które możemy dostrzec. Ponad dwa tysiące lat później wielki fizyk, Richard Feynman, zapytany o to, jak można by streścić w jednym zdaniu najważniejszą myśl naukową, odpowiedział: „wszystko zbudowane jest z atomów, stale poruszających się bardzo małych cząstek, które przyciągają się, jeśli są od siebie oddalone, a odpychają, gdy usiłujemy wcisnąć jedną w drugą”. Leucyp naprawdę mógłby być z siebie dumny.
Uczniem Leucypa był Demokryt z Abdery, który twórczo rozwijał poglądy swojego mistrza. To jemu zawdzięczamy nazwę atom (greckie a-tomos – niepodzielny), którą posługujemy się do dziś, chociaż teraz dobrze wiemy, że atomy mają strukturę wewnętrzną i dają się dzielić.
A jednak się dzielą
Przez ponad 2 tysiące lat idee Leucypa i Demokryta były trwałe, ale brakowało im jednoznacznego potwierdzenia doświadczalnego. Zmieniło się to na przełomie XVIII i XIX w. za sprawą angielskiego fizyka i chemika, Johna Daltona, którego dziś uważamy za ojca współczesnej teorii atomistycznej. Swoje poglądy wyłożył w dziele „A New System of Chemical Philosophy” (Nowy system filozofii chemicznej) opublikowanym w 1808 r. Dalton nie rozważał oczywiście struktury wewnętrznej atomów, ponieważ nadal brakowało narzędzi do badań eksperymentalnych. Jednak to on opisał jako pierwszy różnice pomiędzy pierwiastkami (składają się z identycznych atomów), jak też uznał, że cząsteczki składają się z niewielkiej liczby atomów różnych pierwiastków. On także jest autorem prawa stosunków wielokrotnych, określającego, w jakich proporcjach łączą się z sobą atomy tych pierwiastków, które mogą tworzyć razem więcej niż jeden związek.
Pod koniec XIX w. stworzony został układ okresowy pierwiastków (przez Dymitra Mendelejewa), ale przede wszystkim konstruowano coraz więcej narzędzi badawczych, wykorzystywanych do badań atomów. Jednocześnie zauważono też, że atomy niekoniecznie muszą być tak trwałe, jak sądzono dotychczas. W 1896 r. Henri Becquerel odkrył zjawisko promieniotwórczości naturalnej. Intensywne badania w tej dziedzinie rozpoczęła Maria Skłodowska-Curie razem ze swoim mężem, odkrywając niejako przy okazji dwa pierwiastki – polon i rad. Kilkadziesiąt lat później to ich córka, Irena, wraz z mężem, Frederikiem Joliot dokona odkrycia promieniotwórczości sztucznej. Jest to promieniotwórczość uzyskiwana przez napromieniowanie trwałych izotopów neutronami lub cząstki alfa, w wyniku której powstają zupełnie nowe jądra radioaktywne. Dziś szeroko stosujemy te metody do otrzymywania izotopów wykorzystywanych m.in. w diagnostyce i terapii medycznej.
Wróćmy jednak do przełomu XIX i XX w. W 1897 r. J.J. Thomson odkrył elektrony i stwierdził, że muszą być one składnikami atomów. To on jako pierwszy zaproponował model budowy atomu, nazwany później modelem „ciasta z rodzynkami” (ang. plum pudding). Wiedząc, że atom jest obojętny elektrycznie, ale jednocześnie musi zawierać elektrony, uznał, że jest to naładowana dodatnio kula wewnątrz której tkwią ujemne elektrony – podobnie jak w rodzynki cieście. Dość szybko okazało się jednak, że choć taki model można opisać matematycznie w przypadku, gdy jest w nim kilka elektronów, nie da się tego zrobić dla cięższych atomów, w których tych elektronów jest kilkadziesiąt. Dlatego też model Thomsona przetrwał zaledwie kilkanaście lat.
Zaskakujące odbicie
W 1909 r. Ernst Marsden oraz Hans Geiger (tak, ten od licznika), pracując pod kierunkiem Ernesta Rutherforda, wykonali słynny eksperyment, w którym cienka folia złota była bombardowana cząstkami alfa (jądrami helu). Wyniki doświadczeń były szokujące. Okazało się bowiem, że pewna część cząstek (mniej więcej jedna na 8 tys., jak oszacowano) ulegała odbiciu i wracała w kierunku źródła. Rutherford skomentował to następująco: „To było chyba najbardziej niewiarygodne zdarzenie w moim życiu. To tak, jakby pocisk artyleryjski wielkiego kalibru, wystrzelony w kierunku papierowej serwetki, odbił się od niej i powrócił do strzelającego.”
Analizując uzyskane wyniki, uczony doszedł do wniosku, że atomy złota muszą składać się z bardzo małego, naładowanego jądra otoczonego elektronami, które są zbyt małe, aby oddziaływać z bombardującymi cząstkami alfa. Atom to w większości pusta przestrzeń. Dlatego też większość cząstek alfa bez problemu przechodzi przez folię po linii prostej, natomiast część ulega lekkiemu odchyleniu, które wynika ze zwykłego oddziaływania elektrostatycznego dwóch ładunków dodatnich. Jednak w przypadku, gdy cząstka trafi w jądro, ulega odbiciu w kierunku źródła. Dziś już wiemy, że średnica jądra stanowi ok. 1/100000 średnicy atomu i to w nim skupia się praktycznie cała masa.
Model atomu Rutherforda był pierwszym, w którym atom składał się z wielu cząstek, nazwanych potem elementarnymi. Trzeba jednak podkreślić, że nie wyjaśniał on wielu istotnych kwestii, a przede wszystkim trwałości atomu. Gdyby był on zbudowany tak, jak to postulował Rutherford, oddziaływanie elektrostatyczne dodatnio naładowanego jądra i krążących wokół niego ujemnych elektronów bardzo szybko spowodowałoby ich przyciągnięcie przez jądro. Ten problem wymagał zupełnie nowego podejścia i rozwiązania.
Bohr i mechanika kwantowa
W drugiej dekadzie XX w. badania nad atomem ruszyły już pełną parą. W 1913 r. uczeń Rutherforda, radiochemik Frederick Soddy, zasugerował, że mogą istnieć odmiany tego samego pierwiastka różniące się liczbą masową. Nazwał je izotopami. Jeszcze w tym samym roku znaleziono dowód eksperymentalny na ich istnienie, czego dokonał Joseph John Thompson, badając jony neonu.
Jednocześnie trwały prace teoretyczne nad udoskonaleniem modelu Rutherforda. W 1913 r. Niels Bohr zaprezentował swój model atomu, w którym elektrony krążyły wokół jądra atomowego tylko po określonych orbitach. Powstał on jako wyjaśnienie znanych już od kilkudziesięciu lat tzw. widm emisyjnych i absorpcyjnych konkretnych pierwiastków. Dane eksperymentalne były w zasięgu ręki, niezbędny był ktoś, kto potrafiłby przetworzyć je w postać matematyczną. Tworząc swój model Bohr wykorzystał rodzącą się właśnie teorię kwantową, sformułowaną na początku XX w. przez Maksa Plancka. Zgodnie z pierwszym postulatem Bohra elektrony w atomie nie mogą znajdować się w dowolnym miejscu, ale muszą posiadać określoną wartość energii. Kolejnym postulatem (znanym potem jako trzeci) było to, że przejście z jednego poziomu na inny wymaga albo pochłonięcia określonej porcji (kwantu) energii, albo też jego emisję. Dlatego też każdy rodzaj atomu absorbuje i emituje światło o określonych długościach fali, które możemy bez problemu rejestrować i analizować (tym właśnie są wspomniane widma emisyjne i absorpcyjne)
Model Bohra stał się podstawą teorii wiązań chemicznych, stworzonej w 1916 r. przez Gilberta Lewisa i zaprezentowanej w książce „Atom and the molecule” (Atom i cząsteczka). To jemu zawdzięczamy pojęcie wiązania kowalencyjnego i stwierdzenie, że wiązanie powstaje w wyniku uwspólnienia elektronów walencyjnych pochodzących od dwóch atomów.
Niestety, model Bohra, choć całkiem użyteczny, nadal nie rozwiązywał podstawowego problemu, czyli stabilności atomu. Szybko bowiem zauważono, że elektron poruszający się po kołowej orbicie wokół jądra, zgodnie z prawami fizyki musiałby w sposób ciągły emitować promieniowanie. To powodowałoby spadek jego energii, a więc musiałby po torze spiralnym spadać na jądro. Stąd też kolejny postulat Bohra, znany dziś jako drugi: elektron znajdujący się na orbicie stacjonarnej nie zachowuje się w sposób klasyczny i nie emituje promieniowania ciągłego, tylko w kwantach (niepodzielnych porcjach). Brak było jednak jednoznacznego wyjaśnienia, dlaczego tak ma być. Koniecznie było znalezienie wyjścia z tego impasu.
Intuicyjne połączenie mechaniki klasycznej oraz kwantowej, dokonane przez Bohra, pozwoliło na dopracowanie modelu atomu. W 1924 r. Louis de Broglie zaproponował koncepcję fal materii, zgodnie z którą każdy obiekt materialny można opisać jako falę. Bazując na tym modelu, Erwin Schroedinger przedstawił w 1926 r. czysto matematyczny model atomu, w którym elektrony opisywane były jako tzw. fale stojące. Ten model idealnie zgadzał się z poziomami energetycznymi z modelu Bohra oraz z rozmaitymi danymi eksperymentalnymi. Co najważniejsze – porzucenie idei trwałych orbit, po których krążą elektrony, likwidowało wspomniany problem spadania ich na jądro. Elektron przestał być traktowany jako mała kulka materialna krążąca wokół jądra w taki sposób, jak planety obiegają Słońce (choć niestety do dziś naucza się tego w szkołach na całym świecie). Zamiast tego zaczęto posługiwać się pojęciem chmury elektronowej, a w miejsce danych orbit Bohra mówi się o obszarze, w którym prawdopodobieństwo znalezienia elektronu jest największe.
Tak powstał model atomu, który z pewnymi modyfikacjami obowiązuje do dziś i sprawdza się w praktyce. Na atom można patrzeć z różnych punków widzenia. Fizycy jądrowi oraz radiochemicy zajmują się przede wszystkim tym, co się dzieje z jądrem atomu. Z kolei chemików interesują głównie elektrony, w tym najbardziej te, które są najbardziej oddalone od jądra, czyli tzw. elektrony walencyjne. To one są bowiem odpowiedzialne za łączenie atomów, czyli tworzenie wiązań chemicznych.
Modele jądra atomowego
Równolegle do badań teoretycznych oraz doświadczalnych związanych z badaniami struktury atomu jako całości, trwały intensywne prace badawcze dotyczące jądra atomowego. Na przełomie pierwszej i drugiej dekady XX w. uczeni wiedzieli już, że jądro składa się z elementów dodatnich (protony), ale dopiero w 1932 r. James Chadwick odkrył obojętną cząstkę elementarną o masie zbliżonej do protonu. Nazwał ją neutronem. Obecne w jądrze atomowym protony i neutrony noszą wspólną nazwę nukleonów. Odkrycie dokonane przez Chadwicka pozwoliło na wyjaśnienie istnienia izotopów, czyli atomów, które w jądrze mają tę samą liczbę protonów, ale różnią się liczbą neutronów.
Od tego momentu fizycy zaczęli tworzyć modele budowy samego jądra atomowego. Historycznie pierwszy był model kroplowy, zaproponowany przez Georga Gamowa, a następnie rozwijany przez Bohra oraz Johna Wheelera. W modelu tym protony i neutrony zachowują się w jądrze jak cząsteczki w cieczy. Nukleony oddziałują z sobą dzięki potężnym krótkodystansowym siłom jądrowym, dzięki czemu jądro ma kształt kuli – mamy tu analogię do swobodnej kropli wody, której kształt jest zdeterminowany występowaniem napięcia powierzchniowego. Siły jądrowe są wielokrotnie większe niż siła odpychania elektromagnetycznego. Dlatego też jądro, w którym skupionych jest wiele dodatnio naładowanych protonów, nie rozpada się. Model kroplowy był użyteczny dość długo, ponieważ wyjaśniał wiele fizycznych właściwości jąder. Pozwalał on także na względnie dobre wyjaśnienie odkrytego w 1938 r. rozszczepienia jądra uranu. Uznawano, że dostarczenie energii (przy pomocy neutronu wnikającego w jądro) powoduje drgania kropli, które w skrajnym wypadku mogą spowodować jej rozerwanie. Mówiąc w sposób uproszczony – dodatkowa energia powoduje pokonanie napięcia powierzchniowego i kropla dzieli się na dwie mniejsze.
Po jakimś czasie zauważono jednak, że istnieją pewne jądra wykazujące się wyjątkową stabilnością, czego bardzo prosty, klasyczny model kroplowy w żaden sposób nie był w stanie wyjaśnić. Dlatego też stworzono kolejny model, zwany powłokowym. Jedną z jego autorek była nieco zapomniana dziś (bardzo niesłusznie), urodzona w Katowicach w 1906 r. Maria Goeppert-Mayer – jedna z dwóch kobiet, które otrzymały nagrodę Nobla z fizyki (obok naszej Marii Skłodowskiej).
Model powłokowy przypomina w jakimś sensie pierwotny model atomu Bohra. Postuluje się w nim istnienie swobodnych nukleonów zapełniających kolejne powłoki wewnątrz jądra aż do osiągnięcia konkretnej liczby, zwanej liczbą magiczną (2, 8, 20, 28, 50…). Jądra, w których zarówno liczba protonów, jak też neutronów jest magiczna, nazywane są jądrami podwójnie magicznymi. Są one wyjątkowo trwałe. Należą do nich m.in. hel-4 (wspominana już cząstka alfa), tlen-16 czy też ołów-208.
Jeszcze w latach 70. XX w. wydawało się, że model powłokowy rozwiązuje praktycznie wszystkie znane problemy, ale fizycy jądrowi pracują nad kolejnymi, które będą jeszcze bardziej spójne. Znane są już m.in. model oddziałujących bozonów czy też model kolektywny, jednak ich omówienie znacznie wykracza poza ramy tekstu popularnonaukowego.
Jak pamiętamy, na przełomie XIX i XX w. stwierdzono istnienie jąder atomowych, które nie są całkowicie trwałe. Dziś wiemy, że tak naprawdę większość znanych izotopów można uznać za radioaktywne. Niektóre z nich rozpadają się w ułamkach sekundy, inne natomiast mogą trwać miliardy lat. Przemiany promieniotwórcze badano już na początku XX w., równolegle rozwijała się teoria opisująca rozpad promieniotwórczy. Nadal jednak uznawano atom za względnie trwały. Poglądy te uległy dramatycznej zmianie w roku 1938, gdy Hahn i Strassmann wykonali kluczowe doświadczenia i wykazali, że jądro uranu można rozszczepić na dwa znacznie mniejsze jądra, przy czym w takim procesie uwalniają się swobodne neutrony oraz spora ilość energii. To odkrycie stało się podstawą zastosowań cywilnych (energetyka jądrowa), ale także militarnych (bomba jądrowa). Było ono dość przypadkowe. Uczeni, bombardując atomy uranu neutronami, planowali uzyskać nowy pierwiastek o liczbie atomowej 93. Okazało się, że w warunkach tego doświadczenia neutron zamiast pozostać wewnątrz jądra, powodował jego „rozłupanie” na dwa mniejsze fragmenty.
Czego ciągle nie wiemy?
Wątpliwe, by jakikolwiek fizyk lub chemik odważył się powiedzieć, że wyjaśniono już wszystkie problemy związane z budową atomu jako całości, jak też struktury jądra atomowego. Kiedyś uważano atom za niepodzielny, potem stwierdzono, że jednak ma strukturę wewnętrzną. Uczeni popełnili kolejny błąd, nazywając cząstki takie jak proton czy neutron elementarnymi. Okazało się bowiem, że i one mają swoją strukturę wewnętrzną i składają się z jeszcze bardziej elementarnych kwarków. Dziś nikt już nie powie, że to na pewno kres dzielenia. W latach 70. i 80. XX w. dość popularna wśród fizyków była teoria subkwarków, zwanych czasem rishonami. Równolegle rozwijano teorię preonów, które także miały być hipotetycznymi składnikami kwarków. Obie w zasadzie zostały zarzucone, gdy pojawiły się teorie strun, a później, na przełomie XX i XXI w. M-teoria. Podobnie jak kiedyś rozważano dualizm korpuskularno-falowy, tak tutaj teoretycy stwierdzają, że cząstki najbardziej elementarne nie istnieją jako konkretne obiekty punktowe, ale mają charakter drgających strun o niezwykle małych rozmiarach. Większość z tych teorii wymaga istnienia więcej niż czterech wymiarów czasoprzestrzennych – od 10 do 26. Nie jesteśmy jednak w stanie zaobserwować tych dodatkowych wymiarów, ponieważ są one „zwinięte”. Dziś trudno powiedzieć, w jakim kierunku pójdą rozważania teoretyków. Podstawowym problemem teorii strun oraz M-teorii jest to, że nie dysponujemy metodami ich doświadczalnej weryfikacji, ponieważ ograniczają nas twarde prawa fizyki.
Wydawałoby się, że nieco łatwiej mają chemicy, którzy zajmują się w zasadzie elektronami walencyjnymi w atomach, bo to one decydują o powstawaniu wiązań chemicznych. Znana choćby ze szkoły reguła oktetu nadal obowiązuje, choć na przykład gazy szlachetne, które uznawano za niezdolne do tworzenia związków chemicznych, okazały się jednak reaktywne. Co więcej, niektóre z tych związków można bez większych problemów uzyskać w stanie krystalicznym i wykorzystywać w syntezie chemicznej. Teoretycy zajmujący się budową atomu muszą się także mierzyć z wyjaśnieniem takich ciekawostek, jak np. istnienie wiązania pięciokrotnego(!) pomiędzy atomami chromu czy też molibdenu. Klasyczne wyjaśnienia w tym przypadku zawodzą, a jednak konkretne związki istnieją o znanej strukturze. Podobna sytuacja dotyczy wyjątkowo rzadkich wiązań trójelektronowych – zaś w szkole czy na studiach wpajano nam żelazną regułę, że wiązanie tworzą zawsze dwa elektrony.
Księga zatytułowana „Struktura atomu” pozostanie jeszcze długo otwarta i pojawi się w niej sporo nowych wpisów.
Obrazowanie wiązania
Obecnie dysponujemy możliwością obserwacji atomów. Na przełomie lat 70. i 80. XX w. skonstruowano skaningowy mikroskop tunelowy. Jest to specjalistyczne urządzenie wykorzystujące zjawisko kwantowe zwane tunelowaniem.
Polega ono na tym, że cząstka elementarna przenika przez barierę potencjału, która ma wyższą energię niż cząstka. Mówiąc obrazowo: jeśli dziecko próbuje przerzucić piłkę przez wysoki płot, a ma zbyt mało siły, nie da rady. Gdyby jednak na poziomie makro działał efekt tunelowy, piłka znalazłaby się jednak po drugiej stronie, „przenikając” przez płot. W skaningowym mikroskopie tunelowaniu ulegają elektrony wędrujące z elektrody skanera do próbki. Analiza komputerowa prądów pozwala na stworzenie obrazu badanej powierzchni, a co za tym idzie, dostrzeżenie pojedynczych atomów.
Niedługo później zbudowano inne urządzenie – mikroskop sił atomowych. Jest on zbliżony budową do mikroskopu tunelowego, ale w tym przypadku skaner bada siły magnetyczne, elektrostatyczne oraz międzyatomowe. Obydwa te urządzenia pozwalają na bardzo dokładną obserwację świata na poziomie nano.