Fizycznych metod badania struktury makrocząsteczek jest kilka. Poniżej przedstawiono ich krótką ich charakterystykę wraz z podstawami fizycznymi każdej z metod.

1. Rentgenografia.

Promienie rentgenowskie otrzymuje się za pomocą lamp rentgenowskich. Ich działanie opiera się na zjawisku termicznej emisji elektronów w polu elektrycznym o dużej różnicy potencjałów. Wolframowa spirala umieszczona w próżniowej rurce stanowi katodę. Podłączona jest ona do źródła wysokiego napięcia. W przestrzeni między elektrodami dochodzi do wytworzenia się pola elektrycznego o dużej różnicy potencjałów. Doprowadzona do żarzenia katoda emituje elektrony, które pod wpływem różnicy potencjałów kierują się do anody . Ma ona postać tarczy. Pod wpływem tego strumienia elektronów dochodzi do wzbudzenia atomów tarczy. Atomy te przechodząc do stanu normalnego emitują promieniowanie charakterystyczne zwane promieniowaniem rentgenowskim. Promieniowanie rentgenowskie opuszcza lampę przez specjalne okienka wykonane np. z folii aluminiowej.

Charakter otrzymanego widma rentgenowskiego uzależniony jest od materiału, z którego wykonana została anoda oraz od przyłożonego napięcia. Jeśli dane promieniowanie ma być stosowane do analizy strukturalnej wówczas wykorzystuje się promieniowanie monochromatyczne. Zanim wiązka padnie na badany przedmiot przechodzi przez odpowiednie przesłony i staje się wiązką równoległą.

Podstawa analizy w rentgenografii jest obraz dyfrakcyjny uzyskany dzięki zjawisku interferencji fal wiązki promieniowania padającego na materie, które zostało rozproszone przez atomy tej materii. Aby jednak było można taki obraz uzyskać najpierw należy tak dobrać warunki aby: długość fali użytego w analizie promieniowania była podobna do odległości pomiędzy atomami badanej materii. Po drugie badany układ atomów powinien cechować się uporządkowaniem przestrzennym. I wreszcie ostatni warunek mówiący, że należy użyć spójnego promieniowania.

Zazwyczaj stosuje się promieniowanie o długości fali z zakresu . Uporządkowanie przestrzenne to cecha układów krystalicznych. Ale pewien stopień uporządkowania występuje także w takich strukturach jak włosy czy wełna. Dla niektórych struktur takich jak np. DNA czy sacharydy zachodzi konieczność wcześniejszego przeprowadzenia ich w stan uporządkowania.

I teraz jeśli promieniowanie padnie na taką uporządkowaną strukturę wówczas wygenerowane zostanie wtórne, również spójne promieniowanie mające tą samą długość fali. Źródłem tego promieniowania są już elektrony poszczególnych atomów badanej materii. Fale te nakładają się dając obraz interferencyjny. Wzmocnienie tych fal opisuje tzw. równanie Bragga. Ma ono następującą postać:

W równaniu tym to długość fali promieniowania padającego na materię, to kąt odbicia natomiast d to odległość pomiędzy poszczególnymi płaszczyznami w sieci. Dzięki analizie obrazu dyfrakcyjnego można uzyskać przestrzenny rozkład gęstości elektronowej dla elementarnej komórki krystalograficznej.

Na podstawie analizy rentgenograficznej można np. stwierdzić jakie elementy budują sieć przestrzenną materii. Mogą to być mianowicie atomy obojętne bądź też jony dodatnie. Można także powiedzieć jakie grupy atomów budują dana cząsteczkę. Dzięki takim badaniom uzyskano dowód, że sole w stanie stałym zbudowane są z jonów dodatnich i ujemnych. Ułatwia to zrozumienie dysocjacji elektrolitycznej tych związków. Można także tłumaczyć przewodnictwo elektryczne soli w stanie stopionym.

Istnieje metoda diagnostyczna zwana rentgenowską transmisyjną tomografią komputerową. Jest to metoda nieinwazyjna dzięki której można uzyskać obraz przestrzennego rozkładu narządów wewnętrznych w ciele człowieka. Jest to możliwe ponieważ kolejno wykonywane są zdjęcia warstwowe. Płaszczyzna tych zdjęć jest prostopadła do osi ciała pacjenta. W dosłownym tłumaczeniu ciało człowieka jest "szatkowane" przez promienie rentgena a każda warstwa jest naświetlana pod różnymi kątami przez wiązkę promieniowania rentgenowskiego. To promieniowanie, które przechodzi przez warstwę jest następnie mierzone za pomocą licznika scyntylacyjnego. Obraz warstwy uzyskiwany jest na monitorze komputera dopiero po specjalistycznej analizie danych uzyskanych z licznika. Oczywiście wszystkie obliczenia dokonywane są automatycznie za pomocą odpowiednich programów komputerowych.

Tradycyjna rentgenografia opiera się na kierowaniu wiązki promieni rentgenowskich wytworzonych przez omawianą wyżej lampę rentgenowską na badany obiekt. Na skutek zjawiska absorpcji promieniowanie jest częściowo osłabiane. Ta część, która przejdzie pada na kliszę fotograficzną, znajdująca się za ciałem człowieka. Na skutek zachodzącej reakcji fotochemicznej czyli rozkładu soli srebra zawartych w emulsji fotoczułej na kliszy rejestrowany jest obraz. Im większe było natężenie promieniowania, które przeszło przez narząd tym więcej soli a dokładnie bromku srebra ulegnie rozkładowi. Po wywołaniu kliszy fotograficznej uzyskuje się właściwy obraz. I tak miejsca kliszy, na które padło promieniowanie o mniejszym natężeniu są zdecydowanie jaśniejsze. Stanowią więc obraz obiektu czy struktury bardziej absorbującej promieniowanie rentgenowskie. Tradycyjna technika rentgenowska może być wykorzystywana jedynie do obrazowania struktur, które wyraźnie różnią się stopniem absorpcji.

Rozwój rentgenowskiej transmisyjnej tomografii komputerowej przypada na lata siedemdziesiąte ubiegłego wieku. Początkowo metoda ta nazywana była komputerową tomografią osiową. Później zmieniono jej nazwę na tą obowiązującą do dzisiaj.

Za pomocą tej metody obrazowania można dostrzec różnice w budowie tkanek miękkich, zlokalizować np. skrzepy krwi, guzy i inne nieprawidłowości.

Jedyną wadą rentgenowskiej transmisyjnej tomografii komputerowej jest narażenie pacjenta na duże dawki promieniowania rentgenowskiego. Są to dawki o wiele większe niż te jakimi zostaje napromieniony pacjent w czasie zwykłego zdjęcia rentgenowskiego. Dlatego też w obecnym momencie wszelkie prace nad udoskonaleniem tej metody diagnostycznej zwrócone są w kierunku obniżenia dawki napromienienia.

Kolejną metodą fizycznego badania struktury materii jest spektroskopia molekularna. W metodzie tej źródłem informacji o badanej strukturze jest promieniowanie elektromagnetyczne, które przez tą strukturę przechodzi. W poszczególnych metodach spektroskopii wykorzystywane są wybrane długości fali promieniowania elektromagnetycznego . Bazują one na zjawiskach absorpcji i rozpraszania promieniowania w ośrodku. Na skutek absorpcji promieniowania może dochodzić do zmiany energii elektronów, energii oscylacji cząsteczek i energii rotacji cząsteczek. Aby doszło do przejścia pomiędzy poziomami energetycznymi w wyniku absorpcji promieniowania muszą być spełnione dwa podstawowe warunki . Po pierwsze energia kwantów promieniowania musi odpowiadać różnicy energii miedzy poziomami energetycznymi. Do drugie zaś przejściami energetycznymi musi rządzić reguła wyboru.

Tak więc promieniowanie elektromagnetyczne, które przechodzi przez dany ośrodek powoduje w tym ośrodku przejścia miedzy stanami elektronowymi, oscylacyjnymi i rotacyjnymi.

Przykładem spektroskopii molekularnej jest spektroskopia molekularna UV/VIS. Metodą tą można badać próbki we wszystkich stanach skupienia. Otrzymuje się wykres absorbancji w funkcji długości fali. Jest to widmo absorpcji próbki. Większość związków chemicznych wykazuje zwiększoną absorpcję promieniowania dla określonej długości fali w zależności od tego jaki jest skład molekuł i jak są one zbudowane. Dzięki analizie widm uzyskanych w zakresie ultrafioletu można przeprowadzać analizę jakościową składu próbki, która zawiera jakiś biopolimer.

Powszechne jest wykorzystanie tej metody do sekwencjonowania aminokwasów. Aminokwasy wykazują absorpcję jedynie w zakresie ultrafioletu.

Powszechnie także przeprowadza się pomiary absorbancji kwasów nukleinowych.

Przykładem spektroskopii molekularnej jest także spektropolarymetria. Metoda ta wykorzystuje spolaryzowane promieniowanie elektromagnetyczne. Przeważnie jest to promieniowanie z zakresu długości fal od 200 - 500 nm. Metoda ta bazuje na zdolności niektórych związków chemicznych do skręcania płaszczyzny światła spolaryzowanego. O takich związkach mówi się, że są optycznie czynne. Można wiec dzięki tej metodzie scharakteryzować wybrane związki oraz oznaczyć ich stężenia.

Promieniowanie podczerwone wykorzystywane jest przez kolejny typ spektroskopii molekularnej czyli przez spektroskopię w podczerwieni (IR) . W obrębie tej techniki można wyróżnić dodatkowo dwie metody:

- spektroskopię IR

- spektroskopię ramanowską.

Pierwsza oparta jest na zjawisku absorpcji druga zaś bazuje na zjawisku rozpraszania promieniowania.

Spektroskopia w podczerwieni wykorzystuje promieniowanie o długości fali z zakresu 2.5 - 50 . Pod wpływem promieniowania w poszczególnych atomach lub tez w ich ugrupowaniach może dochodzić do drgań walencyjnych i deformacyjnych. Okazuje się, że prawie wszystkie można identyfikować z określonymi grupami atomów. I właśnie na tym bazuje spektroskopia w podczerwieni. W poszczególnych widmach można wyróżnić pasma absorpcji, które są właściwe dla konkretnych wiązań chemicznych w danej grupie atomów.

Spektroskopia w podczerwieni może być również wykorzystywana do analizy strukturalnej takich makromolekuł jak kwasy nukleinowe i wielocukry.

Jedną z najnowocześniejszych metod obrazowania jest tomografia NMR czyli Nuclear Magnetic Resonance. Samo zjawisko NMR czyli jądrowego rezonansu magnetycznego zostało odkryte już w roku 1945. Wkrótce zaczęto wykorzystywać je do badania własności jader atomowych. Metoda ta stała się przydatna również w chemii organicznej . Dzięki niej można było badać cząsteczki związków organicznych, ich strukturę i dynamikę. Tak doszło do rozwoju spektroskopii NMR. Później metoda ta została udoskonalona i stałą się bardzo pomocna w badaniach biochemicznych między innymi do obrazowania struktur cząsteczek związków organicznych oraz do analizy oddziaływań międzycząsteczkowych.

Spektroskopia NMR zaczęła być także wykorzystywana w medycynie m.in. do diagnozowania niektórych chorób metabolicznych . W latach siedemdziesiątych stało się jasne, że metoda ta może służyć także to otrzymywania obrazów wnętrza ciała człowieka. Tak doszło do rozwoju tomografii NMR.

Tomografia NMR opiera się na mechanice kwantowej. Dotyczy zatem zjawisk zachodzących w mikroświecie. Ponieważ jednak przedmiotem badań są obiekty należące do makroświata zatem opis oparty o mechanikę kwantową powinien zgadzać się z założeniami fizyki klasycznej.

Spektrometr NMR powinien składać się z następujących elementów:

- elektromagnes lub solenoid - służące do wytwarzania pola magnetycznego, za pomocą niektórych solenoidów , takich chłodzonych ciekłym helem można uzyskać pola o indukcji nawet 10 T.

- nadajnik promieniowania o częstościach radiowych oraz cewka zlokalizowana pomiędzy nabiegunnikami. Do cewki wprowadza się badane próbki umieszczone w specjalnych rurkach.

- odbiornik promieniowania emitowanego przez ww. nadajnik

- komputer wraz z programami do obróbki widm

- urządzenia dzięki którym można dokonywać zmiany indukcji pola magnetycznego lub też zmiany częstości. Jest to tzw. przemiatanie widma.

- w niektórych aparatach także oscylograf oraz potencjometr samopiszący do rejestracji widma.

Warunkiem otrzymania widma NMR jest spełnienie tzw. warunku rezonansowego. Aby tak się stało należy dopasować częstość emitowanego przez nadajnik promieniowania radiowego oraz wartość indukcji pola magnetycznego. Można to uzyskać na dwa sposoby. Pierwszy z nich polega na ustaleniu stałej wartości indukcji pola magnetycznego a przemiatanie widma poprzez zmianę częstości promieniowania. Drugim stosowanym sposobem jest przemiatanie przez zmianę wartości indukcji pola magnetycznego przy ustalonej wartość częstości promieniowania.

Jest to tzw. rejestracja widma metodą fali ciągłej. Jest ona bardzo czasochłonna. Czas trwania pojedynczego pomiaru to dziesięć minut.

W nowocześniejszych urządzeniach stosuje się raczej drugą z metod a mianowicie metodę impulsową. Różnica w obu metodach polega na tym, że tutaj promieniowanie elektromagnetyczne dociera do badanej próbki w postaci krótkotrwałych impulsów. Czas trwania rejestracji widma jest krótszy od poprzedniej metody prawie 100 razy.

W latach siedemdziesiątych podjęto próby rejestracji widm NMR żywych organizmów. Okazało się , ze jest to bardzo dobra metoda badawcza ponieważ nie ma negatywnego wpływu na zdrowie. W niedługim czasie opracowano metodę dzięki której można było otrzymywać dwuwymiarowe przekroje poszczególnych organów wewnętrznych. W końcu doszło do rozwoju tomografii NMR.

W skład każdego tomografu NMR wchodzą następujące elementy:

- elektromagnes główny

- system gradientowy

- cewki nadawczo - odbiorcze

- spektrometr FT NMR

- komputer oraz system wyświetlania obrazów.

Wiadomo, że w spektroskopii i tomografii NMR podstawę badań stanowią protony czyli inaczej jądra atomu wodoru. W tkankach jak wiadomo występuje duże zróżnicowanie wody a więc także i protonów. Zatem różne stopnie zaciemnienia na obrazie odzwierciedlają różne stężenia protonów. Czasem gdy ma się do dyspozycji kolorowy oraz każdemu stężeniu odpowiada inna barwa.

Do niedawna panowała opinia, że tomografia NMR nadaje się jedynie do obrazowania tkanek miękkich. Szczególnie wykorzystywana była w obrazowaniu tkanki mózgowej, gdzie inne metody praktycznie nie wchodziły w grę. Jednak ciągle pracowano nad ulepszaniem tej metody obrazowania i stopniowo w obszar badań wchodził układ mięśniowo - szkieletowy, klatka piersiowa a także narządy jamy brzusznej i miednicy.

Obecnie tą techniką można diagnozować praktycznie wszystkie choroby . Szczególnie przydatna metoda ta okazała się w przypadku diagnozowania nowotworów i oceny postępów ich leczenia.

Ale to nie wszystkie jej zastosowania. Doskonale nadaje się mianowicie do badania wpływu różnych czynników, głównie środków farmakologicznych na organizmy żywe.

Inną metodą fizycznego obrazowania tkanek i narządów jest tomografia emisyjna SPECT. Jako źródło promieniowania w tej metodzie wykorzystuje się związki , które są znakowane izotopem promieniotwórczym. Noszą one nazwę radiofarmaceutyków. Dzięki tej metodzie można otrzymać obraz rozkładu tego izotopu w tkankach pacjenta. Tak więc obraz różnicowany jest na podstawie stężenia znacznika izotopowego emitującego promieniowanie gamma w ciele pacjenta. Można wyróżnić dwa typy tomografii emisyjnej. Pierwsza to jednofotonowa emisyjna tomografia komputerowa czyli SPECT, a druga to emisyjna tomografia pozytonowa czyli PET.

Przed badaniem na tomografie SPECT pacjentowi zostaje podany radiofarmaceutyk. Przemieszcza się on w ciele pacjenta i lokalizuje w tkankach emitując przy tym promieniowanie gamma. I właśnie to promieniowanie a przynajmniej jego część jest wykrywana i mierzona za pomocą detektora promieniowania jonizującego. Może to być gammakamera lub skaner. Detektor ten "skanuje" całe ciało pacjenta. Następnie wszelkie dane z detektora czyli natężenie promieniowania a także informacje na temat pozycji detektora względem ciała pacjenta trafiają do komputera, gdzie zostają poddane obróbce. Na podstawie tych danych komputer dokonuje rekonstrukcji obrazu. Podczas rekonstruowania obrazu warstwy należy uwzględnić kilka faktów. Mianowicie to jaki izotop został podany pacjentowi , bo od tego zależy energia emitowanego promieniowania oraz fakt absorpcji promieniowania w tkankach. Na skutek absorpcji dochodzi do tłumienia promieniowania. Największe tłumienie ma miejsce w przypadku promieniowania emitowanego przez izotop zlokalizowany w warstwach najbardziej odległych od detektora.

Do konstrukcji pierwszego tomografu emisyjnego SPECT doszło w roku 1963. W tomografie tym i wielu kolejnych jako detektor promieniowania gamma służył pojedynczy licznik scyntylacyjny. Dopiero później już w ulepszonych konstrukcjach liczniki zaczęto łączyć w układy. Możliwy także stał się ruch liniowy i obrotowy wokół pacjenta dzięki specjalnej ruchomej konstrukcji. Jednak do poprawy jakości otrzymywanych obrazów przyczyniło się dopiero zastosowanie liczników scyntylacyjnych o dużej powierzchni detekcji.

W tomografach najnowszej generacji występują specjalne układy detekcyjne, które utworzone są przez jedna lub dwie głowice gammakamery. Jeśli są dwie wówczas są montowane naprzeciwko siebie.

W skład takiej głowicy wchodzi kryształ scyntylacyjny, którego średnica wynosi około 40 cm. Zanim promieniowanie padnie na kryształ dostaje się do kolimatora. Kolimator posiada układ otworów, których średnica zależy od energii promieniowania mierzonego oraz od pożądanej rozdzielczości.

Podczas jednego obrotu głowicy następuje rejestracja 1-64 warstw w przekroju poprzecznym. Grubość tych warstw waha się od 3 do 12 mm. Natomiast wartość przestrzennej zdolności rozdzielczej dla tomografu SPECT wynosi 11 - 15 mm.

Mała przestrzenna zdolność rozdzielcza należy do zdecydowanych wad tomografii emisyjnej SPECT. Ponadto czas badania jest stosunkowo długi, bo zbieranie danych trwa około 20 minut. Emitowane przez izotopy promieniowanie gamma ulega również znacznemu tłumieniu na drodze od źródła do detektora.

Jednak ta metoda ma także wiele zalet i właśnie z tego powodu cieszy się coraz większą popularnością. W tomografii SPECT pacjent tylko w niewielkim stopniu narażony jest na promieniowanie, a używane izotopy są łatwo dostępne i stosunkowo tanie. Dzięki tomografii można dokonywać ilościowych pomiarów zarówno objętości jak i stężenia podanego radiofarmaceutyku.

Wszelkie prace zmierzające do unowocześnienia tej metody badawczej skupiają się na wyeliminowaniu jej dwóch podstawowych wad. Dążą zatem do poprawy przestrzennej zdolności rozdzielczej tomografu oraz do skrócenia czasu przeprowadzania badania.

Drugim rodzajem tomografii emisyjnej jest pozytonowa emisyjna tomografia komputerowa czyli PET. Dzięki tej metodzie możliwa jest precyzyjna lokalizacja biochemicznego stanu patologicznego w organizmie. W tym celu do organizmu człowieka wprowadza się substancje , której aktywność w organizmie jest doskonale znana. Związek ten dodatkowo znakowany jest izotopem promieniotwórczym, który rozpada się emitując pozyton. Następnie dochodzi do zjawiska anihilacji czyli zamiany układu elektron - pozyton na energie dwóch fotonów gamma. Tory powstałych fotonów znajdują się na jednej prostej. Poruszają się one jednak w przeciwnych kierunkach. Emitowane w ten sposób promieniowanie gamma przenika przez tkanki i wydostaje się na zewnątrz organizmu. Tam jest rejestrowane przez układ detektorów. Następnie dane z detektora są przesyłane do komputera, który za pomocą specjalnych operacji matematycznych tworzy przestrzenny obraz rozmieszczenia radioizotopu w badanym obiekcie. Na ekranie monitora pojawia się obraz warstwy . Zaznaczone jest rozmieszczenie źródeł pozytonów.

Prototyp tomografu PET został zbudowany dopiero pod koniec lat siedemdziesiątych ubiegłego wieku. Jak już wyżej zostało wspomniane istotą działania tego urządzenia jest dokładne określenie współrzędnych gdzie dochodzi do anihilacji pary elektron - pozyton. Jest to możliwe dzięki pomiarowi koincydencji czasowej dwóch fotonów gamma , które są generowane w wyniku anihilacji. Każdy z fotonów posiada energię równą 0.511 MeV. Jeśliby w momencie anihilacji para elektron - pozyton znajdowała się w spoczynku wówczas kąt między zwrotami fotonów byłby idealnie zachowany i zgodnie z założeniami teoretycznymi wynosiłby 180 stopni. Jednak przeważnie kąty te równią się o oczekiwanej wartości. Dlatego fotony te wykazują rozproszenie, którego wartość jest równa granicy zdolności rozdzielczej tomografu. Układ pomiarowy stanowią dwa liczniki scyntylacyjne. Są one zlokalizowane naprzeciwko siebie w takiej odległości żeby pomiędzy nimi zmieścił się badany przedmiot. Dzięki równoczesnej rejestracji fotonów gamma przez liczniki możliwe jest wyznaczenie prostej na której doszło do anihilacji. Natomiast na podstawie różnicy czasu w jakim oba fotony docierały do liczników można wyznaczyć dokładnie w którym miejscu doszło do anihilacji. Ponieważ układ detektorów może się poruszać i obracać wokół osi dlatego też możliwe jest uzyskanie dużej liczby zliczeń . Dzięki temu powstaje obraz przestrzennego rozmieszczenia izotopu w poprzecznej warstwie badanego obiektu.

W pierwszych tomografach PET układ detekcyjny składał się z dwugłowicowych gammakamer. Były one jednak mało skuteczne. Wydajność detekcji poprawiła się dopiero po zastosowaniu większej liczby detektorów, które zaczęto łączyć w specjalne układy. Ponadto zaczęto stosować nowe typy scyntylatorów.

Znaczniki izotopowe, które stosowane są w badaniach diagnostycznych muszą spełniać określone warunki. Przede wszystkim muszą mieć krótkie czasy połowicznego rozpadu tak aby niepotrzebnie nie narażać pacjenta na promieniowanie. Ponadto muszą charakteryzować się łatwością łączenia się z innymi substancjami. No i oczywiście muszą być emiterami promieniowania gamma. W tomografii PET najczęściej stosuje się następujące znaczniki:

-

Tomografia emisyjna PET dzisiaj wykorzystywana jest w medycynie do dużej ilości badań. Jednym z pierwszych zastosowań było określanie objętości krwi w naczyniach mózgowych. Dzisiaj jest możliwość badania całego układu tętniczo - żylnego. Dzięki temu można diagnozować wiele chorób naczyniowych a także schorzeń w obrębie wątroby i serca.