ekotoksykologia

Ekspozycja
Intoksykacja
Mechanizm Działania Trucizn
Lokalizacja toksyn
Biotransformacja i Eliminacja
Farmakokinetyka
Czas ekspozycji
Efekty Zatruć
Powinowactwo Strukturalne
Mechanizmy absorpcji
Klasyfikacja Działania Trucizn i Rodzajów Zatruć
Zależność dawka-reakcja
Dane Toksykologiczne
TRUCIZNY NIERAKOTWÓRCZE
Bazy Danych Toksykologicznych
KANCEROGENY
KANCEROGENEZA
Badania Rakotwórczości
Zależności Dawka-Reakcja dla Kancerogenów
Kancerogeneza naturalna
TOKSYKOLOGIA a EKOLOGIA
Testy Toksyczności
Toksyczne Metale
Toksyczność Węglowodorów dla Środowiska Wodnego
Kryteria Jakości Wody
Ekotoksykologia Środowiska Lądowego


Kwestia oddziaływania środowiska na zdrowie człowieka ma największe znaczenie dla opinii publicznej. Emisje niebezpiecznych oparów i obecność trujących odpadów w otoczeniu człowieka są przyczyną niepokoju lub nawet paniki. Inżynierowie posługując się niebezpiecznymi chemikaliami muszą pamiętać o społecznej ocenie swoich działań. Mechanizm wpływu substancji trujących na ssaki jest obiektem intensywnych badań w całej historii. W przeciwieństwie do tego oszacowanie uwolnienia chemikaliów i innych składników do biosfery prowadzone były w czasie badania "pomorów ryb" dopiero na początku 20-tego wieku. Dogłębne badania zagrożenia dla gatunków innych niż ludzie uzyskały poparcie dopiero w ostatnich czasach. Problem "ekotoksyczności" zaistniał w latach 60-tych, kiedy Rachel Carson opublikowała dokumentację pt. Silent Spring, która spotkała się z dużą uwagą społeczeństwa. Ruch społeczny wówczas zainicjowany przyczynił się do zrozumienia potrzeby ochrony i dbałości o liczne dzikie (tzn. nieudomowione) gatunki, które są uczestnikami złożonych ekosystemów. Zainteresowanie społeczne od tego czasu jest motorem rozwoju nauki zwanej ekotoksykologią.

Od wielu lat prowadzone są intensywne studia nad oddziaływaniem trucizn w środowisku pracy. Od niedawna niemniej wytężone wysiłki podejmują toksykolodzy w celu przedstwienia wpływu na zdrowie małych dawek toksyn obecnych w środowisku stałego pobytu ludzi. Niepokojące rezultaty analizy zagrożeń ze strony trujących składników odpadów i emisji przemysłowych przyczyniły się do zainicjowania intensywnych prac legislacyjnych w celu uregulowania gospodarki niebezpieczymi odpadami oraz ochrony przed toksycznymi emisjami. Wynika to z opinii, że ograniczenie zagrożenia ze strony niebezpiecznych odpadów ma podstawowe znaczenie dla ochrony zdrowia społeczeństwa. Jest elementem najwcześniej podjętej profilaktyki zdrowotnej.

Ochrona środowiska życiowego społeczeństwa przed truciznami jest znacznie bardziej efektywną profilaktyką niż wczesne wykrywanie schorzeń i ich leczenie. Utrata sił witalnych społeczności wskutek szkodliwych oddziaływań ekotoksyn może też wynikać z obciążeń psychicznych spowodowanych brakiem wiarygodnej oceny sytuacji. Dlatego najbardziej ogólne przedstawienie aparatu pojęciowego toksykologii jest potrzebne dla zrozumienia opinii specjalistów wydawanych przy okazji ocen efektywności gospodarki odpadami, zagospodarowania skażonych terenów, a nawet ocen ryzyka dla zdrowia związanego z konsumpcją żywności i przyjmowaniem leków.

O czym traktuje toksykologia?

Toksykologia zajmuje się rozpoznaniem szkodliwych oddziaływań na organizmy żywe powodowanych przez kontakt z substancjami chemicznymi. Toksyny roślinne i jady zwierzęce były znane i badane od wieków. Jednak rozwój toksykologii w postaci odrębnej dyscypliny naukowej datuje się od początku XX wieku. Ukonstytuowanie się tej nowej dziedziny oparte było o zdobycze wielu nauk podstawowych, jak fizjologia, farmacja, biochemia, biologia molekularna i epidemiologia. Będąc konglomeratem zdobyczy wielu dziedzin nauk biologicznych, toksykologia nie jest nauką w rodzaju fizyki czy chemii. Porusza się bowiem w polu nierozpoznanego. W szczególności w kwestii rzeczywistych mechanizmów groźnych oddziaływań chemikaliów na systemy komórkowe jest jeszcze dużo "czystych kart". W opinii społecznej toksykologia ma jednoznacznie negatywne skojarzenia. Fundamentalne znaczenie badań patologów, którzy "post mortem"oceniają wpływ na przyczyny "zejścia" obecności trucizn w organizmie, rzuca cień na dokonania biochemików, biorących na siebie coraz ważniejszą część badań toksykologicznych. Trzeba zrozumieć konieczność prowadzenia badań zarówno biochemicznych, jak i fizjopatologicznych, gdyż prawdziwość wyników osiągniętych jedną tylko techniką jest co najmniej wątpliwa. Budowa skomplikowanych modeli ekotoksykologicznych wymaga posługiwania się niezbitymi dowodami prawdziwości danych toksykologicznych, które są podstawą prognozowania.

Jakie są ograniczenia zastosowań toksykologii?

Mechanizmy reakcji odpowiedzialnych za skutki zatruć są jeszcze mało zbadane. Dlatego stwierdzenia toksykologów zazwyczaj oparte są na obserwacjach objawów, a badania zatruć rzadko prowadzi się na ludziach. Z oczywistych powodów toksykologia opiera się głównie na doświadczeniach ze zwierzętami. Przenoszenie wniosków z badań laboratoryjnych na funkcjonowanie organizmu ludzkiego związane jest z dużą dozą niepewności. Brak precyzji w przewidywaniach przebiegu zatruć w jednym organizmie (np. u człowieka) na podstawie informacji dotyczących innych gatunków (np. myszy) jest jeszcze większy, jeśli chcemy wnioskować o wpływie niskich dawek trucizn (najczęściej zagrażających ludzkim populacjom) z doświadczeń przy użyciu wysokich dawek podawanych zwierzętom. Większość badań na zwierzętach prowadzona jest w procedurach przyspieszonych, a wzmocnienie efektu zatrucia uzyskuje się przez podawanie dawek znacznie większych niż spotykane w warunkach naturalnych. Następnie stosuje się metodę ekstrapolacji wyników do minimalnych dawek, rzadko tak małych, że odzwierciedlają rzeczywisty poziom zagrożenia. Dlatego w zależności od matematycznej metody ekstrapolacji oceny zagrożenia mogą różnić się o rząd wielkości. Niedoskonałości metod analizy skali skażenia i tempa przemieszczania się zanieczyszczeń w środowisku są więc maskowane przez niepewność oszacowania toksyczności danego związku chemicznego.

Czy dane toksykologiczne mają znaczenie dla ekotoksykologii?

Kiedy już uświadomiliśmy sobie trudności w uzyskaniu precyzyjnych danych toksykologicznych możemy pochopnie wnioskować, że wyniki badań toksykologicznych niewiele mówią o problemach ekotoksykologii. Warto więc podkreślić, że bazy danych toksykologicznych podają dla wielu chemikaliów wartości wystarczająco dokładne aby oceny zagrożeń związanych z obecnością skażeń w środowisku były miarodajne i ważne epidemiologicznie. Kiedy dane dla określonej substancji nie są bezpośrednio dostępne, można posłużyć się ogólnie akceptowanymi metodami przybliżonych ocen, które również mogą być podstawą do opracowania skutecznej strategii ochrony zdrowia ludzi. Ocena oddziaływania działalności przemysłowej na środowisko, instrukcje posługiwania się niebezpiecznymi substancjami, procedury reagowania na awarie z udziałem chemikaliów, są elementami tej strategii wywodzącymi się z dokonań ekotoksykologii.

Ekotoksykologia jest względnie młodą nauką, która posługuje się zasadami toksykologii w badaniach systemów naturalnych w celu oceny możliwości wpływu uwalniania trujących chemikaliów na ich stan. O ile zadaniem tradycyjnej toksykologii ssaków jest wpływ ekspozycji na chemikalia w stosunku do poszczególnych gatunków, głównie ludzi, to ekotoksykologia rozpatruje taki wpływ na grupy w populacjach żyjących w środowisku naturalnym.

Innymi słowami, jeśli chemikalia zabiją jakiś procent osobników w populacji, to w przypadku ludzi jest uznawane za katastrofę. Natomiast w przypadku takiego wpływu na ekosystem będzie to zdarzenie o niewielkim znaczeniu ekologicznym w porównaniu do działania chemikaliów, które wprawdzie nie są przyczyną śmierci osobników, za to obniżają głównie produktywność albo ograniczają transfer energii. Działanie to będzie wpływać na funkcjonowanie systemu bezpośrednio, a jego wpływ na strukturę systemu będzie pośredni. Dlatego ważne jest zrozumienie nie tylko bezpośredniego wpływu chemikaliów na organizm, ale również jak działają one na środowisko życia organizmu (np. fizyczna zmiana habitatu wskutek wylewu chemikaliów; utrata źródeł pożywienia; degradacja biologiczna i chemiczna). Jako przykład może posłużyć przypadkowy rozlew ropy, który spowoduje rozmaite efekty. W tym: zmniejszenie fotosyntezy wskutek mniejszej penetracji światła, śmierć organizmów wodnych po zatruciu lekkimi węglowodorami aromatycznymi, wreszcie wniknięcie ciężkich węglowodorów do łańcucha pokarmowego w wyniku akumulacji w tkankach.

Co w ekotoksykologii jest najważniejsze dla inżyniera?

Inżynierowie nie mogą i nie powinni prowadzić badań toksykologicznych. Doświadczenie i wykształcenie inżynierskie nie upoważnia do rozważań w tej dziedzinie. Jednak ogólne rozeznanie w sposobie rozumowania toksykologa w czasie podejmowania decyzji powinno dopomóc w porozumieniu między fachowcami z dwóch dyscyplin, które dzielą odpowiedzialność za rozwiązania inżynierskie stosowane w działaniach ochronnych.

Ekspozycja

Od chwili umieszczenia zanieczyszczenia w środowisku jego trujące składniki odbywają wieloetapową drogę do organizmu człowieka. Etap wchłaniania trucizny do organizmu toksykolodzy nazywają drogą wchłaniania (exposure route). Wyróżniają trzy drogi wchłaniania skażeń ze środowiska do organizmu: wdychanie (przez układ oddechowy), spożycie (przez układ pokarmowy) i kontakt ze skórą (przez tkanki skórne). Większość trujących substancji nie powoduje uszkodzeń w miejscu wniknięcia do organizmu. Zaistnienie kontaktu jest natomiast początkiem zawiłej drogi procesów fizjologicznych (metabolicznych) w organizmie człowieka: absorpcji, rozprowadzenia, magazynowania i eliminacji substancji. Żeby wywołać objawy zatrucia czynnik chemiczny lub produkt jego metabolizmu musi wniknąć do miejsca w docelowym organie podatnego na jego działanie. Równocześnie stężenie toksyny musi być dostatecznie duże i pojawić się tam w określonym czasie. Organ docelowy to punkt anatomicznej preferencji dla pojawienia się objawów zatrucia przez daną substancję. Rysunek przedstawia graficznie schemat przenoszenia trucizny po jej wchłonięciu.

Ilustracją schematu przemieszczania się trucizn w organizmie może być rozmieszczenie benzenu w ciele człowieka narażonego na wdychanie oparów. Udział benzenu wnikającego przez płuca do krwi w stosunku do ilości wdychanego w powietrzu utrzymuje się na poziomie 30%. Pozostałe 70% jest wydychane, w tym 50% nie jest zaabsorbowane, a 20% jest wydalane po resorpcji z tkanek płuc. Doświadczenia ze szczurami wykazały, że drogą pokarmową wnika ponad 90% dawki benzenu. Wchłanianie przez kontakt ze skórą może spowodować również przyjęcie znaczącej dawki w wyniku absorpcji (około 0,2% aplikowanej dawki). Bezpośrednio po wchłonięciu ponad połowa dawki benzenu rozmieszcza się w silnie ukrwionych organach, tj. w wątrobie i nerkach, a reszta w tkance tłuszczowej, mózgu i szpiku kostnym. Kiedy ciężarne kobiety były narażone na opary benzen znaleziono też w łożysku i płodzie. Wiadomo, że benzen bardzo powoli uwalnia się z tkanek tłuszczowych. Aby został on wydalony z organizmu musi równocześnie zaistnieć wiele złożonych procesów metabolicznych, które przekształcają jego niepolarną i rozpuszczalną w tłuszczach cząsteczkę do postaci polarnych metabolitów rozpuszczalnych w urynie. Potężne bazy danych o metabolizmie poszczególnych związków organicznych dostarczają nam informacji o procesach tego rodzaju. Jednak wiedza o większości chemikaliów jest nadal niekompletna.

Ekspozycja na trucizny ma charakter dynamicznego procesu odwracalnego. Wchłanianiu towarzyszy szereg procesów metabolicznych, które prowadzą do wydalania części przyjętej dawki już w czasie trwania ekspozycji. Znaczna część dawki jest usuwana zanim wejdzie w cykl przemian metabolicznych w organizmie. O skali intoksykacji decyduje więc ogromna liczba czynników charakterystycznych dla toksyny, środowiska i organizmu poddanego działaniu toksyny. Okoliczność ta zmusza naukę do opracowania standardowych procedur oceny ekspozycji, których podstawą jest ustanowienie modelowych warunków opisu całego procesu. Rolą ekotoksykologa jest wskazanie ograniczeń aplikacji toksykologicznego modelu oceny ekspozycji do rzeczywistych warunków typowych dla badanej populacji.

Intoksykacja

Żeby wejść do organizmu człowieka i rozproszyć się we krwi trucizna musi przeniknąć zaporę, którą stanowi warstwa nabłonka komórkowego. Pokrywa ona ciało ssaków w każdym miejscu, gdzie może zostać wchłonięta trucizna. Po spożyciu toksyny muszą przeniknąć błonę śluzową, która wyściela przewód pokarmowy. Po wejściu z powietrzem do płuc muszą przeniknąć cienką wyściółkę komórek na wewnętrznej stronie pęcherzyków płucnych (alveoli), która stanowi barierę między krwią i powietrzem niosącym trucizny. W przypadku kontaktu ze skórą chemikalia muszą przeniknąć wielowarstwową tkankę skórną. Każdy proces transportu przez bariery ciała (tj. przez skórę, pęcherzyki płuc i wyściółkę przewodu pokarmowego) przyjęto nazywać absorpcją.

Wszystkie bariery chroniące organizm przed truciznami utworzone są przez membrany komórkowe o podobnej strukturze. Między dwoma warstwami zbudowanymi z białek rozmieszczona jest bimolekularna warstwa różnych związków tłuszczowych (lipidów). W zależności od funkcji spełnianych przez okrywany organ, warstwa nabłonkowa posiada różny skład chemiczny. W niektórych miejscach przyjmuje postać niemal płynną, a pory w niej zawarte mają średnicę od 4 do 70 angstremów.

Dawka podawana to ilość określonej trucizny, z którą ciało ma do czynienia. Wielkość ta jest ważna, jednak większą uwagę trzeba skupić na ilości trucizny, która została przyjęta przez ciało (tj. zaabsorbowana w organizmie) czyli dawki przyjętej (intake dose), jak też na ilości wchłoniętej przez organ docelowy czyli dawki efektywnej (effective dose). Dawka efektywna, więc biorąca udział w intoksykacji, będzie zależeć od sposobu interakcji między tkankami organizmu i związkiem chemicznym.

Procesy regulujące przyjmowanie składników odżywczych, tlenu i innych ważnych dla życia związków chemicznych, również zarządzają absorpcją trucizn. W indywidualnym przypadku o tempie i wielkości intoksykacji decydują własności toksyny, droga wchłaniania i wrażliwość osobnicza (status fizjologiczny organizmu). Absorpcja przez skórę silnie zależy na przykład od rodzaju medium, w którym znajduje się trucizna. Ziemia skażona związkami organicznymi spowoduje przyjęcie mniejszej dawkę niż te same związki organiczne w roztworze rozpuszczalnika. Inne czynniki to wilgotność skóry, miejsce kontaktu z ciałem (chemikalia szczególnie dobrze penetrują skórę na mosznie), jak też czy skóra nie jest uszkodzona.

W wielu przypadkach trzeba rozważyć absorpcję przez więcej niż jedną drogę wchłaniania. Na przykład w układzie oddechowym człowieka osadza się około 30-50% ołowiu unoszonego w powietrzu w postaci pyłu, a niemal cała ta ilość jest po pewnym czasie absorbowana. Drobiny ołowiu spożyte przez dzieci są absorbowane w 50-ciu procentach, a u dorosłych w 8-15%, gdyż zależy to od rozpuszczalności ołowiu w kwasach żołądkowych. Absorpcja ołowiu przez skórę jest nieistotna, chyba że mamy kontakt z roztworem o bardzo dużym stężeniu. Jednak niektóre substancje łatwo przenikają przez skórę (np. lindan przyjmowany jest przez skórę w ilości 15-60% dawki podawanej). Dlatego ta droga intoksykacji może być też ważna.

Mechanizm Działania Trucizn i Ujawnienie Zatrucia

Wiązanie się trucizn z enzymami lub innymi receptorami prowadzi do łańcucha zdarzeń, który nie został w pełni wytłumaczony. Wiadomo jednak, że zakłóca to normalne pożyteczne reakcje biochemiczne w organizmie człowieka lub inicjuje nienormalne reakcje metaboliczne, więc powoduje objawy zatrucia. Objawem tym może być krótkotrwały ból głowy lub nudności. Również mogą być objawy tragiczne. Cyjanki ograniczają wymianę tlenu na poziomie komórkowym aż do momentu całkowitego rozstroju działania układu nerwowego, prowadzącego do ustania oddechu.

Zatrucie pestycydami fosforoorganicznymi można w pełni wytłumaczyć przyjmując, że ich główny mechanizm działania polega na inhibicji acetylocholinesterazy. Na zakończeniach nerwów uwalnianie się acetylocholiny inicjuje skurcze włókien mięśni, ale też aktywację pewnych części autonomicznego systemu nerwowego. Aby zapobiec przedłużeniu się lub nadmiernemu nasileniu takiego działania enzym acetylocholinesteraza, obecny na zakończeniach nerwów, rozkłada acetylocholinę do nieaktywnych cząsteczek kwasu octowego i choliny. Ekspozycja na związki organofosforowe, jak Paraoxon (metabolit Parationu) może uniemożliwić działanie acetylocholinesterazy (AchE), więc spowodować akumulację acetylocholiny na zakończeniach nerwowych. Może być to przyczyną skurczu oskrzeli, ślinienia, skurczu mięśni gładkich (tj. odpowiadających za funkcje autonomiczne) i drgawek bądź skurczy mięśni szkieletowych. Zilustrowano to na rysunku, przedstawiającym normalną hydrolizę ACh i jej inhibicję z udziałem pestycydu Paraoxon.

Rzadko śmiertelne (w przypadku szoku anafilaktycznego) reakcje alergiczne stanowią najczęstszą manifestację działania trucizn chemicznych na ludzi. Polegają one w zasadzie na rozstroju systemu immunologicznego, a organem docelowym jest najczęściej układ oddechowy (dla tzw. bezzwłocznych reakcji alergicznych) albo skóra dla alergii wynikających z kontaktu (opóźnionych). Najczęstszą przyczyną alergii bezzwłocznych są czynniki wysokocząsteczkowe w rodzaju polisacharydów (np. pyłek kwiatowy czy sierść zwierzęca). Wiele substancji niskocząsteczkowych, w tym niektóre jony metali (nikiel, chrom, beryl, rtęć, platyna) mogą być przyczyną alergii kontaktowych. Uczulenie alergiczne spowodowane substancjami niskocząsteczkowymi powstaje w wyniku przyłączania do białek endogenicznych z utworzeniem antygenu. Ten z kolei aktywuje komórki pamięci układu immunologicznego. Kolejna ekspozycja na chemikalia powoduje zaindukowanie reakcji antygen-przeciwciało, która wyzwala typowe symptomy reakcji alergicznej.

Nawet jeśli główny receptor molekularny dla trucizny jest znany, sekwencja zdarzeń powodujących objawy kliniczne zatrucia rzadko jest dobrze zbadana. Dlatego przyjmując, że arsen działa jako inhibitor dla enzymów (wiążąc ich grupy funkcyjne SH-), nie potrafimy wyjaśnić wyłącznie na bazie mechanizmu inhibicji całej różnorodności trujących działań powodowanych przez ten pierwiastek. Objawy zatrucia arsenem to: nudności i wymioty, gorączka, bezsenność, narastające osłabienie ogólne, obrzęk wątroby, zaburzenia pracy serca, zaburzenia pracy obwodowego układu nerwowego, przebarwienia dłoni i stóp, a później melanoza, rak, anemia i leukopenia.

Rola biochemiczna ryboflawiny (witaminy B2 ) w metabolizmie jest dobrze poznana. Jednak objawy niedoboru ryboflawiny wywołanego zatruciem (zapalenie języka, choroby śluzówki w ustach, wynaczynienia rogówki, fotofobia, itp.) również nie mogą być bezpośrednio przypisane do działania na główny receptor.

Ten brak wytłumaczenia podstawowych mechanizmów odpowiedzialnych za objawy zatrucia okaże się mniej zaskakujący kiedy zauważymy, że mechanizm działania wielu powszechnie używanych dobroczynnych leków o długiej historii (np. acetylosalicylan sodu, aspiryna) również nie jest dobrze rozpoznany. Musi więc nam wystarczyć, że o ile toksykolodzy nie mogą wyjaśnić podłoża wszystkich zdarzeń, to potrafią zidentyfikować organ zagrożony działaniem trucizny, objawy jej działania i skalę występowania symptomów w relacji do wielkości dawki.

Lokalizacja toksyn w organizmie

Kiedy trucizna wniknie do krwioobiegu może poruszać się w niemal całym organizmie. Niektóre z trucizn atakują już w miejscu wniknięcia do organizmu, ale dostęp większości trucizn do wrażliwych organów i tkanek zależy od przepływu krwi. Dlatego na ulokowanie trucizn wpływa wiele czynników, takich jak absorpcja, perfuzja, droga wchłaniania, podatność tkanek. W rezultacie trucizny w poszczególnych częściach ciała rozmieszczają się częściowo i nierówno, zamiast wniknąć do jednej tkanki lub równomiernie do wszystkich. Ważną rolę gra tu sposób absorpcji, ponieważ kontroluje wnikanie trucizny do krwioobiegu, a to z kolei ogranicza jej dostępność dla tkanek i komórek.

Perfuzja jest wskaźnikiem tempa przemieszczania się krwi w tkankach. Wątroba ma dużą perfuzję i dlatego jej udział w całkowitym przyjęciu dawki jest duży. Tymczasem mózg, chociaż ma niemniej dużą perfuzję, w znacznym stopniu chroniony jest barierą krew-mózg.

Rodzaj punktu absorpcji, częściowo wyznaczony drogą wchłaniania, ma wpływ na rozmieszczenie, gdyż z niektórych krew może skierować truciznę bezpośrednio do wątroby - głównego elementu układu detoksyfikacji organizmu. Na przykład trucizny zaabsorbowane w płucach, przez skórę, w jamie ustnej i przełyku mogą przepłynąć przez wątrobę dopiero po pewnym czasie. Natomiast absorbowane w żołądku i w jelitach będą z krwią bezpośrednio skierowane do wątroby.

Z powodu swojego powinowactwa do określonych tkanek, wiele substancji będzie akumulować się w miejscach innych niż organ docelowy i uwalniać się do krwioobiegu w długim okresie czasu. Nazywamy to magazynowaniem, które zwykle odbywa się bez niekorzystnych oddziaływań na tkankę magazynującą. Pestycyd chloroorganiczny (np. lindan) może gromadzić się w tłuszczach bez żadnego niekorzystnego wpływu na komórki tłuszczowe.

Magazynowaniem zwykle określane jest gromadzenie się trucizn w miejscach poza organem docelowym. Stężenia w miejscach magazynowania mogą osiągać wartości tak samo wysokie jak w organie docelowym, a nawet wyższe. Udział poszczególnych miejsc magazynowania w odkładaniu się trucizn zależy od charakterystyki zarówno tkanki jak i trucizny. Polarność i podobieństwo struktury chemicznej do składników tkanek magazynujących są czynnikami dominującymi. Przykładami ważnych miejsc magazynowania są:
- tkanka tłuszczowa - dla związków niepolarnych (lipofilowych, np. pestycydy chloroorganiczne i PCB);
- plazma krwi - dla związków wiążących się z białkami krwi (np. jony rtęci);
- kości - dla ołowiu, radu i fluoru;
- wątroba - dla kadmu.

Wielu specjalistów uważa magazynowanie za jeden z mechanizmów obronnych organizmu (tj. magazynowanie odgrywa rolę obronną dla organu docelowego wobec trucizn, które nie mogą zostać natychmiast wyeliminowane z organizmu). Trzeba jednak pamiętać, że magazynowanie jest procesem równowagowym i może działać w kierunku przeciwnym. Umożliwia eliminację trucizn z działania na organizm nawet przez długi czas po ustaniu ekspozycji. Jednak dieta, stres i inne sposoby zużycia zasobów tłuszczowych może spowodować nagłe uwolnienie zmagazynowanych substancji i spowoduje opóźnioną chorobę związaną z zatruciem. W niektórych przypadkach miejsce magazynowania decyduje o późniejszym miejscu intoksykacji.

Obecność trucizn w miejscu ich zmagazynowania czasem nie jest obojętna dla stanu organów magazynujących. Rtęć nieorganiczna akumulowana w nerkach powoduje poważne zaburzenia funkcjonalne. Przekroczenie w korze nerek stężenia zmagazynowanego kadmu powyżej 100-200 ppm powoduje jej nieodwracalne uszkodzenia.

Biotransformacja i Eliminacja

Trucizna po osiągnięciu organu docelowego bierze udział w następujących trzech procesach:

1. Biotransformacja - organy zasobne w enzymy metabolizują trucizny do substancji odmiennych pod względem budowy, zwanych metabolitami, które mogą być (choć nie zawsze) mniej trujące od samej trucizny.

2. Eliminacja - trucizny niemożliwe do zmagazynowania, podobnie jak metabolity, są usuwane z organizmu.

3. Tworzenie kompleksów receptor-toksyna - zwykle trucizny atakują jeden lub kilka organów, zwanych organami docelowymi.

Organizm posiada ogromne możliwości eliminacji szerokiego spektrum czynników chemicznych absorbowanych z dietą lub w wyniku ekspozycji na warunki środowiska. Trucizny, szczególnie substancje polarne, mogą opuścić organizm w urynie, żółci, kale i pocie. Eliminacja natomiast niepolarnych i nielotnych związków jest trudna. Może być ona tylko etapem końcowym ich transformacji metabolicznej (tj. biotransformacji w organizmie) do metabolitów bardziej polarnych i lepiej rozpuszczalnych w wodzie, które są wydalone w urynie.

Biotransformacja niepolarnych i nielotnych trucizn może być opisana jako dwuetapowa reakcja biochemiczna. W fazie pierwszej układ enzymatyczny organizmu wprowadza polarną grupę funkcyjną do cząsteczki trucizny. Przykładami takiego działania są utlenienie, redukcja, hydroliza i dehalogenacja. W drugiej fazie zwykle zachodzi połączenie cząsteczki polarnej z dodatkowym składnikiem (koniugacja), co ułatwia rozpuszczenie się nowej cząsteczki w wodzie i łatwiejszą jej eliminację. Czynniki koniugujące są endogeniczne dla organizmu, a ich przykładami mogą być kwas glukuronowy i siarczany.

Biotransformacja i eliminacja trucizn zachodzi głównie w wątrobie i nerkach. Trucizny zaabsorbowane w przewodzie pokarmowym unoszone są w krwi z żołądka i jelit do wątroby. Wątroba jest miejscem, gdzie zaabsorbowane trucizny szybko są transformowane przez enzymy, których tam jest wyjątkowo dużo. Niektóre substancje stają się rozpuszczalne w wodzie i wraz z krwią przechodzą do nerek. Tam są odfiltrowywane lub inaczej usuwane z krwi jako metabolity i toksyny polarne, a następnie wydalane w stężonym roztworze pod postacią uryny. Szereg substancji organicznych i niektóre nieorganiczne czynniki trujące (np. ołów, rtęć i pewne metale ciężkie) jest wydzielanych z żółcią do jelit, skąd wydalane są z kałem. Ich stężenie w żółci często znacznie przewyższa stężenia we krwi. Jednak niektóre hydrofobowe trucizny i ich produkty biotransformacji zalegają w wątrobie. Na przykład benzen jest wstępnie metabolizowany w wątrobie do tlenku benzenu. Tlenek jest nietrwały i przekształca się do związków fenolowych, które są wydalane w urynie wraz z innymi metabolitami. Analiza specyficznych metabolitów w urynie jest często stosowana jako ilościowy wskaźnik ekspozycji na daną substancję. Nazywa się to monitoringiem biologicznym, a metabolit biomarkerem. Fenol jest więc wskaźnikiem biologicznym zaistnienia ekspozycji na benzen, co ilustruje poniższy rysunek.

Biotransformacja nie musi prowadzić do zmniejszenia toksyczności substancji. Niektóre metabolity są wielokrotnie bardziej trujące od substancji pierwotnej. Na przykład benzen podlega transformacji metabolicznej, która jest powodem zatrucia szpiku kostnego. W innym przykładzie, zawarty w dymie tytoniowym benzo-a-piren sam nie jest kancerogenem. Natomiast produkt jego metabolizmu epoksyd diolu benzopirenu ma silne własności rakotwórcze. Również transformacja do trujących metabolitów powoduje konwersję parationu do paraoksonu, a pestycydu DDT do DDE (odpowiedzialnego za zmniejszenie grubości skorupek ptasich jaj).

Farmakokinetyka

Bardzo ważna jest szybkość z jaką trucizna jest absorbowana, metabolizowana i eliminowana. Jeśli organizm eliminuje daną truciznę szybko, może tolerować dawki znacznie wyższe od trujących, jeśli są one przyjmowane częściowo w pewnych odstępach czasu. Jeśli natomiast eliminuje truciznę powoli, to stałe przyjmowanie nawet niewielkich dawek w długim okresie czasu może spowodować akumulację trucizny do poziomu niebezpiecznego. Z tych powodów ważne są chroniczność zagrożenia, stężenie trucizny i częstość ekspozycji.

Farmakokinetyka to ilościowy opis przebiegu wchłaniania, transformacji, magazynowania i transportu substancji w organizmie (np. substancji trującej). Czasem nazywana toksykokinetyką, jest ilościowym przedstawieniem procesu zatrucia w funkcji czasu, zachodzącego od chwili przyjęcia dawki do organizmu. Modelowanie farmakokinetyczne jest sposobem przewidywania różnych etapów i procesów biorących udział w dotarciu trucizny do organu docelowego od chwili zaistnienia kontaktu z organizmem. Metoda ta stanowi uproszczenie w stosunku do żmudnych technik analitycznych i biochemicznych, używanych w badaniach farmakokinetyki trucizn. Większość modeli farmakokinetycznych opracowanych dla tego zadania opiera się na kinetyce reakcji zerowego, pierwszego i drugiego rzędu. Posłużono się tu technikami matematycznymi znanymi z inżynierii. Z takich obliczeń wynikają wartości parametrów takich jak szybkość absorpcji, okres półtrwania substancji i stężenie nasycenia metabolicznego.

Dzięki analizie farmakokinetycznej można określić dawkę wchłanianą w relacji do dawki efektywnej lub docelowej. W przypadku skażenia atmosfery będzie to polegało na określeniu relacji między stężeniem w powietrzu wdychanym do obserwowanej ilości wchłoniętej i przetworzonej przez organizm. W końcu dążymy do powiązania tych wielkości z dawką dostarczoną do wrażliwego organu.

Proste modele tego rodzaju ilustrujemy przykładami:

Przykład:
Eliminacja etanolu.
Metabolizm etanolu jest reakcją zerowego rzędu (tzn. wydalanie jest stałe i niezależne od stężenia). Jeśli normalny człowiek jest zdolny do metabolizowania 10 ml etanolu na godzinę, to jak długo będzie trwało wydalanie sześciu puszek piwa o zawartości alkoholu 3%?

Rozwiązanie:

t = stosunek dawki całkowitej do szybkości eliminacji

= (6 piw)x(400mL/piwo)x(3% alkoholu) / (10 ml/godz)

= 7.2godzin


Przykład:
Obliczenie okresu półtrwania dla eliminacji metylku rtęci z organizmu człowieka.
Kinetyka wielu procesów metabolicznych ma charakter reakcji pierwszego rzędu (tj. tworzenie się lub eliminacja substancji zależy od zaabsorbowanego stężenia), a stężenie substancji zmienia się w czasie o pewien stały udział, zwany stałą k reakcji pierwszego rzędu. Czas potrzebny aby stężenie obniżyło się o połowę nazywany jest czasem półtrwania ( t 1/2). Czas półtrwania substancji chemicznej podlegającej kinetyce reakcji pierwszego rzędu jest stały i nie zależy od podanej dawki. Na podstawie oznaczenia poziomu metylku rtęci u osoby uratowanej z zatrucia fungicydem w Iraku stwierdzono, że średni czas wydalania wynosi 1,75% całkowitej dawki w czasie jednego dnia. Jaka jest wartość czasu półtrwania wyznaczona przez tą obserwację?

Rozwiązanie:
Reakcja pierwszego rzędu może być opisana następująco:

C = C0 e -kt

gdzie:
C - stężenie w danym czasie t (mg/L)
t - czas (w godzinach)
C0 - stężenie początkowe (mg/L) więc:

t = - (ln C/C0) / k

t1/2 = - ln(0.5) / (0.0175 dziennie) = 39.6 dni


Modelowanie farmakokinetyczne często jest niezwykle skomplikowane, gdyż większość reakcji metabolicznych działa w złożonych układach sekwencyjnych. Wielu zmiennych o istotnym znaczeniu nie można przybliżyć w dostatecznym stopniu z uwagi na złożoność fizjologii ludzkiego ciała. W żyjącym organizmie, umieszczonym w dynamicznym środowisku, uwzględnić też trzeba funkcjonowanie wielu składowych modelu. Modelowanie farmakokinetyczne komplikuje się ponadto w sytuacji kiedy zauważymy, że nie można organizmu traktować jako jednolitego uczestnika przemian zaabsorbowanej substancji. W przypadku wielu rozpuszczalników lipofilowych (np. chlorek metylenu, chloroform i trójchloroetylen) trzeba wziąć pod uwagę wiele złożonych równowag międzyfazowych i przemian metabolicznych. Zagrożenie ze strony tych związków można przewidzieć używając modeli farmakokinetycznych uwzględniających fizjologię, w których położono nacisk na identyfikację w kategoriach zdefiniowanych biologicznie poszczególnych układów podziałowych na granicach faz i kolejnych elementów składowych układu fizjologicznego.

Czas ekspozycji

Okres podawania dawki jest oczywiście bardzo ważny. Aby scharakteryzować ekspozycję ludzi na trucizny przyjęto następujące kryteria:
Ostra - jeden dzień
Podostra - dziesięć dni
Przewlekła - dwa tygodnie do siedmiu lat
Chroniczna - siedem lat do okresu trwania całego życia

Kiedy dawka odpowiadająca zatruciu ostremu jest podawana w mniejszych porcjach w przeciągu dłuższego okresu czasu, objawy zatrucia zwykle ulegają osłabieniu. Zjawisko to zaistnieje, jeśli mamy do czynienia ze sprawną detoksyfikacją metaboliczną i wydalaniem pomiędzy ekspozycjami czynnika szkodliwego. Jeśli dezaktywacja i eliminacja będzie procesem dostatecznie krótkotrwałym w porównaniu do przerw w przyjmowaniu dawki, nie zaobserwujemy efektów zatrucia.

Na rysunku przedstawiono przypadek powtarzającej się ekspozycji na substancję podawanej w dwu różnych dawkach, z których żadna nie była wystarczająco duża aby wywołać objawy zatrucia. Okres przerw podawania trucizny był w obu przypadkach taki sam. Kiedy szybkość eliminacji wystarczy dla obniżenia stężenia trucizny do poziomu sprzed ekspozycji, jak ma to miejsce w przypadku mniejszych dawek, proces ten uchroni organizm przed przekroczeniem wartości granicznej dla zatrucia. Jeśli jednak eliminacja nie może uporać się z wchłoniętą trucizną, jak ma to miejsce dla większych dawek, należy spodziewać się przekroczenia granicy zatrucia.

Przykład:
Ekspozycja na trójchloretylen (TCE) w miejscu pracy ma charakter podobny do przedstawionego na rysunku.

Powolna eliminacja z tkanki tłuszczowej wyjaśnia dlaczego powtarzające się wahania stężeń wokół średniego dziennego poziomu ekspozycji (100 ppm liczonego na cały dzień roboczy i 5 dni w tygodniu) powoduje akumulację stężeń. Tak długo nowe dawki TCE dodają się do resztkowych stężeń z poprzedniego dnia pracy, aż całkowite stężenie w organizmie osiągnie wartość stałą. Wartość ta osiągana pod koniec tygodnia jest na tyle wysoka, że całkowita zawartość TCE w organizmie ma już znaczenie toksykologiczne. Obserwacja ta skłania do rewizji uprzednio akceptowanych standardów dla higieny pracy. Zakładając, że kinetyka eliminacji jest pierwszego rzędu, "średnie" obciążenie organizmu w stadium po osiągnięciu równowagi (Xf) w czasie powtarzających się ekspozycji może zostać przybliżone następującym równaniem:

Xf = 1.44 x t1/2 x f x D/t

gdzie:
t1/2= czas półtrwania substancji (w dniach)
f = frakcja zaabsorbowana
D = dawka przyjęta w każdym z okresów ekspozycji (mg/kg ciężaru ciała)
t = stały okres czasu pomiędzy ekspozycjami (w dniach)

Niezależnie od tempa eliminacji mogą wystąpić objawy zatrucia po przyjęciu powtarzających się małych dawek, jeśli :
a) po każdej ekspozycji pozostaną "szkody resztkowe"; lub
b) zaistnieje stopniowa akumulacja trucizny.

Ostatnio opisano kliniczne objawy nieodwracalnego uszkodzenia nerwów wskutek powtarzającej się ekspozycji na fosforan trój-o-krezylowy przy dawkach niższych niż poziom toksyczny. Jest to przykład pierwszego z powyższych schematów.

Efekty Zatruć

Zdarzenia prowadzące do powstania zatrucia można podzielić na trzy fazy: ekspozycja, farmakokinetyka i ujawnienie zatrucia. Kiedy trucizna lub jej metabolity docierają do organu docelowego, to początek trzeciej fazy, tj. ujawnienia zatrucia. Faza ta jest pierwszą, która może być obserwowana klinicznie na podstawie symptomów działania trucizny. Sekwencję zdarzeń w tej fazie przedstawia graficznie poniższy schemat:

Mechanizm i specyficzna sekwencja działań prowadząca do efektu zatrucia często są słabo znane. Uważa się zwykle, że w czasie przemieszczania się toksyny od miejsca absorpcji do organu docelowego łączy się ona, jeśli nie wiąże chemicznie, z cząsteczką lub grupą cząsteczek pochodzących z komórki organu docelowego. Cząsteczka lub grupa cząsteczek będąca pod działaniem trucizny określane są jako receptor. Enzymy są typowymi receptorami. Może nim być również błona komórkowa, pewne cząsteczki w komórce lub DNA, co przedstawiono na rysunku:

typowe w komórkach miejsca docelowe dla akcji trucizny

Docelowymi cząsteczkami mogą być specyficzne receptory dla endogenicznych lub "naturalnych" substratów, zlokalizowane na enzymie katalizującym określoną reakcję biochemiczną. Mogą też być receptorami punkty na błonie komórkowej, których przeznaczeniem jest łączenie się z "substancjami sygnałowymi" takimi jak hormon spełniający funkcję regulacyjną dla różnych procesów metabolicznych. Kiedy cząsteczką docelową jest DNA może stać się to powodem zmian w dziedziczeniu (mutacja), jeśli stanie się to w komórkach płciowych (zarodkowych), albo zainicjowaniem nowotworu w każdej innej komórce somatycznej.

Reakcje docelowe mogą również być niespecyficzne. Na przykład, trujące czynniki (np. arsen i pewne metale ciężkie) wiążą się z grupami reaktywnymi (np. tiolową) występującymi w wielu składnikach biologicznych. Ponieważ działanie wielu enzymów zależy od dostępności grup -SH, trucizny działają jak inhibitor dla tych enzymów.

Z wyjątkiem uczestniczących w niewielu funkcjach biochemicznych, cząsteczki docelowe są w zasadzie niemożliwe do zidentyfikowania, gdyż obserwowane klinicznie efekty zatruć mogą wynikać z uszkodzenia funkcji wielu z nich. Najczęściej rezultatem niespecyficznych reakcji z truciznami jest śmierć komórki.

Powinowactwo Strukturalne

Czynnikiem o pierwszorzędnym znaczeniu dla zadziałania trucizny jest jej powinowactwo do określonego receptora w komórce organizmu, a czasem brak takiego oddziaływania. Powinowactwo można rozpoznać po budowie związku (tj. rozmieszczeniu atomów w przestrzeni trójwymiarowej) lub po stereochemicznej konfiguracji cząsteczki. Powinowactwo zachodzi, jeśli toksyna ma budowę komplementarną wobec receptora komórkowego. W zasadzie stwierdzenie powinowactwa między strukturą składnika komórki i cząsteczki ksenobiotyku spowoduje, że mogą one połączyć się lub nawet związać trwale - patrz rysunek. Działa to analogicznie jak klucz umieszczony w zamku.

Mechanizm działania wielu trujących chemikaliów polega na związaniu stereospecyficznych szczelin w cząsteczce receptora w sposób uniemożliwiający receptorowi wypełnianie jego specyficznej funkcji w komórce. Takie połączenie może spowodować zakłócenie działania enzymów lub niektórych innych procesów. Wiązanie nie musi powodować reakcji toksycznej. Może natomiast zablokować przepuszczalność membrany, zmagazynowanie w określonym organie tkankowym, albo zainicjować enzymatyczną transformację trucizny. W pewnych przypadkach (np. wiązanię tlenku węgla z hemoglobiną) trucizna blokuje miejsce normalnie przeznaczone dla tlenu. Tlenek węgla może 40 razy mocniej wiązać się z hemoglobiną niż tlen. W ten sposób trucizna konkuruje z pożyteczną substancją, choć jej nie eliminuje. W innych przypadkach wejście "klucza" całkowicie unieczynnia cząsteczkę receptora. Można przypuszczać, że im dokładniejsze jest dopasowanie tym silniejszy będzie efekt działania trucizny. Ksenobiotyki nie mające powinowactwa do cząsteczek aktywnych w komórce będą prawdopodobnie nietoksyczne i w większości zostaną wydalone. Niemniej znane są wyjątki w postaci trucizn niespecyficznych.

przykłady związków chemicznych o tych samych wzorach cząsteczkowych ale o różnej toksyczności

Istotę powinowactwa strukturalnego wyjaśniają przykłady licznych izomerów wykazujących wielkie różnice w toksyczności (izomery to związki posiadające taką samą liczbę i rodzaj atomów składowych ale mające odmienną budowę). Przykładem mogą być pokazane na powyższym rysunku dwa izomery sześciochlorowanego dwufenylu (jednego z wielochlorowanych dwufenyli PCB, który ma sześć atomów chloru). Zwykle dwa pierścienie benzenowe mają możliwość rotacji wokół wiązania węgiel-węgiel między nimi. Jednak umieszczenie chloru na wewnętrznych atomach węgla (w pozycji orto- , jak to jest w cząsteczce z lewej strony rysunku) blokuje rotację, więc dwa pierścienie benzenowe nie mogą ustawić się koplanarnie. Ponieważ ułożenie koplanarne pierścieni jest warunkiem przyłączenia się cząsteczki do określonych receptorów komórkowych, więc spowodowania efektu toksycznego, więc lewy izomer jest 20 razy mniej trujący niż prawy.

Koncepcja kompleksu toksyny z cząsteczką receptora powstającego w przypadku powinowactwa struktur cząsteczkowych była w przeszłości podstawą szerokich badań. Kiedy została rozwinięta do teorii zwanej quantitative structural-activity relationships (QSAR), pozwoliła na przewidywanie własności toksykologicznych dla nowych substancji, zanim skierowano je do pełnych testów laboratoryjnych.

Mechanizmy absorpcji

Cząsteczki związków chemicznych mogą przenikać przez komórki nabłonkowe tworzące zewnętrzne i wewnętrzne bariery ochronne organizmu w wyniku różnych mechanizmów:
a) pasywny transport przez ścianki komórkowe (tj. dyfuzję); albo
b) transport aktywny; lub
c) przenikanie przez pory lub kanały między komórkami nabłonka.
Większość trucizn przenika ścianki komórek w mechanizmie transportu z udziałem dyfuzji.

Dyfuzja.

Szybkość dyfuzji zależy od fizykochemicznych własności trucizny (szczególnie jej charakteru polarnego), rozpuszczalności w lipidach, zdolności do wiązania się z białkami i od rozpuszczalności w wodzie. Rozpuszczalność w lipidach jest najważniejszą cechą truciny dla określenia jej zdolności do przenikania przez błony komórkowe. Wielkość ta określona jest preferencją związku chemicznego dla rozpuszczalników o cechach lipidów w porównaiu z rozpuszczalnikami opartymi na wodzie (tj. krwią i uryną).

Rozpuszczalność w lipidach zależy od polarności związku chemicznego. Substancje polarne dobrze rozpuszczają się w wodzie, więc zwane są hydrofilowymi. Podobnie substancje niepolarne nazywa się hydrofobowymi lub lipofilowymi. Większa od jedności wartość współczynnika podziału oktanol/woda wskazuje na lipofilowy charakter substancji, a im większa jest jego wartość tym lepsza rozpuszczalność w lipidach. Wiele z chemikaliów organicznych jest niepolarnych i dobrze rozpuszcza się w lipidach (np. benzen). Dlatego bogate w lipidy błony komórkowe są łatwo penetrowane przez chemikalia.

Szybkość przenikania przez membrany i wchłaniania do krwioobiegu jest tym większa in wartość współczynnika podziału oktanol/woda jest wyższa. Natomiast mniejszą zdolność przenikania przez membrany mają związki o większej masie cząsteczkowej. Wynika to stąd, że lipidowa struktura błon komórkowych może przeciwdziałać przenikaniu cząstek polarnych i naładowanych. Jednak małe cząsteczki związków polarnych mogą przenikać w postaci jonów nawet przez błony komórkowe. W tym celu wykorzystują one kanały o średnicy rzędu 4 angstremów. Tą drogą więc przenikają wyłącznie związki polarne i niepolarne o masie cząsteczkowej mniejszej niż 200.

Ten opis własności błon komórkowych ma w większości zastosowanie do tzw. "bariery krew-mózg". Bariera ta jest strukturą oddzielającą centralny układ nerwowy od limfy i krwi obwodowej, złożoną z wielu typów komórek. Wprawdzie wiele środków przeciwbólowych, znieczulających i uspokajających potrafi łatwo przeniknąć barierę krew-mózg, to jednak jest ona dużo mniej przepuszczalna dla trucizn niż inne membrany w organizmie.

Trzeba tu podkreślić, że własności membran biologicznych pomiędzy różnymi częściami organizmu mogą znacznie się różnić w wyniku różnic składu warstw komórkowych tworzących wyściółkę nabłonkową organów. Na przykład własności zaporowe w różnych częściach przewodu pokarmowego przedstawiają bardzo złożony obraz. Są tam wchłaniane również tak duże cząstki jak siarczan kodeiny, podobny w budowie do alkaloidów o masie cząsteczkowej 300-400. W nerkach membrany mają w niektórych miejscach tak dużą porowatość, że przepuszczają cząstki o masie molekularnej do 60,000. Przenikanie to zachodzi poprzez miedzykomórkowe szczeliny w membranie nabłonka.

Absorpcja wyspecjalizowana.

Oprócz zasadniczego mechanizmu wchłaniania przez dyfuzję może funkcjonować złożony system wyspecjalizowanego transportu przez tkanki nabłonkowe. Bardzo wiele takich mechanizmów funkcjonuje selektywnie dla absorpcji hydrofilowych składników odżywczych, np. cukrów. Systemy te mogą również selektywnie przenosić niektóre toksyny. Są też potrzebne dla eliminacji trucizn z organizmu. Przykładem mechanizmu absorpcji selektywnej może być fagocytoza, w której błona komórkowa otacza cząstki i w celu wprowadzeni ich do wnętrza komórki. Ten rodzaj absorpcji jest ważny dla usuwania cząstek z pęcherzyków płucnych przez wyspecjalizowane białe komórki krwi zwane makrofagami alveolarnymi. Może też występować w niewielkiej skali w innych miejscach (np. w dwunastnicy) i odpowiada między innymi za wchłanianie trucizn o dużym ciężarze cząsteczkowym, jak np. toksyna jadu kiełbasianego.

Absorpcja w przewodzie pokarmowym

Absorpcja trucizn może zachodzić na całej długości przewodu pokarmowego. W żołądku będzie z powodu niskiego pH inaczej przebiegać niż w jelitach. Występuje tu obok dyfuzyjnego transport wyspecjalizowany. Znanych jest szereg czynników wpływających na absorpcję w układzie pokarmowym. Na przykład obecność czynników helatujących może wzmocnić absorpcję metali ciężkich, obecność cynku zmniejszy wchłanianie kadmu, a zmniejszenie mobilności gastrycznej będzie promowało absorpcję.

Absorpcja w układzie oddechowym

Występująca w środowisku substancja w postaci gazu jest wdychana i wnika dyfuzyjnie do półpłynnej warstwy wyściółki dróg oddechowych. Przenikanie przez tą warstwę zależy od współczynnika dyfuzji gazu, grubości warstwy i stężenia gazu na granicy faz. Rozpuszczony w wyściółce gaz jest wprowadzany do organizmu przez krew przepływającą w kapilarach po drugiej stronie tkanek nabłonka. Wchłanianie w pęcherzykach płuc kontrolowane jest przez współczynnik podziału między krwią i powietrzem, relację między wentylacją i perfuzją, gradient stężenia w krwi i w powietrzu. Dla łatwo rozpuszczalnych gazów wchłanianie jest liniowo zależne od rozpuszczalności. Na ogół współczynnik podziału między tkanki i gaz jest liniowo skorelowany ze współczynnikami podziału fazowego tłuszcz-gaz i krew-gaz, co pozwala oszacować wartość tego współczynnika. Niemniej zależność między absorpcją w płucach i stężeniem w powietrzu może okazać się nieliniową, jak zauważono w przypadku gazów trudno rozpuszczalnych w wodzie, jak np. butadien.

Miejsce osadzania się wdychanych cząstek silnie zależy od ich wielkości. Cząstki większe niż 2 mm osadzają się w górnych drogach oddechowych i po usunięciu ich wraz z wyściółką śluzową - są połykane. Ich składniki są wchłaniane w przewodzie pokarmowym. Drobiny o mniejszych rozmiarach docierają do pęcherzyków płuc i osadzają się tam. Zwierzęta z różnych gatunków, eksponowane na takie same stężenia cząstek stałych lub gazu we wdychanym powietrzu, nie będą przyjmować takich samych dawek w kolejnych częściach układu oddechowego. Dlatego wnioskowanie o wchłanianiu dawki przez ludzi na podstawie doświadczeń na zwierzętach jest bardzo trudne, szczególnie w wypadku aerozoli. U ssaków lokalne warunki osadzania się drobin zależą od własności fizjologiczno-anatomicznych, specyficznych dla danego gatunku, oraz od własności fizykochemicznych wdychanej trucizny. Osadzanie się cząstek stałych zależy od kinetyki zderzeń, sedymentacji, dyfuzji i wychwytywania elektrostatycznego. Wchłanianie gazów zależy od konwekcji, dyfuzji, reaktywności chemicznej i rozpuszczalności. Retencja zależy od względnych szybkości osadzania i oczyszczania. Dlatego wiedza gatunkowym zróżnicowaniu wentylacji pęcherzyków płucnych i unoszenia z krwiobiegiem jest krytycznym wyznacznikiem oceny dawki absorbowanej.

Absorpcja przez skórę

Skóra jest doskonałą zaporą przed wieloma trującymi substancjami. Pozwala organizmowi wytrzymać podanie dawki 100 lub 1000 razy większej niż kiedy trucizny wnikają do organizmu przez spożycie lub wdychanie. Niemniej znane są liczne wyjątki, jak np. czynniki agresywne korozyjnie dla skóry (np. fenol) i wiele związków lipofilowych (np. czterochlorek węgla lub lindan). Niektóre względnie hydrofilowe związki organofosforowe (np. pestycyd Paration) również są silnie trujące działając poprzez kontakt ze skórą.

Wpływ drogi wchłaniania na zatrucie.

Droga wchłaniania ma oczywisty wpływ na wielkość przyjętej dawki. Wraz z innymi czynnikami objawia się to w postaci wielkiej różnorodności skali i typów działań toksycznych. Na przykład krzemionka w wyniku długotrwałego wdychania cząstek pyłu może wywołać chorobę płuc zwaną "krzemicą", a zupełnie niegroźna jest kiedy zostanie wchłonięta drogą pokarmową. Inne przykłady to azbest, chrom i nikiel, które wdychane wywołują nowotwory, a nic nie wskazuje na ich rakotwórcze własności jeśli są spożywane. Większość substancji jest silniej trujących, kiedy podawane są drogą wdychania. Natomiast wchłaniane w drodze spożycia lub przez kontakt ze skórą są nieszkodliwe. Wynika to z dużej szybkości przenikania toksyn do krwioobiegu w płucach. W przeliczeniu na dawkę przyjętą toksyczność chemikaliów podawanych na tej drodze jest często porównywalna do obserwowanej przy podawaniu w kroplówce bezpośrednio do krwioobiegu. Kiedy stwierdzimy, że substancja ma niewielką toksyczność przy podaniu doustnym, a równocześnie jest silnie trująca, kiedy to samo zwierzę przyjmie ją w drodze wdychania, możemy podejrzewać, że w przewodzie pokarmowym są warunki sprzyjające dezaktywacji lub jest źle tam wchłaniana.

Klasyfikacja Działania Trucizn i Rodzajów Zatruć

Objawy zatrucia mają charakter behawioralny i fizjologiczny. Mogą występować w postaci od bólu głowy i nudności, aż do konwulsji i śmierci. W zależności od kontekstu badań, wyróżnia się wiele klasyfikacji dla trujących chemikaliów.

Klasyfikacja według punktu końcowego.

Prosta ale prawidłowa i powszechnie używana klasyfikacja zatruć związkami chemicznymi ma podstawę w postaci punktu końcowego ich działania. Z powodu znakomicie różnych zależności dawka-objawy, stosowanych w ocenach zagrożenia, często używa się podział efektów zatruć na dwie kategorie: działanie rakotwórcze, które kończy się wywołaniem raka; i działanie nierakotwórcze obejmujące wszystkie inne efekty zatruć. Ta klasyfikacja powoduje pewne nieścisłości, gdyż efektom nierakotwórczym mogą towarzyszyć działania mutagenne, a wiadomo że mutacje są ściśle związane z powstawaniem raka. Niemniej klasyfikacja ta jest szeroko stosowana i pozwala na rozróżnienie trującego działania ołowiu i benzenu i innych niebezpiecznych substancji. Określenie "genotoksyczne" bardziej precyzyjnie wyróżnia grupę efektów rakotwórczych i mutagennych. Będzie odpowiadało wszystkim substancjom chemicznym, które mogą zmieniać DNA lub chromosomy. Prawdopodobnie spowoduje to raka komórek somatycznych (wszystkich komórek organizmu z wyjątkiem komórek płciowych) albo prowadzi do dziedzicznych zmian w wyniku działania na komórki płciowe.

Rozmaite działania trucizn występujące od chwili zapłodnienia, poprzez etap dojrzałości seksualnej, aż do starości, można określić jako oddziaływanie na rozwój, a wśród nich wyróżnić specjalne podkategorie. Szkodliwe oddziaływanie na proces reprodukcji zaczynają się od chwili zapłodnienia, zagnieżdżenia i rozwoju zarodka, a kończą w czasie rozwoju płodu i w chwili porodu. Są one zgrupowane w kategorii oddziaływania na proces reprodukcji. Teratogeneza (od greckiego "teras" - odpowiednik polskiego "monstrum") opisuje specjalną podkategorię efektów patologicznych powstających w okresie rozwoju płodowego od zagnieżdżenia zarodka do trzeciego miesiąca ciąży. W tym czasie u ludzi różnicują się i rozwijają główne tkanki i organy. Fetotoksyczność opisuje szereg zaburzeń, jak opóźnienia w rozwoju, które mogą zaistnieć w czasie rozwoju płodu podczas późniejszych stadiów ciąży. W okresie tym nie powstają już najpoważniejsze deformacje budowy szkieletowej ani organów dziecka.

Rozwój niemowlęcy jest kolejnym okresem szczególnej wrażliwości. Z powodu szybkiego wzrostu dziecko jest bardziej podatne na niektóre trucizny niż organizm dorosłego człowieka. Przykładem jest ołów, który może opóźnić rozwój intelektualny u małych dzieci. Niezbyt długotrwała ekspozycja na ołów w czasie ciąży lub przed osiągnięciem dojrzałości płciowej, a nawet jednorazowe zagrożenie o większej skali, mogą spowodować szkody rzadko spotykane u dorosłych.

Klasyfikacja względem organu docelowego

W pewnych przypadkach można wyróżnić organy docelowe lub tkanki, których podatność na zatrucia pozwala pogrupować trucizny działające specyficznie. Mogą to być nerki - dla zatruć kadmem, szpik kostny - dla benzenu, mózg - dla metylortęci, wątroba - dla czterochlorku węgla, płuca - dla pestycydu Paraquat, oczy - dla środka przeciwmalarycznego Chloroquine.

Trzeba jednak zauważyć, że często trudno jest przypisać działania trucizny do jednego charakterystycznego organu. Wiele substancji indukuje ogólne symptomy intoksykacji, a nudności i bóle brzucha, utrata apetytu, migreny, bezsenność, itp. mogą być tylko powierzchownymi wrażeniami wynikającymi z zatrucia. Dobrą ilustracją takiej sytuacji może być działanie przyjętej doustnie, trującej ale nie śmiertelnej, dawki nieorganicznych związków arsenu.

Efekty toksykologiczne można też charakteryzować następująco:

  • bezzwłoczne w odróżnieniu od opóźnionych
  • nieodwracalne w odróżnieniu od odwracalnych
  • lokalne odróżnieniu od ogólnoukładowych

Klasyfikacja względem czasu wystąpienia objawów

Spożycie śmiertelnej dawki rozpuszczalnych cyjanków powoduje śmierć w czasie kilku minut. Jest to przykładem bezzwłocznego efektu działania trucizny. Czynniki rakotwórcze natomiast są powodem rozwoju raka u ludzi po okresie utajenia, który może obejmować 10 do 30 lat.

Metoda charakteryzacji działania trucizny pod względem okresu utajenia stosuje pojęcia zatrucia ostrego i chronicznego. Zatrucie ostre albo bezzwłoczne ujawnia się krótko po pojedynczej ekspozycji, a typową przyczyną jest przyjęcie jednej dawki przekraczającej możliwości obronne organizmu. Opóźnione efekty zatrucia cechujące się długim czasem utajenia, często mierzonym latami. Warto tu zauważyć, że ekspozycja wywołująca ostre zatrucie może spowodować opóźnione działanie toksyczne albo schorzenia chroniczne.

Klasyfikacja względem odwracalności zatruć

Pożyteczne działanie farmakologiczne leków zwykle jest odw

racalne. W przypadku antyterapeutycznych działań trucizn może być inaczej, zależnie od rodzaju ich działania i zdolności zagrożonych tkanek do regeneracji. Skóra i wątroba mają dużą zdolność autonaprawy, więc niewielkie ich uszkodzenia często są odwracalne. Uszkodzenia centralnego systemu nerwowego powodowane przez chemikalia są natomiast w większości nieodwracalne z powodu niewielkiej zdolności lub braku możliwości regeneracji tych tkanek.

Klasyfikacja względem rozległości uszkodzeń

Toksykologia wyróżnia zatrucia lokalne w odróżnieniu od działań trucizny na cały organizm. Chemikalia reaktywne (np. bezwodniki kwasowe, epoksydy, silne kwasy i zasady, chlorki acylowe i czynniki agresywne korozyjnie) powodują wystąpienie efektów zatrucia (np. obumieranie komórek) natychmiast po uzyskaniu kontaktu z tkankami (np. skórą, oczami, błoną śluzową w układzie oddechowym). Równocześnie takie trucizny nie przenikają w znacznych ilościach do wnętrza organizmu. Natomiast trucizny ogólnoukładowe mogą powodować zatrucie w miejscu odległym od punktu absorpcji (np. fosforan trój-o-krezylu powoduje uszkodzenia obwodowego układu nerwowego wskutek spożywania niewielkich dawek w długim okresie czasu).

Zależność dawka-reakcja

Nasilenie objawów zatrucia zależy od wielu czynników. Wydaje się oczywistym, że wielkość dawki będzie najważniejszym wyznacznikiem rozmiarów zatrucia. Występuje zależność między wielkością dawki i rozmiarem zatrucia (tj. większa liczba zaatakowanych receptorów prowadzi do poważniejszych uszkodzeń tkanki).

Zależność zatrucia od dawki

Rozmiary efektów zatrucia nie zależą tylko od dawki lecz również od indywidualnej odporności organizmu. Ta z kolei zależy głównie od wieku, płci, diety, stanu zdrowia, genetyki, wcześniejszych kontaktów z analizowaną trucizną i innymi czynnikami szkodliwymi. Również inne uwarunkowania są istotne, gdyż pomimo ścisłego utrzymania wyżej wymienionych uwarunkowań na porównywalnym poziomie u zwierząt laboratoryjnych i tak obserwuje się zróżnicowane objawy reakcji toksycznej na taką samą dawkę trucizny.

Częstotliwość wystąpienia określonego zatrucia w populacji badanej (np. udział wystąpienia raka u zwierząt, udział padłych zwierząt) rejestruje się w funkcji wielkości dawki. Tak wyznaczoną zależność nazywamy zależnością dawka-reakcja. Klasycznym przykładem badania zależności dawka-reakcja jest eksponowanie populacji organizmów żywych na coraz większe dawki substancji toksycznej. Zazwyczaj w badanej populacji nie notuje się zgonów przy małych dawkach, kilka zgonów po zwiększeniu dawki, znaczną liczbę zgonów przy dużych dawkach, aż po podaniu jeszcze większej dawki wszystkie organizmy padają. Większość wykresów sumarycznej śmiertelności od logarytmu dawki posiada klasyczny kształt krzywej "S", co ilustruje rysunek.

Pomysł prowadzenia takich eksperymentów ogłoszony został już w 1927 wraz z propozycją wprowadzenia pojęcia średniej dawki śmiertelnej (LD50). Wyrażana jest ona zwykle w mg/kg wagi ciała i określa dawkę trucizny, przy której przy życiu pozostaje najwyżej 50% organizmów. Uważa się ją czasem za miernik zależności dawka-odpowiedź, gdyż ujawnia odpowiedź w relacji zerojedynkowej (tj. żywy lub martwy). Analogiczna wielkość dla trucizn wdychanych zwana jest średnim stężeniem śmiertelnym (LC50), gdzie dawka zastąpiona jest stężeniem substancji obecnej we wdychanym powietrzu.

Dla umożliwienia porównań toksyczności ostrej chemikaliów i dla utworzenia skali relatywnej zwykle analizuje się wartości LD50 dla gryzoni przy aplikacji trucizny przez układ pokarmowej. Tabela przedstawia wartości LD50 różnych trucizn wyznaczone dla szczura.

Z powodu osobniczych różnic podatności zależność dawka-reakcja często wykreśla się we współrzędnych logarytmicznych - dla wartości dawki; i liniowych - dla częstości występowania zgonów w grupie badanej. Kształt dzwonowy jaki ma krzywa na dolnym wykresie rysunku jest charakterystyczny dla stochastycznego rozkładu częstości zgonów względem logarytmu wartości dawki. Jest to zależność zmienności podatności na truciznę w populacji, typowa dla większości działań toksycznych.

Analiza zależności dawka-reakcja powinna być poprzedzona zdefiniowaniem toksykologicznego punktu końcowego, wynikającego z rodzaju reakcji spowodowanej przez ekspozycję na dany czynnik szkodliwy. Określenie punktu końcowego powinno być jednoznaczne, opisane przez łatwe do obserwacji objawy, jak śmierć osobnika lub zanik aktywności organu. Posługując się trudną do weryfikacji definicją punktu końcowego, taką jak opóźnienie w rozwoju, narażamy się na uzyskanie wyników łatwych do podważenia .

Rzędna (tj. reakcja) zależności dawka-reakcja zwykle mierzona jest jako częstość występowania określonego punktu końcowego (np. procent śmiertelności). Analogicznie można ją rejestrować jako prawdopodobieństwo występowania punktu końcowego. Ten sposób definiowania zależności jest częściej stosowany dla kancerogenów, jako prawdopodobieństwo wystąpienia raka w czasie całego życia po ekspozycji na truciznę.

Jeśli posiadamy dobrze zinterpretowane dane kliniczne, możemy je użyć w charakterze wskaźników działania trucizn. Parametr wybrany do tego celu powinien być specyficzny, mierzalny i związany funkcjonalnie z toksykologicznym działaniem czynnika chemicznego.

U ludzi ołów powoduje anemię przez inhibicję syntezy hemoglobiny z wielu prekursorów. Powoduje to akumulację w erytrocytach (czerwonych ciałkach krwi) protoporfiryny jako jednego z prekursorów. Dlatego protoporfiryna może być traktowana jako biomarker dla toksycznego działania ołowiu. Stwierdzono, że jest ona czułym i rzetelnym wskaźnikiem zaistnienia ekspozycji na małe stężenia ołowiu. Na rysunku przedstawiono zależność dawka-reakcja dla poziomu EP w funkcji stężenia ołowiu w krwi, opracowaną na podstawie badań kilku grup w populacji ludzi.

Odcięta (tj. dawka) w zależnościach dawka-reakcja jest wartością zadaną. Wyrażana jest najczęściej w jednostkach przeliczonych na wagę ciała (np. mg lub mol związku chemicznego na kg wagi ciała). Takie przeliczenie pozwala ekstrapolować wyniki uzyskane na próbkach małych zwierząt na oceny toksyczności dla ludzi. Odcięta może być też wyrażona w jednostkach innych niż dawka. Szczególnie przy badaniu ekspozycji na skażenia w powietrzu lub oddziaływań na ryby zanieczyszczeń rozpuszczonych w wodzie jest wyrażana w jednostkach stężeń obserwowanych w otaczającym próbkę środowisku.

Zależność dawka-efekt

Trucizna chemiczna może powodować szkodliwe oddziaływania na stan zdrowia już od dawki znacznie mniejszej od śmiertelnej. Można zamiast częstości występowania zdarzeń w populacji badanej, analizować intensywność (albo stopień nasilenia) występowania objawów zatrucia u pojedyńczego osobnika (np. wzrost ciśnienia krwi, opóźnienie wzrostu, występowanie w plazmie krwi wskaźników uszkodzenia wątroby). Wyniki tej analizy są wykreślane w funkcji wielkości dawki, a ich korelacja zwykle jest nazywana zależnością dawka-efekt.

Etery glikolowe (rozpuszczalniki przemysłowe) powodują uszkodzenia jąder u szczurów. Na rysunku przedstawiono zależność dawka-efekt między ilością podawanego w pokarmie glikolowego eteru jednometylowego (EGM) i odpowiedniej wagi organu (jąder i prostaty) u szczurów po 11 dniach zatruwania. Wykres dawka-efekt może być przekształcony do postaci krzywej dawka-odpowiedź, jeśli określimy wartość progową dla oceny mierzalnego efektu. Możemy wówczas wykreślić zależność udziału w populacji osobników, u których stwierdzono wystąpienie tej deformacji, od wielkości dawki.

Dane Toksykologiczne - Populacje Ludzi

Dane toksykologiczne wynikają z obserwacji:

  1. populacji ludzi eksponowanych na daną substancję, zwykle obecną w miejscu pracy; i
  2. zwierząt laboratoryjnych, które są poddawane doświadczeniom w warunkach laboratoryjnych.

Studia epidemiologiczne zatruć ludzi eksponowanych na toksyczne substancje stanowią bardzo przekonywujący dowód na powiązanie obecności trującej substancji z niekorzystnymi skutkami dla zdrowia ludzi. Z powodów etycznych przypadkami będącymi obiektem tych badań są wyłącznie osoby eksponowane na trucizny w miejscu pracy albo odosobnione zdarzenia losowe związane z ekspozycją całych populacji.

Rodzaje studiów epidemiologicznych

Spośród wielu metod prowadzenia studiów epidemiologicznych omówimy metodę kohorty, case-control i przekrojów populacji.

Stosowane są dwie metody badań kohorty: prospektywna i retrospektywna.
W prospektywnych badaniach kohorty wybrana populacja, czyli kohorta, jest konfrontowana z ekspozycją na określoną truciznę w celu osiągnięcia konkretnego punktu końcowego zatrucia. Ważną cechą tej metody jest możliwość kontrolowania zależności dawka-reakcja w sposób bardzo precyzyjny. Jednak badanie takie wymagają długiego okresu czasu i mają niewielką rozdzielczość. Jeśli nie można utrzymać wysokiego poziomu ekspozycji, należy poddać badaniom dużą liczbę osób w celu wykrycia efektu o znaczeniu statystycznym. Kiedy taka kohorta jest badana retrospektywnie (retrospektywna metoda kohorty) mamy lepsze warunki do opisania zależności dawka-reakcja. Jednakże często zdarzają się nieścisłości wynikające z niedostatku rejestracji, trudności w odtworzeniu zdarzeń związanych z ekspozycją, braku informacji o ekspozycji na inne czynniki i inne niedociągnięcia.

W metodzie case-control stosuje się inne zasady. W ujęciu retrospektywnym wybiera się spośród większej populacji osoby, u których stwierdzono określoną chorobę, a następnie analizuje się zagrożenie ekspozycją na podejrzany czynnik, zdolny do wywołania tej choroby. Każda z chorych osób jest traktowana jak oddzielny przypadek. Zaistnienie u nich ekspozycji na badany czynnik jest następnie porównywane z przypadkami ekspozycji w grupie kontrolnej osób, u których rozpatrywanej choroby nie stwierdzono. Kiedy stwierdzimy, że wśród osób chorych kontakt z trucizną był częstszy niż u osób z grupy kontrolnej, powinniśmy uznać, że istnieje związek przyczynowy między chorobą i ekspozycją. Metoda ta wymaga uwzględnienia takich czynników jak wiek i płeć osób w obu próbkach oraz kwestia palenia. Ponieważ próbki osób chorych i zdrowych mogą być wybierane spośród bardzo dużych populacji, metodologia ta jest bardziej obiektywna niż badania kohort, jednak również ma wady wynikające z niedociągnięć w realizacji. Uważa się, że badania metodą case-control są możliwe do wykonania tylko jeśli rozpatrywany w nich toksykologiczny punkt końcowy jest stosunkowo rzadki. Jeśli są prawidłowo wykonane mogą dostarczyć ważnych wniosków o przyczynach chorób u ludzi (tj. o etiologii), jednak rzadko umożliwiają rzetelną ocenę zależności dawka-reakcja.

W badaniach przekrojowych (studium rozpowszechnienia) zbiera się informacje o częstości występowania w jednostce czasu określonej choroby lub zatrucia oraz o ich związku z ekspozycją lub możliwością wystąpienia ekspozycji na badaną truciznę. Na przykład, poddaje się weryfikacji następującą kwestię:
Czy anemia jest częstszą chorobą wśród pracowników huty zużywającej rudy siarczkowe o wysokiej zawartości arsenu, w porównaniu do ogólnej populacji zdrowych mężczyzn?
Chwilową ekspozycją na arsen można ocenić mierząc stężenie arsenu w moczu, a chroniczną przez oznaczenie arsenu we włosach i paznokciach.
Podobnie jak w innych studiach epidemiologicznych należy starannie dobrać próbkę kontrolną, porównywalną z grupą badaną pod względem wieku, zwyczaju palenia, odżywiania, stanu zdrowia, itp.

Badania epidemiologiczne na terenie składowania niebezpiecznych odpadów.

Jak powinno wyglądać badanie epidemiologiczne terenu, który dawniej był skażony przez nielegalne zakopywanie niebezpiecznych odpadów?
Jakiego rodzaju problemy powstają w czasie takich badań?
Epidemiolog powinien posłużyć się metodą retrospektywną albo case-control. Najpierw powinien wskazać reprezentatywne punkty poboru próbek i pozyskać dane o wielkości skażenia środowiska, w celu oceny skali zagrożenia zdrowia ludzi przez określone skażenia chemiczne. Również należy dokonać przeglądu literatury w celu określenia jakich rodzajów uszkodzeń zdrowia można spodziewać się dla sytuacji opisanej jakością i poziomem stężeń trucizn w środowisku. Następnie trzeba rozpoznać częstość występowania schorzeń wśród zagrożonej ludności. Przy innym podejściu epidemiolog może wyszukać choroby o niezwykle wysokiej częstości występowania w okolicznej społeczności i następnie próbować przypisać ich pochodzenie do skażeń przy pomocy metod case-control lub przekrojów populacji. Trzeba sobie uświadomić, że prowadzenie dochodzenia epidemiologicznego na populacji ludzkiej zamieszkałej sąsiedztwo miejsca składowania niebezpiecznych odpadów przedstawia niezwykłe zadanie. Jednym z najtrudniejszych zadań jest zapewnienie rzetelności oceny zagrożenia. Ekspozycja bowiem obejmuje tu prawie na pewno więcej niż jedno skażenie. Ponadto czas poświęcony na dochodzenie może być niewystarczający dla uzyskania reprezentatywnych danych, więc należy też ocenić skalę wcześniejszych ekspozycji. Wymaga to wykonania przeglądu zapisów historycznych i częstości zachorowań i śmiertelności w obecnej populacji mieszkańców, jak również danych o osobach, które opuściły już ten teren. Bardzo to komplikuje prowadzenie badań. W końcu może okazać się, że badana populacja jest zbyt nieliczna, aby można było uzyskać dane poddające się ocenie statystycznej.

Ograniczenia badań epidemiologicznych

Warto pamiętać, że same badania epidemiologiczne oparte o metody statystyczne nie dają nigdy pewności zaistnienia zależności przyczynowo-skutkowej. Niemniej ich wyniki mogą sprowokować do postawienia lub weryfikacji konkretnej hipotezy. Ponieważ występuje szereg możliwości wniesienia błędów do badań epidemiologicznych, uzyskanie korelacji statystycznej może być kwestią przypadku. Niemniej ważne dla wiarygodności korelacji jest również , aby była potwierdzona przez wiadomości biologiczne pochodzące z danych toksykologicznych i innych kompetentnych źródeł informacji. Uzgodnienie wiadomości jest więc zwykle pierwszym krokiem. Nawet w przypadku dobrze udokumentowanej zależności przyczynowo-skutkowej często wynikają trudności w ustaleniu zależności dawka-reakcja.

Badania epidemiologiczne na populacji całego społeczeństwa są wyjątkowo trudne. Szczególnie dotyczy to badań, kiedy częstość występowania schorzeń (np. raka) polega na bezpośrednim porównywaniu ilości zachorowań w zagrożonej populacji, zamieszkałej na danym terenie, w relacji do liczby chorych w całym społeczeństwie. Głównym zarzutem wobec wyników takich porównań jest możliwość ich zniekształcenia z powodu nieodpowiedniości doboru pod względem warunków życia osób badanych i grupy kontrolnej. Ważnymi czynnikami zakłócającymi jasność oceny są palenie tytoniu i inne obyczaje codzienne, związane z używaniem wielkiej liczby chemikaliów, jak również jakość metod diagnostycznych używanych w szpitalach. Z wymienionych powodów tylko nieliczne trucizny otrzymały wystarczającą ocenę w oparciu o badania na ludziach, a która polega na ustaleniu ilościowej zależności między dawką i zaistnieniem szkodliwych oddziaływań na zdrowie.

Dane Toksykologiczne - Zwierzęta Doświadczalne

Z powodu braku właściwych danych pochodzących z badań na ludziach, większość ocen trujących chemikaliów musi polegać na testach ze zwierzętami doświadczalnymi, z których najważniejsze są testy na ssakach. W wielu przypadkach badania na zwierzętach pozwalają dobrze przewidzieć szkodliwe działanie chemikaliów na ludzi, co przyczyniło się do powszechnego ich zastosowania w badaniach toksykologicznych i farmakologicznych. Interpretacja wyników badań na zwierzętach i wnioskowanie na temat ich znaczenia dla ludzi wymaga dużej znajomości biochemii toksykologicznej i patologii weterynaryjnej. Mimo to dochodzi wśród profesjonalistów do dużych rozbieżności opinii, nawet jeśli ich przygotowanie zawodowe jest na zbliżonym poziomie. Z tego powodu kontrowersje są poddawane często krytycznym przeglądom z udziałem specjalnie powołanych zespołów ekspertów. Niestety większość opublikowanych informacji jeszcze nie została tak zweryfikowana.

Spory wokół interpretacji wyników doświadczeń na zwierzętach szczególnie koncentrują się na następujących kwestiach:

  • wnioskowaniu o znaczeniu dla ludzi niektórych rodzajów rezultatów badań patologicznych;
  • niewystarczającego stopnia pewności statystycznej, z powodu ograniczeń liczebności próbki zwierząt przypadających na jedną analizowaną dawkę;
  • sposobu prowadzenia badań nad kancerogenami;
  • ekstrapolacji zależności dawka-reakcja dla pewnych typów efektów, a szczególnie dla kancerogenezy i indukcji odczynów alergicznych.

Interpretacja wyników.

W celu poradzenia sobie z tymi nieścisłościami w ostatnim czasie doszło do międzynarodowego uzgodnienia, że:

  1. zaleca się postępowanie zgodne z międzynarodowymi wskazaniami wobec prowadzenia testów toksykologicznych (tj. OECD Guidelines), co ujednolici sposób budowy bazy danych doświadczalnych;
  2. interpretacja większości wyników jest zarezerwowana dla wykwalifikowanych toksykologów.

Wystąpiły spory. Ważnym ich przykładem są niejasności wokół interpretacji zmian patologicznych, które są zwykle trudne do zaklasyfikowania (np. adrenal medullary tumors), jak również wokół pewnych, mniej istotnych zmian patologicznych, dla których nie wiadomo czy interpretować je jako wskazanie na zatrucie, czy jako indykator ekspozycji (np. nadprodukcja pewnych enzymów w wątrobie).

Wymagania dla liczebności próbek

Wskazania OECD dla badań chemikaliów, wiążące prawnie wszystkie kraje OECD, wymagają od prowadzących długoterminowe testy na szczurach zapewnienia co najmniej 50 zwierząt dla każdej płci i dla danej dawki trucizny. W tabeli przedstawiono wymagania statystyczne wobec grup badanych i kontrolnych dla uzyskania wystarczającego prawdopodobieństwa wystąpienia pewnych efektów toksycznych. Jak widać liczebność próbki kontrolnej ma również znaczenie dla wykazania zaistnienia toksykologicznego punktu końcowego.

Można łatwo wyobrazić sobie poważne konsekwencje pominięcia wystąpienia ciężkiej reakcji na truciznę (np. przypadku raka) będącego wynikiem ekspozycji całej populacji na czynnik chemiczny, a który może wystąpić przy 5% prawdopodobieństwie liczonym dla całej populacji. W celu poradzenia sobie z tym problemem dawki używane w tych eksperymentach są większe. Stosuje się ilości trucizn zwane maksymalną dawką tolerowaną (MTD), która już powoduje u zwierząt wystąpienie mniej ważnych oznak zatrucia, ale jeszcze nie przyczynia się do wzrostu śmiertelności.

Dobór odpowiednich gatunków.

Działanie trucizn na zwierzęta będzie bardzo różne, nawet kiedy naniesiemy poprawkę na wagę ciała. Wynika to z metabolizmu i farmakokinetyki. Na przykład absorpcja po podaniu w żywności może być różna między gatunkami, co wymaga ostrożności przy ekstrapolacji danych o doustnej LD50 na ludzi. Jeśli nie mamy danych dotyczących ludzi lub innych naczelnych, będą trudności w wyborze spośród tradycyjnie używanych zwierząt laboratoryjnych (mysz, świnka morska, szczur, królik) tego gatunku, który najlepiej reprezentuje własności organizmu ludzi. Różne gatunki zwierząt mają wyjątkowo zróżnicowaną odporność na dioksyny (2,3,7,8-czterochlorodwubenzo-p-dioksyna, TCDD), co wykazują dane z tablicy. Co gorsza, toksyczność TCDD badana na trzech szczepach szczura również wykazuje podobne zróżnicowanie. Więc różnice mogą wystąpić nawet w obrębie jednego gatunku.

Inne badania.

Dzisiejsze wymagania prawa zobowiązują dla chemikaliów takich jak pestycydy i farmaceutyki wykonywanie, oprócz normalnych badań toksyczności na całych zwierzętach, również wykonanie analiz reakcji metabolicznych i farmakokinetyki. Badanie te są również prowadzone z użyciem całych zwierząt, jednak czasem stosowane są kultury tkankowe i perfuzja izolowanych organów (np. wątroby). Uzyskane tak dane są konieczne dla określenia wielu parametrów, jak wchłanianie, akumulacja, itp. Studia porównawcze nad metabolizmem zwierząt (znanych z podatności na truciznę) i człowieka, wprawdzie rzadko wykonywane, mają duże znaczenie dla rozwoju możliwości interpretacji posiadanych już danych o toksyczności chemikaliów dla zwierząt. W pewnych przypadkach prowadzenie badań z całymi zwierzętami może być utrudnione. Wówczas analiza danych uzyskanych z doświadczeń na mikroorganizmach i kulturach tkankowych ssaków może udostępnić dodatkowe informacje. Dotyczy to szczególnie testów mutagenności.

Odpowiedniość Danych

W większości przypadków bazy danych naukowych nie są wystarczające dla odpowiedniego, więc o dużej dozie pewności, ilościowego przedstawienia zagrożenia dla zdrowia w każdym aspekcie wynikającego z ekspozycji na trujące chemikalia. Kiedy więc toksykologowie oceniają zagrożenie, powinni brać pod uwagę niedoskonałości źródeł swoich wniosków. Z drugiej strony trzeba pamiętać, że w zależności od sytuacji nie wszystkie oddziaływania toksyczne będą miały znaczenie dla podejmowania decyzji w zakresie gospodarki odpadami niebezpiecznymi. Zazwyczaj są one bardzo ważne w przypadkach rozlewów. W budowaniu zadań dla remediacji skażonych terenów, gdzie największym problemem jest zagrożenie chroniczną ekspozycją na niskie dawki, trzeba dołożyć starań aby zidentyfikować i zdefiniować zależności dawka-reakcja dla poważnych oddziaływań, występujących czasem od najniższych stężeń trucizn.

Kiedy robimy przegląd informacji toksykologicznych, ważne jest jednoznaczne rozróżnienie między danymi toksykologicznymi opracowanymi dla potrzeb oceny zagrożenia, a administracyjnymi "standardami" również związanymi z ograniczaniem ryzyka. Pierwsze służą do badań naukowych. Ograniczanie ryzyka natomiast zawiera elementy polityki i obejmuje wiele działań dla minimalizacji, redukcji lub inne sposoby kontroli nad zagrożeniem zaistniałym w określonej sytuacji. Przykładem informacji użytecznej w ocenie zagrożenia jest wartość LD50 wyznaczona z doświadczeń ze zwierzętami. Tymczasem graniczna wartość stężenia (TLV) dla ekspozycji w miejscu pracy jest wprawdzie oparta częściowo na danych naukowych, jednak jej wartość wynika z administracyjnej decyzji odpowiedniej agencji państwowej. Przy jej ustanowieniu wzięto pod uwagę w mniejszym lub większym stopniu wiele mało naukowych czynników, takich jak możliwości techniczne, wpływ na gospodarkę, itp. Zawierają więc elementy wyboru politycznego.

TRUCIZNY NIERAKOTWÓRCZE

Nierakotwórcze rodzaje zatruć obejmują wszystkie działania toksyczne, które nie powodują rozwoju raka. Rezultaty zatruć czynnikami nierakotwórczymi są bardzo różnorodne, podobnie jak mechanizmy odpowiedzialne za ich spowodowanie. Czynniki chemiczne mogą łączyć się z błonami komórkowymi, co powoduje zmniejszenie ich przepuszczalności. Niektóre mają zdolność wypierania elementów niezbędnych w komórce dla utrzymania jej normalnej aktywności. Jednak największą grupę nierakotwórczych zatruć powodują czynniki wpływające na enzymy. Wszystkie enzymy mają przeznaczenie dla realizacji specyficznych funkcji fizjologicznych. Dlatego przyłączenie się trucizny może zakłócić albo zablokować te zwyczajne funkcje i sprowokować odmienną sekwencję reakcji biochemicznych zdolnych do wywołania odpowiedzi toksykologicznej, czyli objawu zatrucia.

Koncepcja Wartości Granicznej

Ocena toksyczności chemikaliów nierakotwórczych opiera się na pojęciu stężenia granicznego. Oznacza to, że dla toksykologicznego punktu końcowego, innego niż mutacje i rak, zależności dawka-reakcja i dawka-efekt są zwykle sprowadzane do oceny granicznej ilości trucizny, poniżej której nie obserwuje się żadnych efektów na poziomach komórkowym, subkomórkowym i molekularnym. Większość struktur ważnych dla funkcjonowania organizmu działa w postaci wielkiej liczby identycznych kopii. Zniszczenie niewielkiej ich liczby (np. enzymów) będzie miało niewielkie znaczenie, zwłaszcza jeśli zadziałają mechanizmy naprawcze. Objawy zatrucia zaobserwujemy tylko jeśli znaczna część miejsc docelowych działania trucizny zostanie uszkodzona, a dzieje się tak po przekroczeniu dawki granicznej.

Przykładem może być zatrucie ołowiem. Na poziomie stężenia ołowiu we krwi 10-39mg/100mL można spodziewać się opóźnienia w rozwoju u dzieci. Dopóki poziom graniczny nie zostanie przekroczony, rozwój mózgu będzie odbywał się bez przeszkód. Inny przykład: wiadomo, że czterochlorek węgla powoduje zmiany patologiczne w wątrobie. Jednak wątroba nadal może funkcjonować satysfakcjonująco, a jej niezwykła zdolność namnażania nowych komórek wystarcza do zastąpienia uszkodzonych. Poza pewną granicą wątroba jednak przestaje funkcjonować, a uszkodzenia są nieodwracalne. Widać z tego, że organizm potrafi tolerować zagrożenia w szerokim spektrum skali - od ekspozycji zaniedbywalnej - do wartości granicznej dla wystąpienia objawów zatrucia.

Dawka o Niewidocznych Skutkach Zatrucia NOAEL
(No Observed Adverse Effect Level )

Nie można określić precyzyjnie wartości granicznej dawki dla trucizny. Można podać wartości przybliżone, które wynikają z analizy badań epidemiologicznych i doświadczeń na zwierzętach. Praktyczne oceny zagrożenia opierają się często na ograniczonych doświadczeniach ze zwierzętami, w których zadaniem jest określenie najwyższej dawki nie powodującej jeszcze zatrucia, zwanej Dawką o Niewidocznym Wpływie (NOEL). Ponieważ zwykle interesujące są dla toksykologa tylko objawy zatrucia, częściej używane jest pojęcie będące modyfikacją NOEL, zwane Dawka o Niewidocznych Skutkach Zatrucia (NOAEL). Związane są z tym dwie inne często stosowane wielkości:

LOEL (Najniższa Dawka Ujawnienia) - najniższa dawka badana, dla której zaobserwowano efekt działania czynnika. Zwykle jest stosowana kiedy w doświadczeniu wszystkie dawki wywołały efekt.

LOAEL (Najniższa Dawka Ujawnienia Zatrucia) - wersja LOEL, specjalnie używana kiedy ujawnione działania czynnika toksycznego są szkodliwe dla organizmu badanego.

Ważne jest dla właściwego użytkowania danych takich jak LOEL (LOAEL) lub NOEL (NOAEL), aby pamiętać o ich ograniczeniach. NOEL jest wyznaczona przez proste wskazanie najniższej dawki, dla której prowadzący doświadczenie nie zauważył żadnego szkodliwego oddziaływania. Czasem nie podaje się w opisie doświadczenia, prowadzącego do ustalenia wartości tego parametru, wielkości progu nieoznaczoności statystycznej w relacji do liczby zwierząt poddanych obserwacji. Informacja ta jest tym bardziej potrzebna, że zmienność podatności na większość trucizn, obserwowana u zwierząt doświadczalnych, opisywana jest zależnością stochastyczną względem logarytmu dawki.

NOEL, podobnie jak LD50 , nie daje możliwości oceny zróżnicowania podatności indywidualnej . Jednak można czasem, bez uciekania się do dogłębnej analizy, ocenić jakościowo charakter zależności przez zwykłe wyznaczenie nachylenia krzywej dawka-reakcja. Stroma krzywa zwykle wskazuje na jednorodny charakter reakcji na czynnik badany (np. na cyjanek), czyli niewielkie różnice między osobnikami. Wówczas NOEL może być wyznaczona z dużą precyzją. Płaska krzywa będzie wskazywać na znaczne indywidualne różnice odpowiedzi na czynnik badany (np. glikol etylenowy), więc ta obserwacja obniży zaufanie do NOEL.

Akceptowalna Dawka Dzienna i Dawka Odniesienia

Zamiast wyznaczać wartości graniczne toksykologowie używają pojęcia Akceptowalna Dawka Dzienna (ADI). Jest to wielkości codziennie wchłanianej ilości określonej substancji, która nie powoduje objawów szkodliwego oddziaływania jej na zdrowie. ADI opiera się na NOAEL i nie powinna być uważana za wartość graniczną zdefiniowaną fizjologicznie, której przekroczenie spowoduje niekorzystne skutki dla zdrowia. W ADI zawarte są współczynniki bezpieczeństwa dla uwzględnienia zmiennej podatności w populacji ludzkiej i innych nieznanych czynników. Dlatego ADI są znacznie mniejsze niż teoretyczne wartości graniczne.

Dla potrzeb prawnego ustanowienia bezpieczeństwa ludności przyjęto ogólnie akceptowaną metodę wyznaczania wartości ADI dla większości chemikaliów w wodzie i żywności. Polega to na dzieleniu NOEL albo NOAEL przez współczynnik bezpieczeństwa. Na podstawie uzgodnień międzynarodowych współczynnikowi bezpieczeństwa (dla uwzględnienia zróżnicowania indywidualnej podatności) przypisano wartość 10. Ponadto stosuje się dodatkowy współczynnik o wartości 10 dla skompensowania niepewności ekstrapolacji na ludzi danych uzyskanych z doświadczeń na zwierzętach. To uproszczenie w ocenach zagrożenia jest stosowane przez organizacje międzynarodowe, takie jak World Health Organization (WHO), jak również przez legislatury rządowe na całym świecie. Najważniejszym usprawiedliwieniem tego uproszczenia jest fakt, że nie przyczyniło się nigdy w historii jego stosowania do zaistnienia szkodliwych konsekwencji dla zdrowia ludzi.

 

Dawka odniesienia (RfD).

Jest tymczasową wartością zastępującą ADI, stosowaną przez EPA.. Wyznaczanie RfD jest nieco bardziej precyzyjną procedurą niż używana dla ADI, więc czasem przyczynia się do uzyskania mniejszych wartości dawki dobowej. Standardowa procedura wyznaczania RfD składa się z kolejnych kroków:

  1. Wybór zbioru dostępnych danych dla najbardziej podatnego gatunku spośród zbadanych.
    Wybór taki jest zawsze uzasadniony, z wyjątkiem sytuacji kiedy znane są dowody na brak właściwego odzwierciedlenia na populacji ludzi wyników dotyczących najbardziej wrażliwego gatunku, a równocześnie, że dostępne są dane dla bardziej odpowiedniego gatunku. Dostępne dane z badań na ludziach są zawsze najważniejsze. Tu również przyjmuje się poprawki na ograniczenia typowe dla badań epidemiologicznych.
  2. Wybór badań podstawowych lub pracy przeglądowej, dotyczących odpowiedniej drogi wchłaniania.
    Wartości RfD zależą od drogi podawania trucizn (tj. odnoszą się specjalnie do wdychania lub spożycia). Dlatego badania dotyczące metody iniekcji dożylnej nie będą odpowiednią podstawą do ustalenia RfD dla spożycia ani dla wdychania. W idealnej sytuacji opracowanie powinno być na tyle dobrze wykonane, że można z jego ustaleń wyliczyć NOAEL z akceptowalną dokładnością.
  3. Wybór badań dodatkowych.
    Bardzo pomocne dla interpretacji wyników wybranej pracy mogą okazać się inne źródła z dziedzin pokrewnych. Szczególnie ważne będzie porównanie z danymi dla ludzi wyników badań metabolizmu i farmakokinetyki trucizny u zwierząt.
  4. Określenie NOAEL, albo jeśli to niemożliwe LOAEL, dla najbardziej czułego punktu końcowego.
    Chemikalia powodują najczęściej wiele efektów toksykologicznych. Na przykład arsen po spożyciu wywołuje szereg chronicznych skutków zatrucia: zaburzenia jelitowe, anemię, uszkodzenia neurologiczne, zaburzenia w obwodowym układzie naczyniowym, itp. Na podstawie danych epidemiologicznych stwierdzono, że zmiany na skórze i zaburzenia naczyniowe są najszybciej wykrywanym wynikiem zatrucia arsenem i dla tych toksykologicznych punktów końcowych określono wartość LOAEL równą 14 mg/kg
    .doba.
  5. Zmniejszenie wartości NOAEL, wyliczonej dla najbardziej czułego punktu końcowego, o kolejne rzędy wielkości dla uwzględnienia następujących niepewności:
  • Podzielenie NOAEL wyznaczonej dla ludzi przez wskaźnik niepewności, równy 10, dla uwzględnienia zróżnicowania w populacji ludzi i objęcia ochroną najbardziej wrażliwe grupy społeczne (np. dzieci i starców);
  • Podzielenie NOAEL przez kolejny wskaźnik, równy 10, jeśli ekstrapolujemy na populację ludzi dane wyznaczone dla zwierząt;
  • Podzielenie NOAEL uzyskanego w badaniach krótszych niż ekspozycja chroniczna przez wskaźnik niepewności, równy 10;
  • Kiedy w badaniach nie wyznaczono NOAEL (np. dlatego, że szkodliwe efekty obserwowano dla wszystkich dawek) oszacowuje się LOAEL i jego wartość dzieli przez wskaźnik, równy 10, dla skompensowania niepewności ekstrapolacji.

Wskaźniki niepewności stosowane są w sekwencji. EPA ponadto używa "wskaźnik poprawiający", w zakresie od 1 do 10, którego zadaniem jest odzwierciedlenie przypisywanej analizowanym wynikom niepewności wobec fachowości oceny, a której nie uwzględniły poprzednio wymienione wskaźniki. Wyznaczanie RfD opisujemy na przykładzie:

Przykład: wyznaczenie RfD. W badaniach toksyczności pewnej substancji chemicznej dla myszy, prowadzonych w doświadczeniu subchronicznym, ustalono najniższą dawkę, przy której ujawniły się szkodliwe działania czynnika (LOAEL) na poziomie 5 mg/kg.doba. Jakość danych dostała wysoką ocenę ekspertów. Jaka jest wartość RfD?
Rozwiązanie:

Ten sposób postępowania ma zastosowanie również przy opracowaniu RfD dla innych warunków ekspozycji (tj. ostrej i chronicznej).

Inaczej sprawy wyglądają w przypadku RfD dla "zagrożeń rozwoju". Jest to specjalny przypadek, kiedy krótkotrwała ekspozycja, nawet jednorazowa, w okresie przed zapłodnieniem, w czasie ciąży, lub przed osiągnięciem dojrzałości płciowej, może sprowokować szkodliwe oddziaływania, których nie należy spodziewać się u dorosłych. Na przykład, dochodzenie wykazało, że rozwój umysłowy u małych dzieci może być wrażliwy na ołów aż do wartości RfD równej 0,0014 mg/kg.doba. Z tego powodu EPA postanowiła obniżyć wartość RfD o mnożnik 0,1.

Niezależnie od arbitralnego charakteru współczynników bezpieczeństwa ADI i RfD, oraz związane z nimi wielkości, są wszystkie zależne od poziomu niepewności NOAEL i LOAEL, z których się wywodzą. Nade wszystko, próby stosowania tych danych jako swego rodzaju stałych fizycznych są nadużyciem i nie mogą być zalecane. Silnie podkreśla tą kwestię przykład noty z IRIS (Integrated Risk Infirmation System opracowany przez EPA):

Uwaga: Nie uzyskano jednoznaczności i uzgodnienia wśród naukowców z EPA na temat RfD dla spożycia. Używając metodologii RfD, opracowanej w Agencji, uzyskano poważne przesłanki dla wskazania wartości wskaźnika niepewności od 2 do 3, względem obecnie rekomendowanej wartości RfD, tj od 0,1 do 0,8 mg/kg.doba. Powinniśmy pamiętać, że metodologia RfD z definicji wprowadza liczne właściwe sobie niedokładności, przypuszczalnie na poziomie rzędu wielkości (podkreślenie autorów) ... Oceniający zagrożenie powinni wykazać należytą elastyczność w formułowaniu decyzji administracyjnych, gdyż trzeba wziąć pod uwagę niedokładność i brak jednoznacznego uzgodnienia.

Większość nierakotwórczych skutków zatruć jest opisana w dużych bazach danych, które umożliwiają odpowiednie ekstrapolacje na podstawie zależności dawka-efekt lub dawka-reakcja. Równocześnie próby określenia takich zależności dla efektów immunologicznych przysparzają specjalnych problemów. Charakterystyka ujęta w takich zależnościach dla alergenów układu oddechowego (i innych) pozostaje niezapisanym polem . Dla oceniających zagrożenia skażeniami atmosferycznymi jest to jeden z najbardziej tajemniczych problemów.

Bazy Danych Toksykologicznych

Opracowano wiele baz danych dla udostępnienia RfD, ADI i innych danych toksykologicznych dla substancji zarówno rakotwórczych jak nierakotwórczych. Niektóre dane są udostępnione przez agencje rządowe jako skomputeryzowane bazy danych

Przykładem jest Integrated Risk Information System (IRIS) - preferowane przez EPA źródło informacji o truciznach zawartych w niebezpiecznych odpadach zwykle spotykanych na skażonych terenach przeznaczonych do remediacji. IRIS aktualizuje się co miesiąc. Wśród innych baz danych i literatury wymienić trzeba:

  1. Health Effects Assessment Summary Tables (HEAST)
  • Aktualizowane co kwartał
  • Zawiera tymczasowe wartości RfD i CPF
  • Publikowane przez Environmental Criteria and Assessment Office EPA (ECAO)
  1. Profile toksykologiczne publikowane przez U.S.Agency for Toxic Substances and Disease Registry (ATDSR)
  2. Dokumenty IPCS Environmental Health Criteria publikowane przez World Health Organization (WHO), z Genewy w Szwajcarii.
  3. Joint FAO/WHO Meeting on Pesticide Residues (JMPR) publikowane przez Food and Agriculture Organization (FAO) z Rzymu we Włoszech.
  4. Produkty licznych dostawców baz danych, będące kompilacjami danych z różnych innych źródeł (np. National Library of Medicine, Toxnet, Syracuse Research Center)

Jednym z najpoważniejszych źródeł informacji jest wymieniony na pozycji 2 zbiór profili toksykologicznych ATSDR. Ustawa U.S. federal law (SARA, 1986) zobowiązał ATSDR do sporządzenia profili trujących substancji najczęściej znajdywanych na Terenach Dofinansowanych. Każdy z profili tu co najmniej 100 stronicowy dokument, który zawiera następujące informacje:

  1. Przegląd wszystkich dostępnych i zweryfikowanych wyników badań i informacji toksykologicznych.
  2. Ocenę możliwości wykorzystania dostępnych informacji dla zdefiniowania poziomów ekspozycji, które stanowią znaczące zagrożenie dla zdrowia ludzi. W wypadku braku odpowiednich danych ocenę zakresu dodatkowych badań.
  3. Przegląd znanych objawów ostrych, podostrych i chronicznych zatruć na różnych poziomach ekspozycji
  4. Opis patogenicznych własności substancji, jak dane farmakokinetyczne i o przenoszeniu ich w środowisku.

Procedury Obliczania Zagrożenia Truciznami Nierakotwórczymi

Wstępne oszacowanie zagrożenia nierakotwórczymi skażeniami terenów obciążonych odpadami niebezpiecznymi według zaleceń EPA powinno opierać się na obliczeniu prowadzonym w czterech etapach [78]:

  1. Identyfikacja warunków ekspozycji na poszczególne trucizny:
  • Droga wchłaniania
  • Częstość ekspozycji
  • Czas trwania
  • Przyjmowana dawka
  1. Określenie odpowiednich dawek tłowych dla każdego zestawu warunków ekspozycji
  2. Oszacowanie zagrożenia zatruciami nierakotwórczymi jako ilorazu dawki ekspozycji przez rekomendowaną wartość RfD.
  3. Zsumowanie ocen zagrożenia dla wielu czynników chemicznych i dróg wchłaniania w indeksie ryzyka.

Iloraz wymieniony w trzecim etapie jest używany dla ilościowego wyrażenia zagrożenia truciznami nierakotwórczymi. Jak widać w etapie czwartym, można zsumować taki indeks ryzyka, wyliczony dla każdego związku chemicznego, aby uzyskać łączną ocenę zagrożenia dla każdego organu poddanego skutkom ekspozycji na większą liczbę chemikaliów. Każdy z rozpatrywanych organów lub oddziaływań o podobnym mechanizmie są poddane presji od wszystkich czynników, więc ostateczny indeks zagrożenia nierakotwórczymi truciznami otrzymuje się w postaci sumy jego składowych. Jeśli suma wszystkich łącznych indeksów ryzyka jest mniejsza od jedności uważa się, że zagrożenie szkodliwymi oddziaływaniami na zdrowie można uznać za akceptowalne. Przykład przedstawia tą metodę sumowania.

Przykład: Zastosowanie RfD do wyliczenia zagrożenia truciznami nierakotwórczymi.
W wyniku zanieczyszczenia niebezpiecznymi odpadami pochodzącymi z galwanizerni, woda dostarczana gminie z pobliskiej studni zawiera cyjanki w ilości 30
mg/L, nikiel 120 mg/L i chrom(III) 12,400 mg/L. Przyjęto, że dzienne spożycie wody wynosi 2L, a średnia masa ciała dorosłego człowieka 70 kg. Czy spożycie tej wody stanowi nieakceptowalne zagrożenie?
Rozwiązanie: Dawka cyjanków wynosi:

Pozostałe obliczenia z wykorzystaniem wartości RfD z bazy danych IRIS dały wyniki przedstawione w tabeli:

Indeks wyliczony jest znacznie mniejszy niż 1, więc wstępne oszacowanie nie wskazuje na nieakceptowalne zagrożenie.

 

Ściśle mówiąc, addytywność opiera się na założeniu podobieństwa typu oddziaływań. Jest to uzasadnione kiedy rozpatrujemy równoczesną ekspozycję na kadm, rtęć, uran i chrom, gdyż wszystkie działają na nerki. Jednak tego rodzaju sumowanie zagrożeń powodowanych przez substancje o odmiennym sposobie działania może prowadzić do przeszacowania łącznego zagrożenia. Ma to znaczenie kiedy związki działając w mieszaninie wpływają na różne organy, albo działając według podobnego mechanizmu powodują inne efekty. Należy wówczas wyliczać osobne indeksy ryzyka dla poszczególnych organów. Można następnie sumować indeksy ryzyka dla kolejnych organów. Jednak powinno się tak postępować tylko jeśli mechanizmy działania toksyn nierakotwórczych są dobrze znane, a efekty intoksykacji zasadniczo różne.

KANCEROGENY

Rola Rakotwórczych Chemikaliów

Wiedza o kancerogenezie u ludzi związanej z ekspozycją na rakotwórcze chemikalia wynika z badań nad zagrożeniem w miejscu pracy oraz z doświadczeń ze zwierzętami. Określone rodzaje nowotworów - jak rak piersi u kobiet, rak prostaty u mężczyzn i rak płuc u palaczy - zazwyczaj kończą się śmiercią. Trudno jest wskazać rolę chemikaliów w etiologii takich rodzajów raka, gdyż dla efektów innych niż bezpośrednie badania epidemiologiczne wymagają dużych kohort . Szansa wykrycia związku efektu z przyczyną jest lepsza, jeśli czynnik chemiczny indukuje specyficzny typ raka, niespotykany w całości populacji. Niektórymi z takich specyficznych nowotworów o znanej etiologii są tętniak wątroby wywołany ekspozycją na chlorek winylu, rak komórek ziarninowych płuc spowodowany przez ekspozycję na eter bis(2-chlorometylowy) i nowotwór moszny u kominiarzy wywoływany przez wielopierścieniowe węglowodory aromatyczne obecne z sadzy.

Wiadomo, że ekspozycja na chemikalia rakotwórcze może przyczyniać się do powstania raka na wiele sposobów. Kancerogeny genotoksyczne mogą inicjować i powodować progresję mutacji niezbędnych do pełnego rozwoju raka u ludzi, a kancerogeny nie posiadające własności genotoksycznych przyspieszają kancerogenezę przez promocję lub immunosupresję.

Rozróżnienie to posłużyło do podzielenia chemikaliów rakotwórczych na czynniki genotoksyczne i niegenotoksyczne (epigenetyczne). Ponieważ rozróżnienie to ma głębokie implikacje względem zagrożenia i oceny ryzyka, jest uznawane za użyteczny sposób zgrupowania odmiennych czynników toksycznych. Tymczasem EPA (z wyjątkiem jednej komisji) nie adaptowała tej klasyfikacji, którą uznają rządowe agencje w Niemczech, Holandii i Wielkiej Brytanii.

Kancerogeny genotoksyczne

Toksykolodzy wykazali, że kancerogeny genotoksyczne aktywne pod względem zdolności do inicjowania i progresji rakotwórczej, są również zdolne do wywoływania mutacji w bakteriach i innych krótko żyjących organizmach testowych. Ponieważ struktura DNA jest taka sama we wszystkich organizmach, testy takie umożliwiają zdobycie pewnych danych teoretycznych o sposobie w jaki określone chemikalia przyczyniają się do zmian w materiale genetycznym u ludzi.

Określone czynniki alkilujące, jak tlenek etylenu i metylosulfonian metylu, reagują bezpośrednio z DNA i powodują inicjację. Większość kancerogenów inicjujących jest natomiast nieaktywna w ten sposób i wymaga aktywacji metabolicznej. Jednym z nich jest benzo(a)piren, jeden z najbardziej agresywnych kancerogenów w dymie tytoniowym i w emisjach z pieców koksowniczych. Zainicjowanie kancerogenezy przez benzo(a)piren wymaga aktywacji metabolicznej do diol-epoksydu benzo(a)pirenu. Diol-epoksyd tworzy wiązanie kowalencyjne w postaci adduktu z guaniną w DNA. Addukt może tak obrócić zasadę wokół wiązania glikozydowego, że guanina pozornie wygląda jak tymina w procesach replikacji i naprawy. W ten sposób benzo(a)piren powoduje tzw. punktową mutację DNA. Ciekawe, że pierwszy onkogen człowieka poddany sekwencjonowaniu wyizolowano z śmiertelnego nowotworu pęcherzyków płucnych u nałogowego palacza. Zawierał wyłącznie transwersję guanina-tymina na 35 zasadzie onkogenu H-ras.

Mutacja punktowa może polegać na zamianie pary zasad lub na mutacji deformacyjnej. Zamiana pary zasad powstaje po podstawieniu jednej zasady przez inną. Mutacja deformacyjna jest przypadkiem dodania lub usunięcia jednej lub większej liczby par zasad w DNA. Najczęściej taka deformacja DNA powoduje zanik jego działania. Zdarza się jednak, że może ono podjąć działanie ale w sposób znacznie odmienny od normalnego. Niektóre czynniki mutagenne mogą spowodować zerwanie szkieletu cząsteczki DNA - zdarzenie takie objawia się w postaci pęknięcia chromosomu, translokacji lub usunięcia. Pewne czynniki genotoksyczne również zakłócają replikację chromosomów, co objawia się w postaci nieoczekiwanej ich liczby w komórkach potomnych.
Kancerogeny epigenetyczne

Ponieważ określenie "epigenetyczny" odnosi się do czynników nie posiadających własności genotoksycznych, jego nieuprawnione użycie może być przyczyną problemów. Wiele substancji tak zaszeregowanych jeszcze nie zostało wystarczająco dobrze zbadanych pod względem genotoksyczności. Ponadto nie jest zbyt dobrze znany mechanizm działania większości kancerogenów epigenetycznych. Warto zauważyć, że większość kancerogenów objętych restrykcjami przypuszczalnie ma charakter epigenetyczny.

Kancerogeny samoistne.

Niektóre kancerogeny mogą oddziaływać na więcej niż jednym etapie kancerogenezy. Na przykład benzo(a)piren jest wielocyklicznym węglowodorem aromatycznym, który może być zarówno inicjatorem jak i promotorem kancerogenezy. Kancerogeny które zarówno inicjują jak promują kancerogenezę są nazywane kancerogenami samoistnymi. Związki te posiadają bardzo zróżnicowaną budowę. Niemniej można większość z nich pogrupować w zależności od posiadanych grup funkcyjnych lub innych cech budowy. Najważniejsze z głównych typów, jak też niektóre przykłady związków, przedstawia tabela:

Inne kancerogeny

Mechanizm działania kancerogenów nieorganicznych jest niejednoznaczny. W przypadku arsenu i przypuszczalnie innych metali należy spodziewać się zakłócenia naprawy DNA. Kilka wielochlorowanych dwubenzo(p)dioksyn okazało się zdolnymi do indukowania raka u gryzoni przy niewielkich dawkach. Niemniej uważa się, że są one niezdolne do akcji genotoksycznej. Przypuszczalnie działają jak promotory i blokują układ immunologiczny. Ponieważ są niezwykle silnymi promotorami i czynnikami immunosupresyjnymi uważa się dioksyny za potencjalnie groźne kancerogeny, szczególnie jeśli w ich cząsteczce atomy chloru podstawiają pierścień w pozycjach 2,3,7, 8

2,3,7,8-czterochloro-dwubenzo-p-dioksyna

Kokancerogeny

Są czynnikami wzmacniającymi proces kancerogenezy, jeśli przyjmowane wraz z kancerogenami. Jakkolwiek często działają w sposób podobny jak promotory, mogą też oddziaływać na metabolizm kancerogenu zwiększając stężenie aktywnego związku przejściowego. Przykładem kokancerogenu nie będącego promotorem jest fenol.

 

Podatność

Zdolność przyłączania kancerogenu do receptora jest bardzo ważna. Przykładem wagi podatności jest przypadek wielochlorowanych dwufenyli (PCB), które wytwarzane są przemysłowo w procesie chlorowania substratów zawierających pierścień benzenowy. W czasie produkcji komercyjnej w zasadzie niemożliwe jest kontrolowanie szybkości i zakresu chlorowania cząsteczek prekursora. Dlatego wyprodukowano ich wielkie ilości i obecnie są one obecne w środowisku jako złożone mieszaniny setek poszczególnych kogenerów (izomerów pochodzących z tej samej syntezy). Wprawdzie każdy z kogenerów tych skomplikowanych związków chloroorganicznych ma podobny sumaryczny wzór cząsteczkowy, jednak wykazuje w czasie prób na zwierzętach swoiste własności toksyczne.

Kiedyś przypisywano jednakową wartość zagrożenia nowotworowego dla wszystkich PCB. Tymczasem w ostatnim dziesięcioleciu stało się jasne, że robienie oceny ryzyka dla sumy całej tej grupy związków chloroorganicznych jest nieporozumieniem. Racjonalny sposób postępowania opracowano najpierw dla dioksyn (wielochlorowanych dwubenzo(p)dioksyn czyli PCDD). W zależności od udziału chloru utworzono klasy toksyczności jako współczynniki równoważnika toksyczności (TEF). Później na podstawie międzynarodowej rekomendacji w stosunku do określania toksyczności dioksyn został opracowany bardziej użyteczny sposób klasyfikacji zależny od położenia chloru w cząsteczce. Jednostką toksyczności stał się TEF określający trujące własności dioksyny PCDD, w której cząsteczce atomy chloru znajdują się w położeniach 2,3,7,8. Na podobnej zasadzie ustalono takie zależności dla kogenerów PCB. Pięciochlorodwufenyle (PeCB) uznano za klasę najbardziej trujących kogenerów, po nich sześciochlorodwufenyle (HxCB) i czterochlorodwufenyle (TeCB). Wynika z tego uszeregowanie pod względem zdolności do powodowania raka pokazane w tabeli:

Klasy Kancerogenów

Jak można stwierdzić, czy związek chemiczny jest kancerogenem i jaka jest jego siła?

Metodą preferowaną jest przypisanie takiej cechy na podstawie wystarczającej liczby danych epidemiologicznych. Jeśli istnieją takie dane (najczęściej dotyczy to badań grup pracowniczych) można stwierdzić jednoznaczny związek przyczynowy między ekspozycją na określony związek i wynikające stąd zaindukowanie nowotworu u ludzi. Wprawdzie takie badania epidemiologiczne są bardzo nieliczne, niemniej dla niektórych kancerogenów zależności przyczynowo-skutkowe są precyzyjnie udokumentowane w oparciu o badania statystyczne. Na przykład, połowa przypadków tętniaka wątroby została stwierdzona u pracowników eksponowanych na chlorek winylu. Podobnie ponad 50 procent pracowników eksponowanych na barwniki naftyloaminowe w czasie pięciu lub więcej lat zmarło z powodu raka pęcherza, a rak płuc zakończył się śmiercią tak samo licznej grupy pracowników kopalni uranu.

Liczba jednoznacznie udokumentowanych badań epidemiologicznych z udziałem ludzi jest niewielka. Tylko około 50 związków chemicznych (np. benzen, chlorek winylu) i czynników złożonych (np. produkcja aluminium, dym tytoniowy) są objęte wystarczającą dokumentacją dla zaklasyfikowania ich do grupy kancerogenów dla ludzi. Najbardziej niebezpieczne dla ludzi kancerogeny, aflatoksyny, są pochodzenia naturalnego. Ich obecność w produktach żywnościowych spenetrowanych przez trujące pleśnie stanowi poważny problem w krajach tropikalnych i subtropikalnych.

EPA tak definiuje Grupę A - Kancerogeny dla Ludzi: [są to związki, dla których] "są udokumentowane epidemiologicznie dowody na związek przyczynowo-skutkowy między powstaniem raka i ekspozycją na czynnik".

Klasyfikacja ta jest więc oparta o wagę dowodów. Dlatego stwierdzenie o rakotwórczości substancji dla ludzi polega bardziej na przekonaniach grupy ekspertów niż na dowodach naukowych. System klasyfikacji EPA przedstawia tabela:

Z powodu braku danych epidemiologicznych wiedza o potencjale trucizn zdolnych do wywołania raka opiera się o badania na zwierzętach doświadczalnych. Substancje dla których nie wykazano epidemiologicznie związków z nowotworami u ludzi, a o których wiadomo, że powodują raka u zwierząt doświadczalnych, nazywamy prawdopodobnymi kancerogenami dla ludzi.

Kilkaset substancji, dla których nie ma wystarczających danych epidemiologicznych dla ludzi, zostało określonych jako prawdopodobne kancerogeny dla ludzi w oparciu o doświadczenia ze zwierzętami, najczęściej z myszami i szczurami. Liczne z tych substancji można znaleźć na składowiskach odpadów niebezpiecznych. Spośród 717 substancji niebezpiecznych objętych ustawą CERCLA, EPA zidentyfikowała 191 substancji jako "prawdopodobne kancerogeny" lub jako "substancje posiadające własności potencjalnie rakotwórcze".

KANCEROGENEZA

Rak jest chorobą wyróżniającą się zaburzeniami komórkowymi polegającymi na modyfikacji normalnych komórek powodującymi ich niekontrolowany podział. Podstawowe podręczniki patologii preferują następującą definicję raka jako:

nienormalną masę tkanki o nadmiernym wzroście, który nie jest związany z rozwojem normalnej tkanki oraz utrzymuje się na takim samym nadmiernym poziomie po ustaniu działania czynnika stymulującego, będącego wcześniej powodem zmian w komórce.

Rak wynika z nowotworów lub neoplazmy (popularnie określanej jako "narośl") jednak nie wszystkie nowotwory są rakiem. Nowotwory dzieli się na dwa typy - łagodne i złośliwe, z których drugi później rozpoznawany jest jako rak. Złośliwe nowotwory mięśni nazywa się sarcoma, a z tkanek nabłonkowych carcynoma.

Najważniejszą różnicą między łagodnymi i złośliwymi nowotworami jest, że złośliwy nowotwór będzie atakował sąsiednie struktury i rozprzestrzeniał się (w metastazie) na odległe miejsca, natomiast łagodny nowotwór tego nie robi. Narośl złośliwa narasta dużo szybciej niż otaczająca ją neoplazma i składa się z bardzo jednorodnych komórek. W nowotworach złośliwych komórki są zmienione w taki sposób, że nie reagują na sygnały ograniczające, które koordynują tempo dzielenia się komórek w celu zapobiegnięcia inwazji na okoliczne tkanki.

Wieloetapowy proces, przebiegający od początkowej ekspozycji na kancerogen do uzłośliwienia się nowotworu, jest nazywany kancerogenezą. U ludzi po zainicjowaniu przez napromieniowanie lub chemikalia, proces ten zachodzi w czasie od 10 do 40 lat, w zależności od rodzaju czynnika rakotwórczego i innych warunków, takich jak dziedziczność.

W ostatnim dziesięcioleciu rozpoznano i zbadano wiele z etapów kancerogenezy. Aktualne teorie wyróżniają trzy etapy:

  • Inicjację - przemianę normalnej komórki do rakowej wskutek mutacji.
  • Promocję - namnażanie i selekcję komórek zainicjowanych
  • Progresję - ekspansję rakowatej linii komórek poprzez inwazję miejscowych tkanek i metastazę na odległe organy.

Te stadia pośrednie kancerogenezy ilustruje rysunek:

Inicjacja Raka

Jakie modyfikacje prowadzą do zmiany normalnej komórki w rakową? Ponieważ rak może wyrodzić się z pojedynczej przetransformowanej komórki, ujawnienie raka sprowadza się przekształecenie jednej generacji komórek do kolejnej rakowej. Dlatego pierwsza zmiana, która jest niezbędna ma charakter genetyczny, więc polega na zmianie struktury i funkcji DNA komórki.

W wielu przypadkach transformacja komórek do postaci rakowej związana jest z modyfikacją określonego onkogenu do formy o odmiennym działaniu w stosunku do jego postaci naturalnej (zwanej często protoonkogenem). Jedną z normalnych funkcji onkogenów jest regulacja tempa wzrostu tkanki w czasie rozwoju embrionu ludzkiego i płodu. Kiedy proces namnażania komórek musi uwzględnić konieczność zakończenia aktywności w chwili uformowania się w pełni ukształtowanego ciała człowieka w okresie tylko dziewięciu miesięcy od poczęcia. Onkogen może regulować wzrost poprzez ograniczanie poziomu czynników wzrostu bezpośrednio lub przez redukcję ilości innych onkogenów.

Po urodzeniu onkogeny są eliminowane (wyłączane) i normalnie pozostają w trwałym utajeniu lub są reaktywowane na krótki czas. Pojawienie się czynnika powodującego mutacje lub inne transformacje genetyczne umożliwia pełną aktywację onkogenu. Znanych jest wiele dróg aktywacji onkogenów. Dzieje się tak w ludzkiej limfemii Burkitt'a, kiedy zmiana położenia protoonkogenu przez translokację (przeniesienie "przyłączy" chromosomów) do bardziej aktywnego regionu może spowodować znacznie silniejszą ekspresję genu. Następna duplikacja (wzmocnienie) protoonkogenu może tak samo skutkować zwiększoną ekspresją. Inna droga aktywacji onkogenu wynika ze zmiany pojedyńczej zasady w DNA protoonkogenu (mutacja punktowa), która spowoduje syntezę białka o zmienionej strukturze.

Kiedy onkogen zostanie aktywowany, komórka dziecka lub osoby dorosłej stanie się zdolna do samodzielnego mnożenia się, ponieważ utworzy on jej własny "hormon" odpowiadający posiadanemu przez nią receptorowi. W takim przypadku zmutowane komórki będą posiadać nowe antygeny na swojej powierzchni, co spowoduje produkcję przeciwciał zdolnych do zniszczenia tych zmutowanych komórek. Jednak jeśli system immunologiczny nie potrafi rozpoznać zmienionej komórki jako obcą, będą mnożyły się one niepowstrzymanie. Powstanie zarodek populacji komórek dla klonu chorobowego zwanego rakiem.

Stwierdzono, że jeden zmutowany protoonkogen nie jest zdolny do spowodowania raka. Niezbędne są co najmniej dwie zmiany w jednej komórce (tzn. rak może powstać tylko kiedy skopiuje powstałą mutację). Rzadko dziedziczy się zmutowane onkogeny. Jeśli osoba posiada dziedzicznie zmutowany onkogen, będzie miała predyspozycję genetyczną do powstania choroby nowotworowej, gdyż tylko jedna zmiana onkogenu będzie niezbędna dla powstania raka. Nowotwór stąd wynikający zaistnieje prawdopodobnie w dzieciństwie, gdyż do zmiany pojedynczego onkogenu trzeba znacznie mniej czasu. Większość nowotworów rozwija się u dorosłych, a częstość występowania raka u dzieci jest niewielka. Daje to podstawę do twierdzenia, że w większości przypadków powodem powstania raka jest mutacja genetyczna zaistniała już po urodzeniu.

Bardzo rzadko zaistnienie mutacji DNA lub przekształcenie chromosomów jest powodem aktywacji onkogenów. Ponieważ ludzkie DNA posiada około 300,000 genów, jedynie niewielka mniejszość z nich stanowi protoonkogeny, a większość mutacji DNA nie powoduje kancerogenezy. Ponadto nawet wśród onkogenów ogromna większość mutacji pozostaje nieaktywna.

Trzeba tu zauważyć, że w wielu przypadkach szereg aspektów roli onkogenów w procesie kancerogenezy pozostaje niejasnych. Wynika to najczęściej z nieznajomości mechanizmów regulacyjnych dla podziału normalnych komórek i różnicowania się tkanek. Ponadto aktywne formy onkogenów stwierdzono w niewielkiej części tkanek nowotworowych. Dlatego przypuszcza się, że inne drogi powstawania raka są też możliwe. Być może również związane z istnieniem nieznanych jeszcze onkogenów. Niezależnie jednak od roli jaką odgrywają onkogeny w kacerogenezie, jej zainicjowanie jest procesem o charakterze genetycznym. Czynniki zdolne do spowodowania mutacji są określane jako genotoksyczne. Wśród nich jest wiele rakotwórczych chemikaliów i rodzajów radiacji jonizujących.

Promocja Nowotworu

Drugim stadium kancerogenzy jest wzrost liczby zainicjowanych komórek, który może prowadzić do utworzenia "prawdziwych" komórek rakowych. Etap ten nazywany jest promocją i wynika z włączenia się kancerogenów promujących (promotorów). Promotory na ogół nie są genotoksyczne. Wprawdzie działają one na różne sposoby, jednak zasadniczo zwiększają tempo replikacji komórek zainicjowanych, bądź przyczyniają się do zróżnicowania komórek i uruchomienia nowych genów. Dobrze znane są z badań na zwierzętach olej krotonowy jako promotor dla nowotworu skóry i fenobarbital dla raka wątroby. U ludzi dieta wysokotłuszczowa jest uznawana za promotora nowotworu piersi u kobiet, jak też nowotworu okrężnicy u obu płci. Zwykle promotorem nie jest ten sam kancerogen, który inicjuje kencerogenezę.

Komórki posiadające dwie lub więcej zmian genetycznych, niezbędnych dla zainicjowania i wypromowania, nadal nie będą nieuchronnie tworzyć zmian chorobowych. Ponieważ te przetransformowane komórki eksponują na swojej powierzchni obce ("nie własne") antygeny, mogą zostać rozpoznane i usunięte przy pomocy tych samych elementów systemu immunologicznego (limfocyty T), które likwidują zakaźne pasożyty. Tymczasem równocześnie może wystąpić blokada systemu immunologicznego, wywołana przez wiele czynników (np. wirusa AIDS). Niektóre trujące chemikalia mogą również obniżać zdolność organizmu do rozpoznawania i usuwania wypromowanych komórek. Chemikalia takie nazywane są immunosupresantami, a niektóre z nich używane są klinicznie przy transplantacjach organów.

Rozwój Nowotworu

Po promocji zachodzą dwa etapy niezbędne dla powstania choroby. Są to inwazja na sąsiednie tkanki i metastaza (tzn. rozprzestrzenienie się) do odległych organów. Inwazja i metastaza są łącznie określane jako rozwój nowotworu (ocogenic progression).

Lokalne skupiska komórek rakowych dla przeprowadzenia inwazji potrzebują enzymów (normalnie nie występujących) zdolnych do rozpuszczenia powłoki otaczających całość organu. Warunkiem pojawienia się metastazy jest zdolność lokalnego nowotworu do inwazji układu krążenia, przez który może dotrzeć do innego organu. W odległym organie te napływające komórki muszą być zdolne do wzrostu w obcym otoczeniu (tzn. nie posiadając wsparcia ze strony tkanek komplementarnych, pochodzących z tego organu). Są to zdolności nie występujące normalnie u komórek, więc mogą zaistnieć tylko po kolejnych zmianach genetycznych. Dlatego wystąpienie stadium inwazji i metastazy wymaga dodatkowych mutacji, poza tymi niezbędnymi dla zainicjowania kancerogenezy.

Molekularne badanie genetyczne nowotworów wykazały, że rozwój nowotworu charakteryzuje obecność znacznej liczby mutacji ponad dwie potrzebne dla zainicjowania. Promocja i progresja klonu zainicjowanych komórek związana jest z kaskadą zmian genetycznych. Prowadzi to do niestabilności genetycznej, której natura i znaczenie pozostają nadal niejasne. Wszelako dla progresji zainicjowanych i wypromowanych komórek wydaje się niezbędna ekspozycja na czynniki genotoksyczne. Występowanie takiego uwarunkowania jest potwierdzone przez radykalne zmniejszenie się zagrożenia rakiem u palaczy, którzy zaprzestali palenia.

 

Badania Rakotwórczości

Badanie rakotwórczości chemikaliów polega głównie na doświadczeniach ze zwierzętami. Zwykle badana jest przeżywalność gryzoni pod presją kontaktu z chemikaliami. Dawki podawane zwierzętom w czasie tych badań utrzymuje się na poziomie mniejszym lub równym maksymalnej dawce, która nie zmniejsza przeżywalności (z wyjątkiem spowodowanej rozwojem nowotworu) ani nie powoduje powstania klinicznych symptomów zatrucia. Często dawka ta nazywana jest Maksymalną Dawką Tolerowaną lub MTD. Prowadzenie badań przy tak dużych dawkach wynika z zamiaru zwiększenia prawdopodobieństwa zaindukowania raka w skończonym czasie przeznaczonym na eksperyment.

Badania takie są bardzo kosztowne i mogą być prowadzone tylko dla ograniczonej liczby ważnych gospodarczo produktów chemicznych. Pomimo konieczności posiadania takich informacji, zdarzają się pułapki przy ich interpretacji.

Ograniczenia metody polegają na trzech kwestiach:
a) ograniczenia statystyczne, wynikające z niewystarczającej wielkości grupy badanych zwierząt,
b) trudności w ocenie stosowności przewidywania podatności ludzi na pewne typy nowotworów badane na zwierzętach,
c) niepewność ekstrapolacji wyników do niskich dawek.

Ograniczona liczebność grup badanych.

Kwestia ta była już omawiana w części dotyczącej badań na zwierzętach w ogóle. W populacji ludzkiej już 1% wzrostu zachorowań stanowi poważny problem. W celu zapewnienia zwiększenia o 1% częstości wystąpienia raka ponad poziom normalny, przy pewności detekcji rzędu 10%, należałoby teoretycznie użyć grupy 20,000 zwierząt. Rzeczywiście, w 1980 roku wykonano taki "wielki eksperyment z myszą", wyceniony na 15 mln$, dla silnego doświadczalnego kancerogenu 2-acetylo,aminofluorenu. Postawiono tam zadanie: zbadać zależności dawka-reakcja w zakresie niskich dawek. Oczywiście badanie zwiększenia częstości wystąpienia raka o 0.0001% jest niepraktyczne. Niemniej jest to często zadaniem stawianym przez prawodawców w celu oceny możliwości zapewnienia populacji ludzkiej akceptowalnej społecznie ochrony przed skażeniami.

Porównywalność nowotworów.

Bardzo poważne kontrowersje toczą się wokół możliwości oceny wystąpienia nowotworów u ludzi na podstawie badań pewnych typów raka stwierdzonych u zwierząt. Dotyczy to raka wątroby spotykanego u myszy, raka nerek u samców szczura, raka pęcherza u gryzoni indukowanego przez kancerogeny niegenotoksyczne, jak też niektórych innych nowotworów poznanych w czasie prac eksperymentalnych.

Przede wszystkim rak wątroby jest rzadki u ludzi. Tymczasem szczepy myszy (mysz B6C3F1), najczęściej używane do takich badań w USA, cechują się normalną częstością wystąpienia raka wątroby rzędu 18 do 47% u samców i 3 do 8% u samic. Taka częstość wynika z licznych nieokreślonych czynników, jak podawanie hormonów lub stosowana dieta. Dlatego, jeśli zwierzęta doświadczalne są traktowane dawkami chemikalii na poziomie bliskim maksymalnej dawki tolerowanej (MTD), która zwykle jest o kilka rzędów wyższa niż spodziewana wartość stężeń podczas ekspozycji ludzi, to może powstać problem przesłonięcia wyników doświadczenia przez procesy niefizjologiczne (np. przełamanie mechanizmów detoksykacji), które nie występują przy niskich dawkach.

Liczne (jeśli nie większość) substancji zaklasyfikowanych jako potencjalne kancerogeny uzyskały swoją ocenę wyłącznie na podstawie faktu zaindukowania nowotworu wątroby w takich wyselekcjonowanych szczepach myszy i szczurów. Inaczej niż w USA, trzy z agencji europejskich przyjmują z zastrzeżeniem stwierdzenie raka wątroby u gryzoni przy dużych dawkach (np. indukowanego przez insektycyd lindan) z uwagi na niegenotoksyczny mechanizm działania. Gdyż wynik ten nie ma jednoznacznego przeniesienia na ludzi przy realnie występujących ekspozycjach.

Rak pęcherza u gryzoni jest powodem innych kontrowersji. Wprawdzie tło częstości wystąpienia raka pęcherza u szczurów jest niskie, jednak chroniczna ekspozycja na znaczną liczbę czynników podrażniających lub powodujących urazy nabłonka pęcherza może przyczynić się do przyspieszenia podziału komórek, którego skutkiem będzie powstanie nowotworu. Przykładami takich czynników promujących raka są stałe ciała obce, zmiana pH moczu, czy zakażenia. Dlatego, wiele substancji powodujących powstanie tego rodzaju raka u gryzoni, np. dodatki do żywności (cyklamaty, sacharyna, o-fenylofenol, jak też butylowany hydroksyanizol BHA) są obecnie uznawane za promotory.

Takie różnice opinii w interpretacji badań nad rakiem powodują niepokojącą sytuację, że dany związek jest uważany za rakotwórczy w jednym kraju, a w innym nie. Ostatnio WHO International Agency for Research on Cancer (IARC), w celu standaryzacji oceny jakości takich jak przedstawione badań, zmierza do opracowania powszechnie akceptowanej dyrektywy. Opracowania z tym związane są regularnie publikowane w serii "IARC Monographs on the Evaluation of the Carcinogenic Risks to Humans".

Pamiętając o omówionych powyżej sprawach, uważamy jednak, że dla wielu substancji myszy i szczury stanowią dobry model organizmu człowieka. W przypadku kancerogenów o znanych danych toksykologicznych dla ludzi wykazała to dozymetria komparatywna. W tych przykładach uzgodnione dane z doświadczeń na zwierzętach są istotnie przydatne (w granicach rzędu wielkości) do przewidywania reakcji ludzi na kancerogen.

Inne testy

Jak już wspomniano, toksykolodzy stwierdzili, że substancje chemiczne, znane ze swojej zdolności do inicjacji nowotworu, również powodują mutację u bakterii i innych krótko żyjących organizmów doświadczalnych. Ponieważ wszystkie organizmy mają taką samą strukturę DNA, takie testy mogą być podstawą przewidywania kancerogeniczności. Jednak dość dobre korelacje między mutagenicznością i kancerogenicznością stwierdzono tylko dla inicjatorów i samoistnych kancerogenów, a nie ma korelacji dla substancji działających jak promotory. W celu przewidywania potencjalnego efektu kancerogenezy używa się następujących punktów końcowych:

  • Mutacje punktowe (zamiana par zasad, przesunięcia na szkielecie, małe dodatki lub ubytki)
  • Zaburzenia naprawy DNA (nieprawidłowe syntezy DNA)
  • Efekty klastogeniczne (pęknięcia chromosomów powodujące powstawanie niekompletnych, utratę lub przebudowę chromosomów)

Obecnie są dostępne liczne testy: od opartych na bakteriach (test Ames'a), drożdżach, kulturach komórkowych ssaków, do żywych organizmów zwierzęcych (muszki owocowe, myszy). Zwykle analizuje się wyniki układów testów reprezentatywnych dla wszystkich trzech kategorii.

Łatwo można przeprowadzić krótkie testy in-vitro, które umożliwiają uzyskanie ogromnej ilości danych o różnej jakości. Znawcy tematu proponują nazwać "niemutagenicznymi" wszystkie chemikalia, które jeszcze nie były badane przy użyciu wystarczającej liczby testów. Kiedy posługujemy się danymi tego rodzaju dobrze jest polegać na wynikach więcej niż jednego systemu testów. Lepiej sporządzić ocenę opartą o kilka źródeł. Wreszcie trzeba pamiętać, że pozytywny wynik testu mutageniczności daje tylko wskazanie na możliwość kancerogenności i powinien stanowić tylko informację pomocniczą.

Zależności Dawka-Reakcja dla Kancerogenów

Jak wyjaśniono poprzednio, ocena zagrożenia nowotworowego dla człowieka oparta o badania na zwierzętach prowadzi do dwu najważniejszych rozstrzygnięć:

Czy badany związek chemiczny jest kancerogenem?

Czy dane uzyskane z doświadczeń na zwierzętach można użyć do oceny zagrożenia ludzi?

Są to trudne pytania, jednak dużo mniej kłopotliwe niż ocena toksykologicznego potencjału kancerogenu. Jest to ważne pojęcie, gdyż kancerogeny cechują się bardzo zróżnicowanym potencjałem. W celu określenia skutków ekspozycji człowieka na rakotwórcze chemikalia niezbędne jest opracowanie zależności dawka-reakcja. Toksykolodzy najczęściej używają w tym celu danych z doświadczeń na zwierzętach. Na rysunku przedstawiono typową krzywą dawka-reakcja w zakresie wyższych dawek hipotetycznego samoistnego kancerogenu:

Postępowanie dla opracowania zależności dawka-reakcja dla kancerogenów różni się nieco od postępowania dla niekancerogenów. Dla ułatwienia porównań dawki (na odciętych) niemal zawsze są odmierzane w jednostkach dziennej dawki przeliczonej na jednostkę wagi ciała (mg/kg .doba). Na współrzędnej reakcji (oś rzędnych) odkłada się całkowitą ilość (bezwymiarowo) wystąpienia nowotworu u badanych zwierząt. Krzywa na wykresie przedstawia zależność statystycznie aproksymowanej wartości częstości średniej reakcji od dawki. Trzeba podkreślić, że na rzędnych odkłada się nadmierną częstość wystąpienia raka albo różnicę między częstością obserwowaną w grupie eksponowanych zwierząt w porównaniu z częstością tłową (normalnej, spontanicznej częstości wystąpienia nowotworu) dla populacji kontrolnej.

Przy ocenie zagrożenia rakiem w czasie całego życia człowieka często wyrażany jest pogląd: kancerogeneza odbywa się w taki sposób, że jest możliwe, choć mało prawdopodobne, zaindukowanie jednej z dwu mutacji niezbędnej do zainicjowania nowotworu już przy ekspozycji na jedną cząsteczkę kancerogenu genotoksycznego. Oznacza to, że dla genotoksyn nie ma bezpiecznej wartości granicznej. Dlatego krzywa dawka-reakcja w teorii zmierza asymptotycznie do wartości częstości równej zero. Ponieważ nie ustala się granicy dawki, nie można określić bezpiecznego poziomu ekspozycji, można tylko uznać "poziom akceptowalny". Opinia społeczna wyraża zaniepokojenie wobec każdego poziomu zagrożenia, więc administracja zdąża do ustanowienia docelowej dawki na poziomie jeden do miliona (0.0001%) dla zaistnienia w populacji jednego nadmiernego przypadku raka w czasie całego życia człowieka.

Jak już stwierdzono, badanie tak niskich częstości jest niepraktyczne. W realnych warunkach laboratorium bada się populacje zwierząt przy ekspozycji na duże dawki w celu zwiększenia prawdopodobieństwa zaindukowania raka u policzalnej części grupy badanej. Dlatego trzeba wyniki testów na zwierzętach ekstrapolować do poziomu ekspozycji ludzi, żeby można było dane zastosować dla dawki interesującej społeczeństwo.

Przykład: Przymiarka do częstości docelowej 10-6
Jaka była najniższa badana dawka dla zależności dawka-reakcja na rysunku?
Jaką wartość osiągnęła częstość średnia przy tej dawce?
Czy jest to porównywalne z częstością docelową 10-6?
Rozwiązanie:
Minimalna dawka w czasie testów wynosiła 2.0 mg/kg.doba, co spowodowało częstość wystąpienia nowotworu około 10%. Jest to 10,000 razy (0.10/0.000001) większa wartość niż docelowa 10-6.

W wyliczeniach ryzyka związanego z kancerogenami stosuje się wskaźnik potencjału kancerogenu (CPF). Jest on odzwierciedlony graficznie na zależności dawka-reakcja w postaci nachylenia krzywej przy bardzo małych ekspozycjach, zwanego wskaźnikiem nachylenia. Wymiar wskaźnika nachylenia jest odwrotnością wymiaru dawki dziennej (mg/kg.doba) -1 . Kiedy jest już wyliczony wskaźnik nachylenia, obliczenie ryzyka związanego z kancerogenem jest proste. Ocena zagrożenia związanego z ekspozycją na kancerogen po prostu wymaga określenia dawki we właściwym wymiarze (mg/kg.doba) i pomnożenia jej przez wskaźnik nachylenia, co przedstawiamy w przykładzie:

Przykład: Zastosowanie wskaźnika nachylenia.
Jaka będzie spodziewana maksymalna liczba nadmiernych przypadków raka dla populacji 100,000 dorosłych przyjmujących dziennie 0.14 mg benzenu?

Rozwiązanie:
Wskaźnik nachylenia z Dodatku B dla benzenu wynosi 0.029 (mg/kg.doba)-1.
Przyjmując wagę ciała dorosłego człowieka równą 70 kg, można wyliczyć ryzyko życiowe następująco:

życiowe ryzyko wystąpienia raka = 0.000052 albo 0.0052%
więc:
maksymalna liczba przypadków = ryzyko x zagrożona populacja = 0.000052 x 100,000 = 5 nadmiernych przypadków raka w populacji

 

Modele Ekstrapolacji do Niskich Dawek

W celu przeprowadzenia niezbędnej ekstrapolacji do niskich wartości dawki toksykolodzy stosują różne modele matematyczne.
Aktualnie używane są dwa typy modeli: modele rozkładu tolerancji i modele mechanistyczne.

Modele rozkładu tolerancji.

Podstawą modeli rozkładu tolerancji jest założenie o istnieniu wartości dawki granicznej. Niektóre z tych modeli (np. model Mantel-Bryan'a) mogą być stosowane do promotorów, kancerogenów niegenotoksycznych i dla określonych danych (których zależność od dawki wskazuje na obecność wartości granicznej) opisujących częstość występowania nowotworów dla określonych kancerogenów genotoksycznych (np. rak pęcherza w kontakcie z 2-acetyloaminofluorenem, opisany w eksperymencie "mega-mysz").

Należy pamiętać, że większość modeli budowanych dla ekstrapolacji do niskich dawek efektów promocji raka nie bierze pod uwagę następującej teorii addycji: zależność dawka-reakcja, badana w populacji stale poddawanej wysokiemu poziomowi stresów promocyjnych, która zostanie obciążona dodatkowym stresem promocyjnym, może nie wykazywać obecności wartości dawki granicznej. Równocześnie takie sformułowanie o addycji wynika z przyjęcia podobieństwa mechanizmów działania stresorów.

Modele mechanistyczne.

W modelach mechanistycznych zakłada się, że do transformacji od normalnej komórki do rakowej niezbędne jest zaistnienie określonej liczby reakcji, zdarzeń, "trafień" (pojęcie z radiobiologii) oraz stanów przejściowych krytycznych elementów komórki (DNA). Modele te są ważne, ponieważ panuje powszechna zgoda w kwestii niemożności stosowania modeli rozkładu tolerancji (np. Mantel-Bryan'a). Wyjątkiem są sytuacje, kiedy dostępne dane są dostatecznie dokładne aby wykluczyć modele zawierające liniową składową w zakresie niskich stężeń, albo kiedy przewiduje się istnienie mechanizmu genotoksyczności.

Model wieloetapowy, zaproponowany przez Armitage i Doll w 1954, jest rozszerzeniem modelu jednego trafienia, opracowanego dla jonizacji radiacyjnej. Uogólniona wersja tego modelu, która zakłada co najmniej jeden etap zależny od wielkości dawki, przyjmuje następującą postać:

Najbardziej prawdopodobne przybliżenie w zakresie bardzo małych dawek staje się coraz mniej pewne z powodu niewielkich zmian wielkości reakcji na dawki stosowane w doświadczeniu. Dlatego kolejne udoskonalenie modelu polega na zastąpieniu wyrażenia liniowego w wielomianie przez jego granicę 95% poziomu ufności. Pozwala to uzyskać bardziej stabilne przybliżenie oceny ryzyka w relacji do tła niż uzyskiwane w większości podobnych oszacowań. Jest to tzw. linearyzowany model wieloetapowy, obecnie używany rutynowo przez EPA. Dlatego staje się on najczęściej stosowanym modelem dla oceny ryzyka związanego rakiem. Przy niskich dawkach funkcja rzeczywiście jest niemal liniowa. Model wieloetapowy jest bardzo użyteczny dla aproksymacji grup danych dzięki wyrażeniu funkcji dawki w postaci wielomianu. Tak zwane wskaźniki potencjału kancerogennego wprowadzone przez EPA są oparte o ten właśnie model, a wyliczane są przy pomocy komercyjnie dostępnych programów komputerowych z danych uzyskanych w eksperymentach na zwierzętach.

Ponieważ model wieloetapowy pozwala ostrożnie ocenić ryzyko przy niskich dawkach, jest faworyzowany przez EPA, pomimo wielu swoich wad. Jak już powiedziano, model ten jest mało użyteczny w przypadku promotorów takich jak PCB, gdyż zwykle znacznie przecenia zagrożenie wskutek pomijania wartości granicznej. W przypadku formaldehydu uzyskano dużo lepsze przybliżenie danych doświadczalnych przy zastosowaniu modelu pięcioetapowego niż z użyciem wersji EPA z konwencjonalnymi ograniczeniami. Wyżej przedstawione równanie prowadzi do stwierdzenia, że prawdopodobieństwo zaindukowania raka będzie zmierzać do jedności, jeśli dawka będzie dostatecznie duża. Dlatego nie można oczekiwać dobrej aproksymacji danych kiedy funkcja dawka-reakcja rośnie stopniowo, więc osiąga plateau (silnie wklęsłe dla kinetyki Michaelis-Mentes'a), (np. dla chlorku winylu). W celu poradzenia sobie z taką sytuacją stosuje się procedurę regresji przy użyciu numerycznego oszacowania przebiegu funkcji, najbardziej prawdopodobnego dla danego zestawu danych. Równocześnie kiedy model nie daje wystarczająco dobrego uzgodnienia danych, dane dla wyższych dawek usuwa się ze zbioru, a model używany jest dla przybliżenia pozostałych danych. Operację powtarza się aż do uzyskania akceptowalnego uzgodnienia. Najnowszy z opracowanych jest model Moolgavkar-Knudson, oparty o dynamikę i transformacje komórkowe oraz uwzględniający dane typu czas-częstość wystąpienia raka.

Błąd ekstrapolacji.

Jest bardzo prawdopodobne, że ekstrapolacja danych uzyskanych w zakresie 10 do 90% kancerogenezy u zwierząt doświadczalnych do poziomu 0.00001% kancerogenezy będzie prowadzić do bardzo ostrożnych oszacowań. Będą kilka rzędów wielkości zawyżone dla inicjatorów kancerogenezy, a dla promotorów i immunosupresorów będą niedokładne. Skala błędów ekstrapolacji z danych doświadczalnych dawka-reakcja do małych częstości wystąpienia raka w potencjalnie zagrożonych populacjach ludzi, jest przedstawiona na rysunku, gdzie wykorzystano dane doświadczenia z 2-acetyloaminofluorenem.

EPA dobrze zna problemy związane z nadmiernie ostrożnymi ocenami ryzyka. Wielokrotnie podkreśla więc, że każda z ocen ryzyka może być wykorzystana jako ostrożna górna granica zagrożenia, które w istocie może być znacznie mniejsze. Tymczasem problemy stwarzane są wskutek wykorzystywania oficjalnych danych EPA w charakterze absolutnych standardów włączanych do oceny ryzyka ekologicznego.

Skłonność do stosowania jednego modelu dla wszystkich sytuacji, bez uwzględnienia ważnych informacji biologicznych (działania epigenetycznego bądź genotoksycznego, mechanizmów promocji, itp.), a nawet posługiwanie się wykluczaniem istotnych danych dla zakresu dużych dawek w celu osiągnięcia uzgodnienia z modelem (np. sukcesywne wykluczanie danych dla wysokich dawek w czasie posługiwania się wieloetapowym modelem linearyzowanym), jest wśród biologów przyczyną złej reputacji praktyki nadużywania modeli matematycznych. W szczególności poddawane są krytyce modele wieloetapowe linearyzowane, wykorzystane przez EPA do oszacowania takich związków jak chlorowane dioksyny i arsen. Pomimo ograniczeń towarzyszących danym pochodzącym z tradycyjnych badań raka z udziałem zwierząt doświadczalnych, inteligentne posługiwanie się procedurami matematycznymi może w konkretnych przypadkach ułatwić wyeliminowanie określonych modeli , więc podnieść poziom zaufania do ekstrapolacji ryzyka dla niskich dawek.

 

Kancerogeneza naturalna i związana ze stylem życia

Dwadzieścia pięć procent ludzi w czasie swojego życia zachoruje na raka. Substancje trujące rozproszone w środowisku mają swój udział w powstawaniu chorób nowotworowych u ludzi. Powszechnie uważa się jednak, że promieniowanie naturalne i styl życia powodują znacznie więcej zgonów na raka niż trujące chemikalia w środowisku.

Naturalna kancerogeneza.

Tłowe tempo powstawania chorób nowotworowych nie ma związku z rodzajem zachowań ludzkich, więc z miejscem gdzie ludzie żyją i co oni robią lub spożywają. Żyjemy w świecie raczej niebezpiecznym dla DNA, które jest stale bombardowane przez promieniowanie kosmiczne dość jednorodnie zagrażające całej powierzchni Ziemi. Jest przy tym niewiele większe na dużych szerokościach geograficznych w stosunku do biegunów. Ponadto istnieją naturalnie cząstki radioaktywne, w tym radon, które pochodzą ze składników skorupy Ziemskiej i stanowią dodatkowe źródło zagrożenia promieniotwórczego. Promieniowanie kosmiczne i strumień radionuklidów, o natężeniu około 150 mrem rocznie na poziomie morza w USA, stanowią tłowy nacisk genotoksyczny na komórki ludzkie.

Naturalne oddziaływania odpowiadają za dziesiątki tysięcy przypadków naprawy DNA w komórce dziennie, co przekłada się na astronomiczną liczbę 1020 (100 kwintylionów) napraw DNA rocznie na jedną osobę. Na szczęście proces naprawy prowadzi do wymiany w DNA uszkodzonej zasady przez taką samą zasadę. Jednak proces naprawy DNA może ulegać zakłóceniom prowadzącym do mutacji. Jeśli mutacja zaistnieje w pobliżu lub na onkogenie w komórce somatycznej, może utworzyć jedną z dwu mutacji niezbędnych do powstania kancerogenezy, bądź może być to mutacja wystarczająca do progresji.

Wprawdzie każdy z nas rozpoczyna życie jako jedna komórka, jednak dorosły organizm składa się z około 100 trylionów komórek, z których każda może stać się nowotworową. Każdy nowotwór powstaje jako klon komórek, z których wszystkie pochodzą z tej samej pierwotnej komórki, przetransformowanej w sposób umożliwiający jej szybszą replikację w porównaniu do sąsiednich komórek. O ile zachorowalność ludzi jest bardzo częsta, to na poziomie komórkowym zainicjowanie raka jest nadzwyczaj rzadkim zdarzeniem. Ponieważ nowotwory są klonami, a jeden z czterech ludzi, każdy posiadający 100 trylionów komórek, zostanie dotknięty chorobą w czasie swojego życia, to można ocenić zdolność do zainicjowania raka na poziomie komórkowym jako 1 na 400 trylionów komórek, tzn. 2.5 x 10-15 .

Wiadomo, że równowaga między prawidłowymi naprawami DNA i prowadzącymi do pomyłek jest siłą napędową ewolucji, której towarzyszą minimalne szkody dla trwałości gatunków. Niedoskonałe w działaniu enzymy naprawcze DNA umożliwiają powstawanie w niewielkim tempie nagromadzenia mutacji zarówno w komórkach somatycznych (potencjalnie zdolnych do przekształcenia w rakowe) jak i w płciowych (odpowiedzialnych za zmiany w kolejnych generacjach, z których mniejszość będzie lepiej przystosowana do zmieniającego się środowiska).

Zastanówmy się, gdyby rak był śmiertelną chorobą atakującą przed osiągnięciem dojrzałości płciowej, to szanse na utrzymanie się obecnie funkcjonującego mechanizmu naprawy DNA byłyby znikome. Jeśli więc mogli przetrwać tylko dobrze zaadaptowani potomkowie o mniej dynamicznym systemie zachowania trwałości genetycznej powinniśmy posiadać bardziej perfekcyjny mechanizm naprawy DNA. W takim razie można by wątpić czy ktokolwiek z nas miałby szansę na przeczytanie tych słów - lepszym wyborem jest posiadanie niezbyt perfekcyjnego systemu naprawy DNA.

Kancerogeneza z powodu warunków życia i pracy.

Oprócz oddziaływania tłowej mutagenezy stykamy się w życiu codziennym z wieloma chemikaliami w pożywieniu i naszym otoczeniu, które nie mają nic wspólnego z niebezpiecznymi odpadami. Szereg roślin zawiera naturalne pestycydy, które mogą być kancerogenami. Niektórzy z nas przejawiają preferencje żywieniowe dla niezdrowych pokarmów, które zawierają naturalne kancerogeny: grzyby (hydrazyny), seler (psoraleny), masło orzechowe (aflatoksyny), czy steki smażone na węglu drzewnym (benzo(a)piren). Wszystkie te źródła zagrożenia bledną jednak wobec powszechnego obyczaju rozdrabniania pewnego daru natury na małe trocinki, skręcaniu w tytki i spalaniu ich. Wdychanie dymu tytoniowego jest najważniejszą metodą wprowadzania kancerogenów do organizmu homo sapiens. Obyczaj ten jest odpowiedzialny za większą ilość nowotworów płuc, pęcherza, a przypuszczalnie też za rak trzustki i piersi, niż wszystkie inne sztuczne źródła rakotwórczych substancji razem.

Obok tłowych źródeł kancerogenów (w rodzaju ekspozycji na promieniowanie kosmiczne i naturalne źródła promieniotwórczości) oraz źródeł związanych ze stylem życia (w rodzaju żywności i palenia papierosów) wielu ludzi jest zagrożonych przez nowotwory związane z warunkami pracy. Oczywiście rozpoznanie tego źródła zagrożenia spowodowało wiele ograniczeń wydanych przez państwo. Dzięki temu miejsce pracy jest teraz bezpieczniejsze niż kiedykolwiek z punktu widzenia ryzyka kontaktu z kancerogenami.

"Bezpieczne" dawki rakotwórczych chemikaliów w niebezpiecznych odpadach.

W czasie ostatniego dziesięciolecia narzędzia oceny potencjalnego zagrożenia rakotwórczego dla populacji ludzkich stały się dość precyzyjne. Niemniej nadal spotykamy się z wieloma niedokładnościami, które bardzo utrudniają ocenę sytuacji. Oszacowanie ryzyka związanego rakotwórczymi chemikaliami najlepiej udaje się kiedy prowadzimy oceny porównawcze i podejmujemy zadanie wskazania najpoważniejszego zagrożenia. Bardziej priorytyzacji niż ilościowej oceny zagrożenia. Jak już wyjaśniliśmy, ekstrapolacja od wysokich dawek podawanych w testach ze zwierzętami do niskich dawek przyjmowanych przez ludzi jest obciążona błędami statystycznymi i ostrożnymi założeniam. Ponadto będzie prawdopodobnie niedokładna w przypadku kancerogenów genotoksycznych. Tym niemniej nawet niedokładne oceny ryzyka będą lepsze od zaniechania ich w ogóle, a błędy przy ich sporządzeniu nie stanowią o pomniejszeniu stopnia ryzyka dla zdrowia populacji ludzkiej.

W przyszłości można spodziewać się ulepszenia metod. Modele takie jak farmakokinetyczne, zdolne do wyliczenia udziałów wielu zmiennych przy skalowaniu danych z doświadczeń na zwierzętach, ułatwią ocenę istotną dla wskazania ryzyka dla ludzi. Toksykolodzy będą potrafić określić prawdopodobieństwo wystąpienia zagrożeń, jednak nie należy spodziewać się uzyskania definitywnych odpowiedzi.

Przyjmując te ograniczenia nauki trzeba postawić kwestię:

Jaki jest akceptowalny dla społeczeństwa stopień ryzyka związanego rakotwórczymi składnikami niebezpiecznych odpadów lub innych źródeł?

Obecnie EPA i wiele innych agencji ochrony środowiska ustanawia górną granicę "bezpieczeństwa" jako poziom zagrożenia rakiem w czasie całego życia człowieka wyrażony liczbowo 1 do dziesięciu tysięcy (1 x 10-4 ) dla populacji maksymalnie zagrożonej obecnością kancerogenów pochodzących z niebezpiecznych odpadów. Pojęcie "1 na milion" (1 x 10-6 ) ryzyko jednego nadmiernego przypadku raka na całe życie populacji ludzkiej o liczebności jednego miliona jest używane jako docelowe zadanie dla ustawodawcy.

TOKSYKOLOGIA a EKOLOGIA

Trzeba zauważyć, że zasady myślenia o ekspozycji, absorpcji, metabolizmie i manifestacji objawów, znane z toksykologii człowieka, również mają zastosowanie w ekotoksykologii. Wprawdzie specyficzne etapy mogą być bardzo różne (np. absorpcja u ryb (nie u drapieżnych) będzie zachodzić głównie w skrzelach) to zasady farmakokinetyki pozostaną takie same. Pojęcia podobieństwa strukturalnego i aktywności chemicznej są tak samo ważne dla ekotoksykologii. Niemniej zastosowanie tych zasad i podstaw teoretycznych do zróżnicowanych populacji dzikich gatunków, które współżyją jako społeczności w systemach naturalnych, będzie trudnym wyzwaniem dla naukowców i inżynierów zajmujących się oceną decyzji o sposobie zagospodarowania niebezpiecznych odpadów.

Badanie Oddziaływania Trucizn

Ekotoksykolodzy odpowiadają na wiele pytań o trujące własności składników przy zastosowaniu licznych systemów testów, zróżnicowanych pod względem złożoności, możliwości poznawczych i kosztów. Zastosowanie wyników tych testów, jak też możliwości ich wykonania są często ograniczone.

Początki laboratoryjnych testów toksyczności sięgają czasów przed II wojną światową, kiedy badania prowadzono tzw. metodą "ryba w słoiku". Późniejsze opracowanie optymalnych organizmów testowych, potocznie nazywanych "białym szczurem", doprowadziło do opracowania testów z udziałem wielu gatunków, od roślin (np. alg) przez bezkręgowce (np. pchła wodna) do drapieżników zakończających łańcuch pokarmowy (np. okoń). Wprawdzie opracowano standardowe metody testów z udziałem wielu gatunków, jednak nie uzyskano naukowego uzgodnienia w kwestii gatunku najbardziej wrażliwego na skażenia lub reprezentatywnego. Społeczność naukowa nie ustaje w poszukiwaniu tajemniczego "białego szczura".

Niektóre testy ekotoksykologiczne opracowane dla monitorowania zmian na poziomie subkomórkowym, komórkowym i dla organizmów, wykazują podobieństwo do używanych w ocenach toksyczności dla ludzi. Jednak w wielu przypadkach badania na poziomie organizmów lub tkanek nie pozwalają ocenić w pełni zjawiska toksyczności wobec ekosystemu. Na przykład, pomiar poziomu zanieczyszczeń w tkankach jadalnych ryb będzie dobrze opisywał osobnicze zagrożenie, jednak nie wniesie istotnych informacji o możliwościach zaistnienia strat w wodnym łańcuchu pokarmowym.

Metody testów ekotoksykologicznych zmierzają do odniesienia informacji otrzymanych z mierzalnych oddziaływań subkomórkowych do prognoz zmian strukturalnych i funkcjonalnych w ekosystemie. Badania takie komplikują się wraz coraz większą złożonością organizacji obiektu poddanego analizie: od populacji i społeczności do ekosystemu.

Testowanie i analiza efektów toksycznych często utrudniają wzajemne oddziaływania chemikaliów uwalnianych do środowiska. Chemikalia uwalniane do środowiska przez przemysł nieczęsto zawierają jeden związek chemiczny. Zwykle są to złożone mieszaniny chemikaliów. Dotychczas zbadano toksyczność niewielkiej części spośród chemikaliów, a bardzo mało wiadomo o wpływie złożonego melanżu niebezpiecznych wycieków i emisji uwalnianych z działających instalacji lub ze skażonych terenów.

Takie i wiele innych czynników utrudnia praktykę ekotoksykologii. Rozumiejąc te komplikacje trzeba zauważyć, że zrealizowano szereg dobrze udokumentowanych badań nad wpływem trucizn na środowisko. Przyczyniło się to do zgromadzenia rzetelnych danych potrzebnych przy podejmowaniu decyzji o sposobie zagospodarowania niebezpiecznych materiałów.

 
Kryterium dla Oceny Efektu Toksycznego

Dla wyboru i zaprojektowania odpowiednich metod badawczych najpierw należy zdefiniować skutek zatrucia (kryterium zaistnienia efektu toksycznego). W opracowaniach ekotoksykologicznych często mają zastosowanie dwa różne i uzupełniające się definicje kryterium, wynikające z metody oceny oraz z rodzaju pomiarów.

Kryterium dla oceny ekotoksykologicznej polega na specyficznej charakterystyce ekologicznej, której poważna deformacja będzie wskazywać na potrzebę podjęcia akcji naprawczej. Kryterium dla oceny zagrożenia ekologicznego sporządzanej dla miejsca składowania niebezpiecznych odpadów może być zauważalny niekorzystny wpływ zanieczyszczeń na zbiór wartości środowiska ważnych komercyjnie lub estetycznie. Na przykład, zrzut zanieczyszczeń do wód powierzchniowych może niekorzystnie oddziaływać na przeżywalność i zdolność do rozmnażania się dzikiej troci, co będzie stanowić kryterium dla oceny wartości ekologicznych i rekreacyjnych.

Jeśli kryterium ma mieć wartość użytkową musi otrzymać wartość mierzalną. Dlatego określa się mierzalne kryterium, które pozwala zmierzyć wskaźnik ilościowy (tzn. mierzalną cechę charakterystyczną) związany z wypełnieniem warunków kryterium oceny. Dla powyższego przykładu kryterium oceny, można zdefiniować mierzalny wskaźnik jako wynik pomiaru częstości zgonów wśród populacji troci. dokonanego przy pomocy testów toksyczności albo monitoringu terenowego pogłowia gatunków w relacji do umiejscowienia zrzutu i jego rozcieńczenia. Niektóre z kryteriów dla ocen i pomiarów, będących w użyciu podczas badań na terenach skażonych niebezpiecznymi odpadami przedstawiono w tabelach.

Bioocena

Od lat ekotoksykolodzy w celu oceny zagrożenia przyrody ze strony chemikaliów posługują się kombinacjami bioocen krótko i długoterminowych. Bioocena jest techniką polegającą na zastosowaniu obserwacji organizmów, systemów i procesów biologicznych do oceny efektów zagrożenia ze strony chemikaliów.

Wyniki krótko- i długoterminowych testów toksyczności często są używane do określenia jakości wody, do oceny śmiertelnego lub obezwładniającego potencjału pestycydów, do wyliczania ograniczeń w zezwoleniach na zrzut ścieków i do przewidywania możliwych zniszczeń związanych z katastrofalnymi rozlewami i wypadkami z udziałem chemikaliów. Testy służą ponadto do oceny potencjalnych i obserwowanych obecnie efektów składowania niebezpiecznych chemikaliów oraz rezultatów akcji dekontaminacji. Włączenie testów toksyczności do rozwiązywania problemów gospodarki odpadami może znacznie ułatwić proces decyzyjny i umożliwi wybór efektywnych ekonomicznie długoterminowych rozwiązań o charakterze ochronnym.

W kontekście gospodarki niebezpiecznymi odpadami bioocena odgrywa rolę laboratoryjnej próby, polegającej na eksponowaniu organizmów testowych na pobrane w terenie próbki w celu identyfikacji obecnych i przyszłych działań trucizn na gatunki zamieszkujące ten teren. Biooceny zwykle prowadzi się w kontrolowanych warunkach laboratoryjnych na próbkach gleby, osadów i wody przy użyciu standardowych zestawów organizmów testowych. Prostym przykładem jest przepuszczanie skażonej wody powierzchniowej przez zbiornik z narybkiem troci. W porównaniu do badań populacji i osobników w warunkach laboratoryjnych dużo bardziej kosztowna jest modelowanie ekspozycji i interpretacja wyników dla społeczności i ekosystemów.

Laboratoryjne symulacje ekosystemów są krytykowane w związku z problemami przeniesienia skali. Dla imitacji struktury ekosystemu używane są mikrokosmosy stanowiące funkcjonalne miniaturyzacje ekosystemów do skali laboratoryjnej. Na przykład, w celu symulacji ekosystemów lądowych często stosuje się mikrokosmos zwany terrarium. Dla zmniejszenia trudności w skalowaniu i interpretacji niedokładności ekstrapolacji danych opracowano modele makroskopowe, znane pod nazwą mezokosmos, będące odizolowanym fragmentem lub replikacją rzeczywistych warunków. Ponieważ techniki wymagające mikrokosmosów i mezokosmosów są czasochłonne i kosztowne, nieczęsto bywają stosowane w badaniach dla potrzeb procesów decyzyjnych związanych z gospodarką niebezpiecznymi odpadami. Często natomiast są używane w badaniach rejestracyjnych nowych chemikaliów dla oceny zagrożeń i dróg przemieszczania się toksyn.

Testy Toksyczności

Szybkie Testy Toksyczności

Szybkie testy toksyczności, często nazywane testami toksyczności ostrej, mają zastosowanie do badań ciężkich przypadków wywołanych ekspozycją o stosunkowo krótkim czasie trwania. Jeśli uzyskuje się tak jakikolwiek efekt w postaci reakcji na stresor tożsamy z mierzalnym kryterium, szybki test toksyczności polega na określeniu liczby osobników, u których stwierdzono reakcję na dany związek chemiczny lub inne zaburzenie w środowisku. Podobnie jak w toksykologii człowieka, zastosowanie ma tu LD50 jako empiryczne oszacowanie dawki wywołującej śmierć 50% osobników w badanej populacji. Tak jak LD50 definiowane jest LC50 w celu określenia wartości stężeń w powietrzu lub w wodzie, które powodują śmierć 50% populacji. Szybkie testy toksyczności używane są też do określenia dawki wywołującej reakcje inne niż śmiertelne, nazywanej EC50, która definiowana jest jako stężenie czynnika wywołujące określony efekt u połowy populacji. Na rysunku przedstawiono wyidealizowany obraz reakcji organizmu na dawkę, mierzonej w postaci określonych zmian fizjologicznych, włącznie ze śmiercią policzalnej liczby osobników w populacji.

Testy toksyczności ostrej zwykle mają zastosowanie do ujawnienia reakcji skwantyfikowanej (tzn. efekt pełny lub brak efektu, np. żywy lub martwy). Zależność między stężeniem substancji trującej i procentowym udziałem poszkodowanych organizmów w badanej populacji można przedstawić w postaci krzywej dawka-reakcja. Zależność ta czasem nazywana jest krzywą śmiertelności. Standardową metodą testów dla pomiaru ostrej reakcji śmiertelnej jest takie planowanie doświadczenia, żeby osiągnąć 50% zgonów w populacji organizmów testowych w czasie 96 godzin ekspozycji. Wprawdzie często publikuje się dane uzyskane po krótszych czasach ekspozycji, jednak okres 96 godzin uważany jest za standard dla wyznaczania LC50. Dane z testu ostrej toksyczności dla piskorza eksponowanego na selenek sodu zawiera tablica, a przybliżone wartości LC50 prezentuje wykres na rysunku.

Test ostrej toksyczności może być prowadzony na wiele sposobów. Niektóre organizmy (np. bezkręgowce) trudno jest uśmiercić. Z tego powodu publikowane są wartości EC50 po 96 godzinach ekspozycji, którym odpowiada efekt końcowy polegający na unieruchomieniu lub utracie równowagi zamiast śmiertelności.

Techniki utrzymywania organizmu testowego w warunkach ekspozycji mogą w przypadku testu ostrej toksyczności przyjmować formę : statyczna, recyrkulacja, odnawiana i przepływowa. Metody te różnią się pod względem zasady wprowadzania i utrzymywania stresorów do środowiska życia populacji badanej. W celu zbadania wpływu na zjawisko toksyczności również mogą być manipulowane inne parametry jakości środowiska wodnego (np. rozpuszczony tlen, twardość).

Można projektować testy ostrej toksyczności w sposób dogodny dla wyjaśnienia konkretnych kwestii związanych z gospodarką odpadami. Badaniu można poddać toksyczność związku chemicznego, mieszaniny chemikaliów, wycieku albo innych stężonych strumieni odpadów. Testy również można użyć do zlokalizowania "gorących punktów" na skażonym terenie, jak też do analizy efektywności technologii neutralizacji odpadów. Żeby osiągnąć wartościowe wyniki należy prawidłowo wybrać organizm testowy, układ symulujący ekspozycję i warunki brzegowe. Opracowanie wyników testów toksyczności wymaga kombinacji znajomości procedur statystycznych i doświadczenia w interpretacji wyników takich procedur.

Interpolacja graficzna wartości LC50 zależnej od czasu ekspozycji.

Długotrwałe Testy Toksyczności

Długotrwałe testy toksyczności, znane pod nazwą testy toksyczności chronicznej, służą do zbadania niekorzystnych oddziaływań czynnika trującego na osobniki, gatunki i populacje. Prowadzone są w warunkach laboratoryjnej przedłużonej ekspozycji osobników na różnych stadiach rozwoju (np. embrion, młodzież, dojrzały płciowo). Takie testy pozwalają na określenie wpływu na rozwój, homeostazę, wzrost i potencjał reprodukcyjny, co umożliwia wyznaczenie stężenia granicznego dla trucizny, przy którym ujawniają się efekty długoterminowe. Takimi granicznymi stężeniami są najniższe wartości stężenia, dla których już pojawiają się niekorzystne oddziaływania, co określa nazwa najniższy poziom dla widocznego efektu LOEL . Podobnie określa się najwyższy poziom bez ujawnienia efektu NOEL, który wyznacza najwyższe stężenie, przy którym jeszcze nie ujawniają się niekorzystne efekty działania trucizny.

Ponieważ stężenia chemikaliów powodujące efekty chroniczne zwykle są niższe niż wywołujące efekty ostre, wielkość określająca toksyczność chroniczną jest bardziej czułym miernikiem toksyczności. Dla określenia akceptowalnych wartości stężeń ekspozycji (np. standardów jakości wody), ekotoksykolodzy stosują podkategorię testów toksyczności chronicznej, nazywaną testami cyklu życia. Te specjalne testy polegają na obserwacji reakcji reprezentantów poszczególnych gatunków w całym czasie ich życia. Służą do oceny wpływu na przeżywalność, wzrost i reprodukcję. Na przykład test cyklu życia dla ryb słodkowodnych będzie obejmował ekspozycję embrionów, młodzieży na kolejnych etapach dojrzewania, dojrzałych płciowo - aż do reprodukcji i pojawienia się kolejnej generacji. Stary dogmat toksykologii organizmów wodnych mówi, że wczesne stadia rozwoju są najbardziej wrażliwe na toksyny. Opracowane informacje z 56 pełnych lub częściowych testów cyklu życia dowodzą, że fazy życia embrionalno-larwalnego i wczesnej młodzieży są najwrażliwszymi w większości przypadków.

Problem związany z testami toksyczności chronicznej to czas, więc koszt ich wykonania. Wprawdzie testy cyklu życia mają wielkie znaczenie dla podejmowania decyzji, jednak tego rodzaju badania są ograniczone z kilku powodów:
1) nie wszystkie gatunki rozmnażają się w warunkach laboratoryjnych,
2) nie są niezbędne albo są bardzo kosztowne,
3) trucizna jest wprowadzana do środowiska w stałym stężeniu niezbędnym dla stabilności zagrożenia, podczas gdy w naturze wielkość, częstość i trwałość warunków ekspozycji może zmieniać się znacznie, a w końcu
4) można zbadać tylko niewielką część spośród toksycznych chemikaliów uwalnianych do środowiska wodnego.

Biomarkery

Zastosowanie biomarkerów do identyfikacji zagrożenia lub efektów fizjologicznych różni się od tradycyjnych metod badań ekologicznych (np. pomiarów chemicznych, testów toksyczności) dzięki użyciu organizmów występujących w naturze jako wskaźników dla reakcji ekosystemu. Podłożem koncepcji biomarkerów jest obserwacja, że wybrane kryteria mierzalne, zwykle związane z reakcjami biochemicznymi lub fizjologicznymi, mogą służyć za czułe wskaźniki ekspozycji lub efektów innych niż śmierć (stres nie-śmiertelny).

W sytuacji kiedy wielka złożoność utrudnia pomiary skażeń i ocenę zagrożenia ze strony ekotoksyn w szybko zmieniającym się środowisku naturalnym, narasta potrzeba opracowania ocen zagrożenia ze strony chemikaliów przy użyciu biomarkerów. Ten rodzaj mierników, korzystających z obserwacji płynów fizjologicznych, komórek i tkanek, umożliwia ocenę na poziomie komórkowym i subkomórkowym wielkości zagrożenia chemicznego oraz rodzaju reakcji organizmu. Równocześnie prowadzone są intensywne badania nad udoskonaleniem istniejących metod i opracowaniem nowych wskaźników ekspozycji i reakcji. Z doświadczenia wynika, że zastosowanie biomarkerów usprawnia proces decyzyjny w gospodarce niebezpiecznymi odpadami.

Miernikiem ekspozycji na chemikalia jest ich bioakumulacja w tkankach, co łatwo wykryć przy pomocy analizy śladowej. Kiedy wyniki takie nie są dostępne, ekotoksykolodzy opracowali wiele stałych empirycznych ułatwiających oszacowanie bioakumulacji. Współczynnik podziału oktanol-woda (K ow ) pozwala przybliżyć sposób zachowania się chemikaliów na granicy faz lipidu i wody. Współczynnik biokoncentracji (BCF) opisuje zależność stężenia chemikaliów w organizmie w relacji do jego stężenia w otaczającym środowisku (zazwyczaj w wodzie). BCF definiuje równanie empiryczne:

Przykład: Oszacowanie bioakumulacji.

Wynik rutynowego monitoringu osadów i wód powierzchniowych poniżej składowiska odpadów niebezpiecznych dostarczył informacji o przekroczeniu dopuszczalnych stężeń pestycydu DDT. Średnie wyniki zawartości DDT wynoszą dla osadów 33mg/kg i dla wody powierzchniowej 0.25mg/L. Ponieważ U.S. Food and Drug Administration wymaga po przekroczeniu przez stężenie DDT w rybach poziomu 5ppm podjęcia akcji dekontaminacji warstwy wodonośnej, czy należy spodziewać się przekroczenia wskutek bioakumulacji DDT w tkankach ryb żyjących w pobliżu składowiska?

Rozwiązanie. Ponieważ rutynowy monitoring nie dostarcza informacji o śladowych ilościach DDT w tkankach ryb, należy tą wartość oszacować przy wykorzystaniu wartości współczynnika bioakumulacji BCF z tablicy 5-14. Z danej Log BCF = 4.78 wyliczamy, że wartość BCF wynosi 60,256 (mg/kg DDT w tkankach przy zawartości 1mg/L wody, lub L/kg). Po podstawieniu danych z monitoringu i wartości BCF dla DDT do równania otrzymamy:

,co prowadzi do obliczenia zawartości DDT w tkankach w przybliżeniu równej 15 mg/kg . Z tego oszacowania wynika, że należy zbadać rzeczywistą zawartość DDT w tkankach, gdyż może to być problemem.

Chemikalia zdolne do bioakumulacji lub biokoncentracji mogą zwiększać swoje stężenie w tkankach w trakcie przenoszenia ich między piętrami łańcucha pokarmowego, a proces ten znany jest pod nazwą biomagnifikacji. Rysunek 5-28 przedstawia biomagnifikację na przykładzie dwu prostych łańcuchów pokarmowych organizmów wodnych w ekosystemie skażonym pestycydami: DDT i toxafenem.
Stężenia śladów w tkankach nie mogą stanowić wystarczającej informacji o reakcjach biologicznych wywołanych ekspozycją na chemikalia. Ponadto pomiar śladów w tkankach nie będzie łatwy do wykonania, jeśli nie mają one zdolności do bioakumulacji (np. związki szybko eliminowane). Podobnie jest kiedy tworzą złożone mieszaniny, których analiza pomimo dużych nakładów czasu i kosztów nie doprowadzi do wykrycia wszystkich trucizn. W takich przypadkach preferowane będą inne mierniki pośrednie zdolne do identyfikacji reakcji biologicznej na ekspozycję o znaczeniu toksykologicznym.

Biomarkerem umożliwiającym uzyskanie informacji o stresie mniejszym niż śmiertelny, jak też o zaistnieniu zagrożenia, jest enzym dehydrataza kwasu d-aminolewulinowego (d-ALA-D). Enzym ten katalizuje reakcję związaną z syntezą hemu, więc jest niezwykle wrażliwy na inhibicję wskutek obecności ołowiu nieorganicznego. d-ALA-D pozwala niedrogo ocenić skażenie ołowiem, co ułatwia wyjaśnienie wątpliwości zdarzające się często w badaniach próbek ekologicznych. Na terenie składowania odpadów, gdzie skażenie ołowiem stanowi poważny problem, d-ALA-D jako miernik występowania ekspozycji na niższym niż śmiertelny poziomie umożliwia obserwację reakcji organizmów na takie skażenia, chociaż w takich miejscach obecność wielu metali śladowych może bardzo ograniczyć użyteczność tej metody.

Innym często stosowanym biomarkerem ekspozycji na metale śladowe jest wiążąca metale proteina metalotionen. Funkcją metalotionenu jest regulacja metabolizmu cynku i miedzi, jak również bierze udział w detoksyfikacji tkanek z metali. Zmiana aktywności metalotionenu jest czułym wskaźnikiem ekspozycji na metale śladowe.

Wśród innych biomarkerów ekspozycji ekologicznej na skażenia związkami organicznymi trzeba wymienić indukcję enzymów metabolicznych (detoksyfikujących), takich jak oksydazy wielofunkcyjnej (MFO) lub cytochromu P450. Również inhibicja cholinesterazy w mózgu przez substancje insektobójcze z grupy organofosforanów, jak też reakcje niespecyficzne w rodzaju deformacji kośćca.

Toksyczne Metale

Metale śladowe krążą między litosferą, atmosferą i hydrosferą w naturalnym cyklu przyrody. Również naturalnie może dojść do wzbogacenia środowiska w metale śladowe w wyniku zwietrzenia skał lub erupcji wulkanicznej. Źródła antropogeniczne to emisje przemysłowe oraz źródła rozproszone, jak wymywane z ulic miast pyły, wymywane z atmosfery cząstki i emisje gazowe. Górnictwo, spalanie paliw kopalnych, hutnictwo, metalurgia i inne tradycyjne aktywności ludzkie mogą zmienić obieg biogeochemiczny metali śladowych i znacząco zwiększyć poziom metali śladowych w środowisku. Wyciek ze składowiska niebezpiecznych odpadów może być znaczącym źródłem lokalnym, jednak rzadko stanowi to wyłączną przyczynę ekspozycji na metale śladowe dla miejscowych organizmów żywych.

W środowisku wodnym metale śladowe występują w postaci związków rozpuszczalnych i nierozpuszczalnych, rozmieszczonych w wodzie, osadach i w tkankach organizmów. Własności trujące metali ujawniają się kiedy receptor przez odpowiedni okres czasu pozostaje w kontakcie z przyswajalną formą metali śladowych o stężeniu wystarczającym do wywołania niekorzystnej reakcji organizmu. Toksyczny potencjał metalu śladowego względem organizmów wodnych zależy od wielu czynników. Są to: charakterystyka fizykochemiczna wody i osadów, skład i stan zdrowia populacji organizmów żywych, jak też stężenie i dostępność metalu śladowego. W tabeli wymieniamy niektóre z czynników decydujących o toksyczności metali śladowych w środowisku wodnym.

Większość z metali śladowych odgrywa rolę mikroelementów ważnych dla utrzymania życia organizmów wodnych, a własności toksyczne przejawia wyłącznie kiedy stężenie dostępne dla organizmu przewyższa wartość niezbędną dla zaspokojenia potrzeb żywieniowych. Metale śladowe takie jak miedź, żelazo, cynk, mangan, kobalt i selen mają zasadnicze znaczenie dla metabolizmu. Równocześnie ekspozycja organizmów wodnych na duże stężenia tych samych pierwiastków może niekorzystnie oddziaływać na ich zdrowie albo spowodować śmierć. Inne metale śladowe, jak ołów, kadm i rtęć, nie odgrywają ważnej roli w cyklu życiowym organizmów. Mogą natomiast spowodować uszkodzenie zdrowia organizmu, jeśli w środowisku są dostępne w stężeniu toksycznym.

W czasie ekspozycji zachodzi wchłanianie wskutek zaistnienia trzech najczęstszych procesów: poprzez układ oddechowy (np. skrzela); przez powierzchnię ciała na zasadzie adsorpcji; przez układ pokarmowy po zjedzeniu żywności lub połknięciu cząstek osadów i wody. Po wchłonięciu organizm może absorbować metale, transformować je, wydalić lub zmagazynować (bioakumulacja). Na rysunku przedstawiono schemat wchłaniania i wydalania zanieczyszczeń przez rybę.

Możliwości przemieszczania się i działania zanieczyszczeń po absorpcji do krwioobiegu.

Większość pływających lub mobilnych organizmów wodnych (np. ryby) łatwo wydalają metale śladowe (szczególnie łatwo, jeśli są składnikami pokarmu) przez skrzela, jelita, oraz w ekskrementach i urynie. Tymczasem mniej mobilne lub osiadłe organizmy (np. rośliny i skorupiaki) mają mniejsze możliwości regulacji stężenia metali w swoim organizmie. Kiedy możliwości procesów regulacji poziomu metali zostaną wyczerpane, włączają się inne mechanizmy tolerancji (np. bioakumulacja w tkankach), zdolne do przeciwdziałania niekorzystnemu wpływowi metali. Niestety często takie mechanizmy ochronne są tylko chwilowo sprawne i okazują się niewystarczające dla zapobieżenia zatruciom.

Mechanizmy działania toksycznego metali można podzielić na trzy zasadnicze kategorie: blokowanie ważnych grup funkcyjnych w biomolekułach (np. białkach i enzymach); wypieranie ważnych jonów metalu z biomolekuł; zmiana aktywnej konformacji biomolekuł. Takie oddziaływania mogą spowodować śmierć w przypadku ekspozycji na duże stężenia. Kiedy poziom ekspozycji nie przekracza dawki śmiertelnej, zatrucia przejawiają się w postaci uszkodzenia strukturalnego (histologicznego lub morfologicznego), funkcjonalnego (wzrost, rozwój), biochemicznego (krew i enzymy) oraz reprodukcji.

 

Toksyczność Miedzi dla Ryb w Środowisku Wodnym

W celu zilustrowania mechanizmu zatrucia ryb metalami śladowymi wybraliśmy przykład miedzi do bardziej szczegółowego omówienia. Miedź jako mikroelement jest niezbędnym składnikiem wielu enzymów i białek. Ceruloplazmina (białko serum krwi) bierze 95%-towy udział w obiegu miedzi u ssaków. Miedź, rtęć i srebro są toksyczne w różnym stopniu wobec roślin wodnych, bezkręgowców i ryb. Równocześnie metale te są najbardziej trujące dla biologicznych uczestników środowiska wodnego, co ilustruje tabela. Wrażliwość organizmów wodnych na miedź jest największa u gatunków cechujących się dużym stosunkiem powierzchni ciała do objętości i wysoką wydajnością oddychania. Wiąże się to z rozbudowaną i dobrze przepuszczalną powierzchnią skrzeli, ułatwiającą szybkie wchłanianie znacznych ilości miedzi.

Główna postać miedzi aktywnej toksycznie to jon miedziowy (Cu+2 ), choć wykazano też toksyczne działanie dwu zjonizowanych wodorotlenków miedziowych (CuOH+ i Cu2OH2+2). Toksyczność miedzi w środowisku wodnym zależy głównie od jego zasadowości (również od twardości wody). Miedź jest mniej toksyczna w wodach silniej zasadowych i twardych, co wynika z mniejszej dostępności - w wyniku tworzenia się węglanowych kompleksów miedzi. Dlatego toksyczność miedzi wzrasta wraz z obniżeniem zasadowości i twardości wody, stężenia rozpuszczonego tlenu, czynników chelatujących, kwasów humusowych, pH i zawartości zawiesin ciał stałych. Na przykład, mniejsza zawartość rozpuszczonego tlenu w wodzie będzie wymuszała na organizmach wodnych przyspieszenie oddychania. Wzmożony przepływ wody niezbędny dla poprawy sprawności wchłaniania tlenu spowoduje większą dostępność rozpuszczonej w wodzie miedzi, więc spowoduje zwiększenie dawki wchłanianej przez sumarycznie traktowaną powierzchnię organizmu.

Kiedy już miedź zostanie wchłonięta i rozmieszczona w organizmie ryby, najwyższe jej stężenie pojawia się w wątrobie, następnie w skrzelach, nerkach i mięśniach. Na podstawie pomiarów stężeń w tkankach wiadomo, że głównym miejscem akumulacji miedzi jest wątroba, a jej zawartość w mięśniach jest dziesięciokrotnie mniejsza niż w wątrobie. Wątroba zatrzymuje miedź na długi czas, może więc służyć jako najlepszy wskaźnik ekspozycji na miedź. Zaleganie miedzi w wątrobie wiąże się z aktywacją metaloenzymów przy tak znacznym ich stężeniu, że może to zaburzyć normalną aktywność metaboliczną, więc oddziaływać niekorzystnie na procesy reprodukcji i rozwoju. Tabela przedstawia wyniki badań wielu naukowców analizujących rozmieszczenie miedzi w tkankach ryb słodkowodnych.

Badania nad ostrą i chroniczną ekspozycją na miedź prowadzono dla wielu gatunków ryb słodkowodnych i wielu stadiów rozwoju. W warunkach chronicznej ekspozycji w czasie całego okresu życia wszystkie gatunki wykazywały największą wrażliwość na miedź w okresie najwcześniejszych stadiów rozwoju (larwalnej i młodzieży). W najwcześniejszym stadium miedź nie spowodowała śmiertelności embrionów, jednak zauważyć można, że efekty oddziaływań na embrion wpływają w końcu do osłabienia przeżywalności w stadium larwalnym i młodzieży.

Obok oczywistego wpływu na przeżywalność, miedź również ma niszczące działanie dla zdolności do reprodukcji i wzrost. W szerokim zakresie stężeń miedzi obserwuje się osłabienie płodności, znaczne obniżenie wylęgania z jaj, jak też osłabienie wzrostu młodzieży. Podobnie jak wpływ na przeżywalność, największe zaburzenia wzrostu występują w najwcześniejszych stadiach życia.

 

Na poziomie tkankowym miedź powoduje zmiany w chemii krwi, w tym wzrost liczby czerwonych ciałek krwi, hematokrytu, hemoglobiny, glukozy w plazmie i dehydrogenazy kwasu mlekowego. Wprawdzie takie zmiany chemii krwi są dobrym wskaźnikiem stresu ekologicznego, jednak ich chwilowy charakter uniemożliwia zastosowanie ich jako biomarkerów.

Podobnie jak w przypadku kombinacji różnych toksyn, wystąpienie skażenia miedzią wraz z innymi zanieczyszczeniami wiąże się z efektami dodatkowymi. Połączenie działania miedzi i innych metali ciężkich i ksenobiotyków może wytworzyć efekt toksyczny synergiczny, antagonistyczny lub addytywny. Na przykład kombinacja ekspozycji na miedź i cynk prowadzi do addytywnego działania toksycznego, a mieszanina cynku, miedzi i kadmu wywołuje reakcję antagonistyczną.

Toksyczność Węglowodorów dla Środowiska Wodnego

W przyrodzie występuje wielka liczba węglowodorów pochodzenia naturalnego oraz uwalnianych ze źródeł antropogenicznych. Można wyróżnić wśród nich dwie główne podgrupy: alifatyczne i aromatyczne. Obecność i trwałość węglowodorów są ważnymi parametrami stanu zagrożenia toksykologicznego dla środowiska wodnego. Węglowodory aromatyczne, jako lipofilowe, odporne na degradację i trwale utrzymujące się w środowisku wodnym, są bardziej niebezpieczne dla organizmów żywych niż związki alifatyczne, zwykle krócej utrzymujące się w wodzie z powodu mniejszej rozpuszczalności i większej lotności. Z kolei węglowodory podstawione halogenami i innymi grupami są bardzie trwałe i toksyczne w porównaniu do niepodstawionych, czystych węglowodorów. Tabela zawiera zestawienie danych o toksyczności niektórych często występujących węglowodorów aromatycznych jednopierścieniowych wobec alg, bezkręgowców i ryb.

Przykład: Względna toksyczność związków organicznych w środowisku wodnym. Zakład chemiczny wytwarza chlorowane pochodne benzenu. W ramach monitoringu ścieków wykonuje się tam testy toksyczności ostrej.
Jeśli przyjmiemy dane o toksyczności przedstawione w tabeli za wynik testów dla ścieków fabryki, czy można na tej podstawie wskazać które z chlorowanych benzenów mają największą względną toksyczność?

Rozwiązanie: Na podstawie danych z tabeli można porównać względną wrażliwość alg, bezkręgowców i ryb; wskazać możliwość występowania różnic między gatunkami słodkowodnymi i morskimi; oraz porównać względne toksyczności jedno-, dwu-, trój-, cztero-, i pięciochlorobenzenu. W celu uszeregowania toksyczności względem liczby przyłączonych do benzenu atomów chloru można porównać stężenia określone jako toksyczne.
Wynika z tego porównania, że 20 spośród 23 testów wskazuje na zmniejszanie się stężenia toksycznego w szeregu liczby podstawionych chlorów : 1>2, 2>3, 3>4 i 4>5.
Można więc stwierdzić, że toksyczność ostra chlorowanych benzenów wzrasta wraz z liczbą atomów chloru w cząsteczce. Potwierdza to ogólną regułę dla toksyczności halogenowanych węglowodorów, która mówi, że toksyczność ostra tych związków wzrasta im wyższy jest stopień halogenowania.

Ważną klasą węglowodorów zalegających w coraz większej ilości w środowisku wodnym są policykliczne węglowodory aromatyczne (PAH). Rocznie ponad 200,000 ton PAH jest uwalnianych do środowiska wodnego ze źródeł takich jak rozlewy ropy naftowej, osiadanie cząstek ze spalania paliw kopalnych i innych procesów antropogenicznych i naturalnych. Hydrofobowy charakter PAH powoduje szybką asocjację z cząstkami stałymi oraz wnikanie zarówno do osadów dennych jak i do tkanek organizmów żywych. PAH są trujące dla organizmów wodnych już przy stężeniach rzędu 0.2 do 10 mg/L. Toksyczność ostra jest tym większa im wyższa jest masa cząsteczkowa. Tym niemniej, ciężkie PAH (tzn. większe od pirenu, którego masa cząsteczkowa wynosi 202) nie są uważane za trujące ostro dla organizmów wodnych, gdyż ich rozpuszczalność jest mniejsza od stężenia niezbędnego dla powstania reakcji. Większym problemem są potencjalne oddziaływania w wyniku chronicznej ekspozycji o stężeniu mniejszym od śmiertelnego. Chociaż PAH są hydrofobowe, ich metabolity lepiej rozpuszczają się w wodzie i są bardziej reaktywne. Jak wspomniano wcześniej te reaktywne metabolity mogą przyłączać się do białek, DNA i innych makrocząstek, co prowadzi do uszkodzenia komórek, mutagenezy i czasem raka. Wprawdzie znane są już wywoływane przez PAH u organizmów wodnych narośla rakowate i zaburzenia rozwoju, jednak rola PAH w kancerogenezie jest niejasna.

Toksyczność Pestycydów w Środowisku Wodnym

Rozwój syntez w przemysłowej chemii organicznej po II wojnie światowej doprowadził do gwałtownego upowszechnienia syntetycznych związków przeznaczonych do zwalczania insektów, roślin, gryzoni i innych szkodników. Chemikalia te projektowano tak aby utrzymywały się w środowisku i wywierały szkodliwe działanie na docelowe gatunki szkodników, a równocześnie nie uszkadzały pozostałych organizmów. Niestety historia takich substancji jak DDT, Paration i inne trwałe pestycydy, przyniosła dowody na niszczące działanie dla wszystkich organizmów, wynikające z upowszechnienia się użytkowania tych pestycydów.

Wpływ takich substancji chemicznych na organizmy wodne jest związany z wieloma ich własnościami użytkowymi o podstawowym znaczeniu dla skuteczności zastosowania pestycydów. Najważniejsze jest, że pestycydy są chemikaliami zdolnymi do wywierania wpływu na wszystkie organizmy żywe - w tym również na gatunki nie będące celem - przejawiającego się w różnym nasileniu, zależnie od indywidualnych czynników fizjologicznych i ekologicznych. Po drugie szereg pestycydów zaprojektowano specjalnie dla uzyskania odporności na degradację, co poprawiało ich trwałość i efektywność. W końcu zwykle pestycydy są aplikowane w wielkich ilościach i rozpylane na dużych obszarach, co przyczyniło się do rozniesienia ich na obszary środowiska nie objętego zabiegami, a spłukiwane deszczem napływają do wód powierzchniowych.

Z punktu widzenia toksyczności dla środowiska wodnego interesujące są pestycydy z grupy insektycydów i herbicydów. Stosowane są trzy klasy insektycydów: chloroorganiczne (np. DDT, metoksychlor, toksafen, aldrin, dieldrin), fosforoorganiczne (np. paration, malation, diazinon), i karbaminiany (np. sevin, temik). Działanie większości insektycydów polega na zakłóceniu funkcjonowania systemu nerwowego. Działanie insektycydów na system nerwowy jest wynikiem zaburzenia przepływu impulsów nerwowych przez uszkodzenie neurotransmiterów (receptorów acetylocholiny), albo inhibicji enzymu, acetylocholinesterazy. Herbicydy zawierające fenoksykwasy (2,4-D i 2,4,5-T) działają wykorzeniająco na rośliny przez zaburzenie wzrostu.

W tabeli przedstawiono dane dotyczące ostrej toksyczności pestycydów. Wynika z niej, że związki chloroorganiczne są bardziej toksyczne niż fosforoorganiczne, a insektycydy bardziej toksyczne niż herbicydy.

Oddziaływania pestycydów na organizmy są liczne i zróżnicowane, powodują szereg reakcji metabolicznych i behawioralnych, w tym zburzenia wytwarzania enzymów, wzrostu, reprodukcji, aktywności, są przyczyną nowotworów i działają teratogenicznie. Niektóre z tych reakcji organizmów wodnych, wynikających z ekspozycji na pestycydy, przedstawia tabela:

 

Kryteria Jakości Wody

Kryteria jakości wody opracowano na podstawie analizy trujących oddziaływań na organizmy wodne i ludzi wywołanych ekspozycją na chemikalia rozproszone w wodach powierzchniowych. Określają one specyfikację stężeń dla zanieczyszczeń, które są bezpieczne dla większości form życia w wodach. EPA, dla potrzeb opracowania ilościowych kryteriów jakości wody, wymaga danych z czterech dziedzin: toksyczności ostrej dla zwierząt (osiem informacji), chronicznej toksyczności dla zwierząt (trzy informacje), toksyczności dla rośłin i o śladach w tkankach. Wymagania specjalne wobec informacji dla każdej z tych czterech dziedzin, jak również metody kompilacji i analizy danych, zawarte są w dyrektywie EPA w sprawie tworzenia standardów jakości wody.

Warto zauważyć, że w czasie opracowywania kryteriów dla niektórych z toksyn określono wskaźniki korygujące wpływ środowiska. Na przykład, dla kilku metali śladowych kryteria jakości wody, wynikające z ostrej i chronicznej toksyczności, będą zależały od twardości wody. Kryteria wynikające z ostrej i chronicznej toksyczności dla miedzi wskazują, że organizmy wodne nie będą poddane szkodliwym wpływom, jeśli:
średnie 4-dniowe stężenie miedzi (liczone w mg/L) nie będzie w czasie 3 lat ani razu przekraczało wartości wyliczonej z wzoru: e
(0.8545[ln{twardość}] - 1.465); oraz
jeśli średnie 1-godzinne stężenie nie przekroczy w czasie 3 lat ani razu wartości wyliczonej z wzoru: e
(0.9422[ln{twardość}] - 1.464).
Zgodnie z tym dla wody o twardości 50mg/L CaCO
3 akceptowalne stężenie średnie czterodniowe wynosi 6.5mg/L, a dla twardości 200 mg/L wynosi 34mg/L. W tabeli przedstawiono wartości współczynników dla równań kryterialnych wynikających z toksyczności dla organizmów wodnych kolejnych metali.

 

Wprawdzie kryteria jakości wody wspomagają utrzymanie bezpieczeństwa użytkowania wód, jak też ochronę życia w wodach, jednak te numeryczne kryteria nie stanowią podstawy do objęcia ochroną organizmów bytujących w osadach. Opracowanie kryteriów jakości osadów i objęcia ich ochroną jest przedmiotem szybko rozwijających się badań toksykologii środowiska wodnego. Wśród pożądanych wyników są informacje o toksyczności składników osadów wraz z oceną jakości tego elementu środowiska.

Wczesne rozporządzenia ekologiczne ograniczają uwalnianie chemikaliów do wód. Dlatego postępy badań i zbiór danych pochodzących z analizy toksyczności dla ekosystemów wodnych znakomicie przewyższają rozmiary innych baz danych z zakresu ekotoksykologii. Niemniej regulacje EPA obejmują jedynie około trzydzieści kryteriów jakości wody ustanawiających graniczne ilości zanieczyszczeń dopuszczalne pod względem bezpieczeństwa życia w wodach powierzchniowych. Tymczasem wytwarzane są i uwalniane dziesiątki tysięcy niebezpiecznych chemikaliów.

Przykład: Ekotoksykologia cynku.
Poniżej laguny zawierającej ścieki i szlamy z zakładu galwanicznego dane z monitoringu wód powierzchniowych zawierają stężenie cynku średnie 4-dniowe = 14.2mg/L i 1-godzinne =27mg/L. Średnia twardość wody zmierzona w poniżej punktu zrzutu wynosi 100 mg/L CaCO3 .
Czy należy spodziewać się problemów z długoterminową ochroną życia w wodzie? Odpowiedz na pytanie wykorzystując dla oceny zmierzonych stężeń cynku w wodzie twardość wody i kryteria jakości wód dla cynku.

Rozwiązanie: Z tablicy można zastosować równanie na kryterium chronicznej toksyczności cynku dla życia w wodzie:

mg/L Zn = e(0.8473[ln{twardość}] +0.7614)

Podstawiając zmierzoną wartość twardości wody 100 mg/L CaCO3 , uzyskamy przybliżoną wartość kryterium dla 4-dniowej średniej ekspozycji na cynk:

Zn = e(0.8473[ln{100}] +0.7614) mg/L = 106 mg/L

Ponieważ zmierzone stężenie cynku jest o rząd wielkości mniejsze od kryterium dla stężenia 4-dniowego, nie ma powodów do zmartwień.

 

Ekotoksykologia Środowiska Lądowego

Jak wspomniano wcześniej ekotoksykologia początkowo zainteresowała się gatunkami wodnymi. Kolejnym obiektem zainteresowania naukowców były ptaki, a szczególnie gatunki dużych ptaków wartościowych pod względem estetycznym i rekreacyjnym. Ich nieobecność została zauważona krótko po upowszechnieniu użytkowania kilku substancji chemicznych, a szczegółnie DDT.

Dopiero w ostatnich dziesięciu latach ekotoksykologia zaczęła analizować wpływ skażeń chemicznych na gatunki lądowe. Z wyjątkiem wpływu na osiadłe rośliny lądowe, wpływ ekspozycji na chemikalia organizmów bytujących na lądzie jest trudny do zbadania. Wynika to z ich ekstremalnej mobilności na znacznych obszarach, jak również z wielu zagrożeń ze strony naturalnych chorób, drapieżników. Utrata habitatu połączona ze skłonnością do ucieczki zamiast konfrontacji, są kolejnymi czynnikami utrudniającymi badania.

 

Dzikie Rośliny i Ssaki

Z mediów dowiedzieliśmy się o wpływie opadów kwaśnych deszczy na lasy w Niemczech, Kanadzie i USA. Spowodowało to wzrost zaniepokojenia opinii społecznej wpływem skażeń chemicznych na rośliny. Zastosowanie herbicydów do likwidacji chwastów, wykorzenienie dżungli w Wietnamie, praktyki związane z ograniczniem rozwoju roślin wzdłuż dróg i linii zasilających, wzmocniło zainteresowanie społeczeństw kwestią zamierzonych i niezamierzonych niekorzystnych oddziaływań chemikaliów na organizmy żywe.

Równocześnie toczy się debata o zastosowaniu osadów z oczyszczalni ścieków do wzbogacania gleby na użytkach rolniczych, rekreacyjnych oraz w ogródkach przydomowych. Wiąże się z tym problem pozostawiania na powierzchni gruntu osadów skażonych odpadami niebezpiecznymi. Stężenie szkodliwych metali w osadach jest powodem wzrostu zaniepokojenia możliwością ich toksyczności dla roślin (fitotoksyczność - zatrzymanie fotosyntezy), jak też zmniejszeniem się produktywności roślin. Obecność mobilnych lekkich związków organicznych w osadach może być powodem uszkodzenia liści wskutek chlorozy (utrata lub zniszczenie chlorofilu). Cięższe, mniej mobilne związki organiczne mogą akumulować się w tkankach roślin i zostaną wprowadzone do łańcucha pokarmowego.

Wprawdzie niektóre gatunki ssaków zostały zbadane w ramach laboratoryjnych testów toksyczności chemikaliów, jednak niewiele jest informacji o wpływie chemikaliów na dzikie zwierzęta. Wyjątkiem jest analiza wpływu ekspozycji na związki halogenoorganiczne dla rozrodczości. Wiadomo już powszechnie, że na wielu terenach zamieszkałych przez dzikie zwierzęta są rozproszone PCB. Prowadzi się badania nad utratą płodności u ssaków w korelacji z dużymi ilościami PCB w tkankch. Wprawdzie są jeszcze pewne spory wśród naukowców na temat mechanizmu powstania tej reakcji, jednak uzyskano ostateczną zgodę, że skażenie takie powoduje ograniczenie zdolności rozrodczych organizmu.

 

Toksykologia Organizmów Latających

Widoczne efekty działania chemikaliów na organizmy latające o znaczeniu estetycznym i rekreacyjnym zwiększyły zainteresowanie badaniami nad ekotoksykologią tej grupy. Bazy danych o wpływie na organizmy latające ekspozycji na chemikalia znacząco powiększyły się w wyniku wydania rozporządzeń w sprawie konieczności prowadzenia testów toksyczności dla organizmów latających nowo wprowadzonych chemiakaliów. Podobnie jak w przypadku wcześniej omówionych organizmów wodnych, większość badań nad organizmami latającymi skoncentrowała się na wpływie niektórych metali śladowych i związkach halogenoorganicznych, najważniejszych pestycydach i PCB.

Skażenie ołowiem ptactwa wodnego w wyniku zrzutu ścieków i zatrucia związane ze spożyciem metylortęci przez ptaki żywiące się rybami, są najlepiej zbadanymi przypadkami zatrucia ptaków metalami śladowymi. Utrzymanie prawidłowego trawienia wymaga od ptaków wodnych częstego połykania małych otoczaków i piasku. Wraz ze żwirem grupa ptaków spożyła peną ilość ołowianego śrutu. Podczas trawienia ołów powoli rozpuścił się w przewodzie pokarmowym ptaków i został wchłonięty do układu krwionośnego. W rezultacie spowodowało to wiele padnięć i hipoksji. Wprawdzie zatrucie ołowiem z wyrzuconego śrutu jest ciekawym przypadkiem, jednak trzeba wiedzieć, że metale śladowe nie szkodzą selektywnie ptactwu wodnemu. Inne gatunki ptaków spożywające owady, ziarno i mięso, również są podatne na zatrucie metalami śladowymi w wyniku bezpośredniego kontaktu ze skażoną glebą i wodą, albo pośrednio przez łańcuch pokarmowy.

Badania nad toksykologią organizmów latających dotyczące ekspozycji na węglowodory skoncentrowane są na pestycydach chloroorganicznych i fosforoorganicznych oraz PCB. Wprawdzie inne węglowodory nie były poddane tak szerokiej analizie, ale wiele informacji toksykologicznych zgromadzono przy okazji rozlewów ropy naftowej. Powiązano ekspozycję przez łańcuch poarmowy z zawartością węglowodorów w tkankach oraz zaburzeniami fizjologicznymi. Ponieważ pestycydy na ogół akumulują się w łańcuchu pokarmowym, gatunki zajmujące jego górne piętra są szczególnie narażone na uszkodzenia tkanek wynikające z długotrwałej ekspozycji na niskie dawki trucizn. W czasie zwiększonego zapotrzebowania energetycznego podczas migracji, reprodukcji i innych intensywnych akcji życiowych, materiały toksyczne często uwolniają się z depozytów w tkance tłuszczowej ptaków i przepływają do organów podatnych na ich działanie, co prowadzi do wielu szkodliwych reakcji. Z tych przykładów jasno wynika, że zlokalizowane skażenia, przenoszone w procesach fizycznych i biologicznych, mogą wpływać tak samo na miejscowe jak i na migrujące gatunki.