Od cząsteczki chemicznej do leku w aptece.

Slajd 1

 

slajd1

 

 

Choroby towarzyszyły człowiekowi od początku powstania i prawdopodobnie już wtedy zaczęły się poszukiwania środków łagodzących różnego rodzaju dolegliwości i choroby. Pierwsze leki głównie roślinne i mineralne były efektem podpatrywanie natury a często zachowania zwierząt. W czasach w których królowała alchemia na tle poszukiwań kamienia filozoficznego i przemiany ołowiu w złoto odkrywanie leków wydawało się problemem drugorzędnym. Proces odkrywania nowych leków na przestrzeni dziejów zmieniał się wielokrotnie.

Slajd 2

 

odczyt2

Już w 18. wieku znano szereg silnie działających surowców roślinnych takich jak opium, efedra, ziele kokainowa czy kora chinowca. Lecz dopiero dzięki dociekliwości dwóch francuskich aptekarzy Joseph Pelletier and Jean Biename Caventou wyizolowano na drodze ekstrakcji czystą chininę. A następnie wyizolowano szereg innych alkaloidów.

Slajd 3

 

odczyt3

Przyczynkiem do odkrycia najsłynniejszego leku obecnego ponad 100 lat na rynku tj. aspiryny były również znane właściwości przeciwgorączkowe kory wierzby, w której głównym składnikiem były glikozydy kwasu salicylowego. Stąd dążąc do zniwelowania niekorzystnych właściwości drażniących przewód pokarmowy zsyntetyzowano aspirynę.

Slajd 4

 

odczyt4

A po ustaleniu mechanizmu działania i określenia celu jakim są cyklooksygenazy powstały kolejne cenne leki jak ibuprofen czy naproksen.

Slajd 5

 

odczyt5

Pierwsze racjonalne sposoby projektowania leków wprowadził Paul Erlich próbując zmodyfikować strukturę niezwykle toksycznego leku stosowanego w syfilisie Atoksylu. Zsyntetyzowano w krótkim czasie ponad 600 związków o podobnej budowie w wyniku czego otrzymano Salwarsan , lek który dopiero został wyparty przez penicylinę. Co ciekawe budowa salwarsanu nie kwestionowana przez 100 lat okazała się całkiem inna. Dopiero w 2005 roku ustalono, że Salvarsan jest mieszaniną dwóch związków prezentowanych na przeźroczu.

Slajd 6

 

odczyt6

 

 

Szereg niezwykle cennych leków zostało odkrytych w wyniku szczęśliwego przypadku .W języku angielskim występuje słowo serendipity nie mające żadnego ścisłego odpowiednika w języku polskim, a oznaczające zdolność do dokonywania odkryć przypadkowych. Jednak szczęśliwy przypadek tylko wtedy staje się odkryciem, gdy trafia na podatny grunt, na którym może się rozwinąć.
We wrześniu 1928 roku po powrocie z krótkiego urlopu Fleming zrobił przegląd wcześniej posianych kultur. Poczynił przy tym zdumiewającą obserwacje: na hodowli jednej z kultur utworzyła się zielonkawa pleśń. Zarodniki pleśni dostały się prawdopodobnie przez otwarte okno i musiały osiąść na płytce w chwili jej przykrywania.
Kultura ta była teraz zupełnie nie przydatna. Fleming już zamierzał ją zniszczyć, gdy nagle zawahał się. I właśnie ta chwila wahania rozstrzygnęła o powstaniu jednej z najważniejszych dziedzin współczesnej medycyny.
Coś przykuło uwagę Fleminga. Zauważył, że na brzegu szalki, wokół koloni pleśni, gronkowce zniknęły, podczas gdy w pozostałej części naczynia pleniły się bujnie. Wniosek był jeden - pleśń wydzieliła do pożywki substancję, która ograniczyła wzrost bakterii. Fleming podszedł do zagadnienia chłodno i metodycznie. Wyizolował pleśń i poddał ją identyfikacji. Jak się okazało był to szczep Penicilium notatum, a więc dość pospolity gatunek grzyba.
Również przypadek, który miał miejsce w latach siedemdziesiątych przyczynił się do odkrycia jednego z najbardziej skutecznych środków przeciwnowotworowych.
Fizyk Barney Rosenberg z Michigan State Uniwersity przeprowadzał eksperymenty, polegające na przepuszczaniu prądu elektrycznego przez roztwór w którym znajdowały się różne bakterie. Barney chciał zbadać, czy elektryczność wpływa na podział i mnożenie się drobnoustrojów. Okazało się, że w rzeczywistości tak jest. Szczególnie uderzające było to, że badane bakterie zmieniały kształt i z kulistych stawały się nitkowate. Dopiero podczas dalszych eksperymentów przyszło Rosenbergowi do głowy, że może w ten sam sposób dałoby się potraktować także komórki rakowe, doprowadzając dzięki temu do zahamowania ich podziału. Ku swojemu wielkiemu zdumieniu okazało się jednak, że to nie prąd wywiera takie działanie, tylko elektrody jakich użył. Były to elektrody platynowe i to najwyraźniej one były przyczyną hamowania podziałów komórek. Następnym krokiem było zsyntetyzowanie różnych związków platyny, której do tej pory nikt nie podejrzewał o właściwości przeciwnowotworowe.
Sole metalu i różne związki pochodne używane są dzisiaj w prawie każdej terapii wielolekowej przeciwko nowotworom złośliwym, a najbardziej znanym lekiem przeciwnowotworowym z tej grupy jest Cisplatyna.
Źródłem pozyskiwania nowych leków mogą być uważne obserwacje dotyczące działań niepożądanych leków, a najlepszym przykładem SA tutaj sulfanilamidy szeroko stosowane jako leki bakteriostatyczne w pewnym zakresie również do dzisiaj (Biseptol). Otóż zauważono, że stosowanie sulfonamidów jako efekty uboczne powoduje wzrost wydzielania moczu oraz obniżenie poziomu cukru. Te obserwacje oraz modyfikacje struktury pierwotnych związków dały nowe grupy sulfonamidów o działaniu moczopędnym i przeciwcukrzycowym.

Slajd 7

 

odczyt7

 

 

Metody stosowane dzisiaj w poszukiwaniu leków są całkiem inne, chociaż nadal są stosowane metody znane wcześniej szczególnie w zakresie pozyskiwania leków ze środowiska naturalnego, czego przykładem może być Taxol. Obecne metody przede wszystkim starają się ustalić przyczynę choroby, która niejednokrotnie może być wadą genetyczną co zdecydowanie utrudnia odnalezienia celu (target) lub może skierować poszukiwania na łagodzenie lub zahamowanie niekorzystnych objawów (cukrzyca I typu). Kolejnym etapem jest określenie lub znalezienie „struktury wiodącej) tj związku o korzystnym działaniu. Następnie na postawie znanej budowy syntetyzuje „tzw. Biblioteki związków” lub buduje się je wirtualnie. W kolejnym etapie wysokowydajny skrining wybiera najlepsze związki dla których określa się parametry farmakologiczne . Tak wybrany związek lub kilka związków kandydują na potencjalny lek.

Slajd 8

 

odczyt8

Jakie metody są stosowane w tym żmudnym procesie szukania „igły w stogu siana” tj znalezienia właściwego związku z kilku lub kilkudziesięciu tysięcy struktur.

  • synteza kombinatoryczna w celu otrzymania dużej ilości związków z tej samej grupy, ale różniących się elementami budowy.
  • wirtualne budowanie cząsteczek potencjalnych leków i „dokowanie „ ich do hipotetycznych miejsc działania np. receptorów.
  • krystalografia pozwala ustalić rzeczywistą strukturę związków, a przypadku białek i enzymów hipotetyczne miejsce oddziaływania leku.
  • QSAR (quantitative structure-activity relationship) określa ilościowo zależność między działaniem tych związków a właściwościami fizykochemicznymi, wynikającymi z ich struktury. Ustalenie takiej zależności w pewnej grupie związków pozwala opisać je równaniem matematycznym i z dużym prawdopodobieństwem zaprojektować ich właściwą strukturę.
  • proleki stanowią pewną modyfikacje struktury odkrytych już leków w celu zapewnienia lepszych parametrów farmakokinetycznych, przedłużenia działania Lu zapewnienia dotarcia do właściwego narządu

 

 

Slajd 9

 

odczyt9

 

 

Jeżeli znana jest trójwymiarowa struktura hipotetycznego miejsca wiążącego to program komputerowy próbuje dopasować zaprojektowane cząsteczki jak „ klucz do zamka”

Slajd 10

Podobną zasadę pokazuje przeźrocze 10.

odczyt10

Slajd 11

odczyt11

 

Jakie są podstawowe cele oddziaływania leków:

  • inhibitory enzymów a więc leki hamujące działanie enzymów, np. wspomniane już inhibitory COX, a więc większość niesteroidowych leków przeciwzapalnych (NLPZ). Ibuprofen, naproksen, diklofenak itp. Ale także inhibitory pompy protonowej – leki stosowane w chorobie wrzodowej .
  • agoniści receptorów, a więc leki wyzwalające działanie receptora – np. agoniści receptorów adrenergicznych – krople do nosa obkurczające śluzówkę.
  • Natomiast antagoniści receptorów hamują ich działanie – antagoniści receptorów H1 – działanie przeciwalergiczne.
  • kanały jonowe – leki tego typu modyfikują przepływ jonów przez błony komórkowe i w ten sposób wyzwalać lub blokować odpowiedni efekt biologiczny. Np. blokery kanału wapniowego – amlozepina, nitrendypina i inne powodują obniżenie ciśnienia.

 

 

Slajd 12

 

odczyt12

 


Na każdym etapie rozwoju leku muszą wystąpić następujące etapy;

 

 

  • Wybór celu i jego walidacja – określenie przyczyn choroby i sprawdzenie czy określona grupa związków oddziaływuje na przyczynę choroby lub jej objawy.
  • Ocena analityczna związków – określenie danych fizykochemicznych i strukturalnych
  • Zbieranie i wybór związków – budowanie zbioru związków i ich synteza
  • Skrining i analiza danych – badanie skuteczności in vitro
  • Optymalizacja struktury wiodącej – ustalenie zależności struktura-aktywność – synteza hitu.
  • Badania przedkliniczne – badania n zwierzętach , toksyczność, teratogenność kancerogenność itp.
  • Badania kliniczne – badania na ludziach.

 

 

 

 

 

Slajd 13

 

odczyt13

 

 

 

Jak żmudny i kosztowny jest proces projektowania leku przedstawia to przeźrocze

Slajd 14

 

odczyt14

Nie każdy „hit” zostanie lekiem. Istniej wiele przeszkód, które przedstawia przeźrocze: Słabe właściwości farmakokinetyczne , lek dobrze działa in vitro lecz słabo in vivo. Inaczej mówiąc lek po podaniu nie dociera w odpowiednim stężeniu do miejsca docelowego. Ten spadek właściwości może być wynikiem szybkiej eliminacji z ustroju lub biotransformacji do substancji nieaktywnych. Lek może być skuteczny ale jest przy tym toksyczny co może być niebezpieczne przy dawkowaniu, lub produkty biotransformacji są toksyczne. Przyczyny rynkowe to problem złożony powiązany z polityką firmy wprowadzającej lek. Może to być brak popytu, zbyt późne wprowadzenie na rynek itp.

Slajd 15

 

odczyt15

Odkrycie i wprowadzenie innowacyjnego leku na rynek to olbrzymie koszty, lata pracy, ale w przypadku udanego wprowadzenia również olbrzymi zysk, co pokazuje to przeźrocze. GPCR.

DODATKOWE INFORMACJE

Chemia kombinatoryczna jest jednym z nowszych narzędzi chemika, pozwalającym zarówno na wzrost skuteczności tych poszukiwań jak i na poprawę właściwości biologicznych już istniejących leków. Bazuje ona na prostej przesłance: im większa różnorodność przebadanych związków tym większa szansa znalezienia tej jedynej struktury, która może dać początek nowemu lekowi.
Synteza kombinatoryczna powstała na bazie chemii peptydów, dzięki opublikowanemu w latach 1963-64 pomysłowi R. Merrifielda syntezy peptydów na nośnikach stałych. Metoda ta została także zastosowana w syntezie innych związków oligomerycznych - oligonukleotydów i oligosacharydów.
Jedną z pierwszych technik stosowanych w syntezie kombinatorycznej była metoda "torebek herbacianych" opracowana przez R. A. Houghtena. W metodzie tej ziarna polimeru, będącego stałym nośnikiem, na którym syntetyzowano peptyd, dzielono na 50-100 miligramowe porcje i umieszczano oddzielnie w polipropylenowych, perforowanych torebkach o wymiarach 15x20 mm. Zanurzano je następnie w kolejnych naczyniach zawierających aminokwasy z „zablokowaną” grupą aminową, jednocześnie zmieniając kolejność ich zanurzania. Zdjęcie osłon oraz blokowanie następnych peptydów wykonywano dla wszystkich aminokwasów jednocześnie. Autor pomysłu zsyntetyzował na tej drodze w ciągu niespełna 4 tygodni bibliotekę 248 trideka peptydów o kontrolowanej sekwencji aminokwasów, homologów fragmentu hemoaglutyminy grypy, uzyskując po 10-20 miligramów produktów. Proces ten został następnie zautomatyzowany i zminiaturyzowany, zyskując powszechne zastosowanie.
Zastosowanie chemii komputerowej, zwanej w skrócie CADD (computer assisted drug design) pozwala na szybsze wyeliminowanie niewłaściwych rozwiązań, skraca czas osiągnięcia celu, obniżając przez to koszty badań. Wymaga jednak zastosowania odpowiedniej platformy sprzętowej oraz bardzo kosztownego, profesjonalnego oprogramowania, stworzonego dla konkretnych potrzeb badaczy np. analizy QSAR (quantitative structura-activity relationship), symulacji przebiegu syntezy lub trójwymiarowych metod graficznych, pozwalających na porównywanie i dopasowanie struktur do znanej budowy receptora.
Metody komputerowe stanowiły wielki przełom w poszukiwaniu nowych środków terapeutycznych. Wydawałby się, że wykorzystanie w ich projektowaniu tak efektywnych „narzędzi” rozwiąże problem skutecznego leczenia wielu schorzeń. Metody komputerowe pozwalają bowiem wygenerować cząsteczkę idealną pod względem budowy chemicznej, dopasowaną do receptora „jak klucz do zamka”, a więc potencjalnie obdarzoną optymalnymiparametrami terapeutycznymi.
W rzeczywistości, zsyntetyzowano setki związków chemicznych wykazujących w badaniach in vitro duże powinowactwo do receptora, nieaktywnych biologicznie, a więc bez znaczenia terapeutycznego. W praktyce, problem ten jest bowiem znacznie bardziej złożony. Lek pokonując bowiem w ustroju drogę do miejsca wiązania receptorowego, napotyka na szereg przeszkód (barier biologicznych, przemian metabolicznych), które mogą doprowadzić do utraty jego właściwości biologicznych lub ich znacznego ograniczenia. Tych złożonych procesów programy komputerowe modelujące nowe struktury chemiczne nie uwzględniają. Dlatego połączenie wielu metod badawczych, chemii komputerowej, chemii kombinatorycznej, biologii molekularnej i im pokrewnych dziedzin pozwala na większą skuteczność tworzenia nowego, skutecznego produktu leczniczego.

 

Źródło:
Materiały z konferencji prasowej "Od cząsteczki chemicznej do leku w aptece" 04.04.2007
http://www.urpl.gov.pl/lek_bezpieczny/2007_04_lek_bezpieczny.asp
Kategoria: