• Nie Znaleziono Wyników

CzaS ObRać KURS Na INNOWaCJe

N/A
N/A
Protected

Academic year: 2021

Share "CzaS ObRać KURS Na INNOWaCJe"

Copied!
24
0
0

Pełen tekst

(1)
(2)

Publikacja magazynu jest efektem podjęcia przez Centrum Innowacji, Transferu Techno- logii i Rozwoju Uniwersytetu (CITTRU) nowego kursu na innowacje, w którym do skutecznej nawigacji służy mu „Kompas innowacji” –pro- jekt finansowany z funduszy europejskich. Tytuł projektu nawiązuje do procesu komercjalizacji wynalazków przypominającego wzburzony ocean, przez który bardzo trudno jest płynąć bez dokładnych map oraz odpowiednich na- rzędzi nawigacyjnych. Dlatego też w ramach wyżej wspomnianego projektu CITTRU podej- muje aktywne działania na rzecz identyfikacji innowacyjnych projektów oraz analizy ich po- tencjału rynkowego. W efekcie powiększa się oferta technologiczna Uniwersytetu Jagiel- lońskiego, która następnie prezentowana jest przedsiębiorcom lub inwestorom zaintereso- wanym nowymi technologiami. Poszukiwanie partnerów gospodarczych dla komercjalizacji wynalazków nie ogranicza się tylko do teryto- rium Polski, lecz ma charakter globalny. Oferta technologiczna Uniwersytetu Jagiellońskiego jest prezentowana międzynarodowym firmom podczas światowych imprez targowych i reno- mowanych konferencji branżowych. Udział w tego typu imprezach jest doskonałą okazją

do znalezienia wiarygodnych partnerów, któ- rzy będą w stanie doprowadzić do wdrożenia innowacji pochodzących z uczelni. Spotkania z przemysłem służą również rynkowej weryfi- kacji wynalazków.

Należy zauważyć, że świetne pomysły na- ukowców bardzo często nie mają szansy na praktyczne zastosowanie (np. związki che- miczne nadające się na nowe leki nigdy nie pojawią się na półkach w aptekach). Dzieje się tak z powodu utraty możliwości dokona- nia zgłoszenia patentowego na skutek ujaw- nienia istoty wynalazku przez jego twórców przed dokonaniem zgłoszenia patentowego.

W takim wypadku szansa na znalezienie firmy, która będzie zainteresowana komercjalizacją danego wynalazku spada praktycznie do zera – w wielu dziedzinach gospodarki warunkiem wdrażania nowych technologii jest zapewnie- nie odpowiedniej ochrony własności intelek- tualnej. Dzięki „Kompasowi innowacji” CITTRU pomaga ominąć te niebezpieczne rafy. Specja- liści z zespołu realizującego projekt oferują do- radztwo i pomoc w tym zakresie. W przypadku zgłoszonych do CITTRU wynalazków – w razie zidentyfikowania takiej potrzeby – we współ- pracy z rzecznikami patentowymi specjali-

zującymi się w poszczególnych dziedzinach powstają zgłoszenia patentowe. Podjęcie tych działań daje możliwość dalszej komercjalizacji innowacyjnych pomysłów.

Podsumowując, działania zespołu CITTRU pro- wadzącego projekt „Kompas innowacji” kon- centrują się na nawiązaniu trwałej współpracy z zespołami naukowymi Uniwersytetu Jagiel- lońskiego, które realizują lub zamierzają reali- zować innowacyjne projekty badawcze oraz są zainteresowane komercjalizacją ich wyni- ków. Osoby, które obecnie posiadają interesu- jące nowe pomysły mogą już teraz skorzystać z oferty CITTRU w ramach projektu „Kompas innowacji”, do czego serdecznie zachęcamy.

Maciej Czarnik Redaktor naczelny Projekt „Kompas innowacji” jest współfinan- sowany przez Unię Europejską z Europejskiego Funduszu Społecznego oraz budżet państwa w ramach Programu Operacyjnego – Kapitał Ludzki, Działanie 4.2. Rozwój kwalifikacji kadr systemu B+R i wzrost świadomości roli nauki w rozwoju gospodarczym.

CzaS ObRać KURS Na INNOWaCJe

Pragniemy oddać w ręce czytelników pierwszy numer magazynu KOMPAS INNOWACJI poświęconego nowym wynalazkom i tech- nologiom opracowanym w Uniwersytecie Jagiellońskim. Mamy nadzieję, że przedstawiane w nim osiągnięcia uniwersyteckich naukowców oraz informacje o międzynarodowych targach, na których promowane są wynalazki, przybliżą czytelnikom kulisy komercjalizacji projektów badawczych Uniwersytetu oraz będą stanowiły inspirację do innego spojrzenia na własne prace na- ukowe.

Osoby odpowiedzialne za merytoryczną realizację projektu „Kompas innowacji”:

Maciej Czarnik

Koordynator zespołu ds. Innowacji TeL.: +48 126633832

e-MaIL: maciej.czarnik@uj.edu.pl

Dr inż. Gabriela Konopka-Cupiał Specjalista ds. rozwoju projektów (nauki ścisłe)

TeL.: +48 126633832

e-MaIL: gabriela.konopka-cupial@uj.edu.pl

Dr Dominik Czaplicki

Specjalista ds. rozwoju projektów (nauki biologiczne)

TeL.: +48 126633832

e-MaIL: dominik.czaplicki@uj.edu.pl

Wydawca: Centrum Innowacji, Transferu Technologii i Rozwoju Uniwersytetu (CITTRU) Uniwersytet Jagielloński ul. Czapskich 4, 31-110 Kraków http://www.cittru.uj.edu.pl/

Redaktor naczelny: Maciej Czarnik zespół redakcyjny: Dominik Czaplicki,

Gabriela Konopka-Cupiał Korekta: Magda Wrzos, Dominika badura Skład i druk: DaMWID, pl. Orląt Lwowskich 20C,

53 - 605 Wrocław

Centrum InnowaCjI, transferu teChnologII I rozwoju

unIwersytetu

(3)

SPIS TREŚCI

GABRIELA KONOPKA-CUPIAŁ NOwE TEChNOLOGIE zE zNAKIEm UJ 2

JOANNA BERETA PRzECIwCIAŁA dLA PROTEOmIKI,

CzyLI O NARzędzIACh BIOChEmIKA 3

mACIEJ CzARNIK 6

wOJCIECh mACyK ŚwIET(L)NA KATALIzA, CzyLI fOTOKATALIzA 8

GABRIELA KONOPKA-CUPIAŁ UNIwERSyTECKIE wyNALAzKI dLA OChRONy ŚROdOwISKA 10

dOmINIK CzAPLICKI 12

mACIEJ CzARNIK 14

dOmINIK CzAPLICKI KALENdARIUm TARGOwE 2009 16

wOJCIECh mACyK AChEmA 2009 17

ANdRzEJ KOTARBA POLLUTEC 2009 18

GABRIELA KONOPKA-CUPIAŁ BRUSSELS INNOVA 2009 19

LICzBA zGŁOSzEŃ PATENTOwyCh UJ w 2009 ROKU 20 RyNEK BIOTEChNOLOGII w RAPORCIE

JEdNEJ z NAJwIęKSzyCh fIRm dORAdzTwA BIzNESOwEGO: RECEPTA NA KRyzyS?

AKAdEmIA PATENTOwA UJ - PORAdy dLA POTENCJALNyCh wyNALAzCów ŚCIEżKA KOmERCJALIzACJI - Od POmySŁU

dO wdROżENIA TEChNOLOGII: PATENT NA SUKCES

(4)

NOwE TEChNOLOGIE zE zNAKIEm UJ

GABRIELA KONOPKA-CUPIAŁ

Rok 2009 na Uniwersytecie Jagiellońskim obfitował przede wszystkim w wynalazki chemiczne. Z Wy- działu Chemii Uniwersytetu Jagiellońskiego pocho- dzi aż 8 zgłoszonych do CITTRU nowych projektów, które zaowocowały zgłoszeniami patentowymi.

Zespół Fizykochemii Koordynacyjnej i Bio- nieorganicznej z zakładu Chemii Nie- organicznej działający pod kierunkiem prof. dr hab. Grażyny Stochel opracował grupę mate- riałów bazujących na nanokrystalicznym dwu- tlenku tytanu modyfikowanym pochodnymi katecholu, kwasu askorbinowego oraz rutyny w sposób umożliwiający wykorzystanie świa- tła widzialnego. materiały te efektywnie foto- katalizują degradację związków organicznych oraz fotoinaktywują mikroorganizmy. zaletą materiałów w porównaniu do niemodyfiko- wanego dwutlenku tytanu jest możliwość sto- sowania światła widzialnego oraz stabilność w szerokim zakresie ph, w tym przy ph=7.

więcej na ten temat można przeczytać w arty- kule dra hab. wojciecha macyka, współautora wynalazków (str. 8).

Synteza oraz zastosowanie trzech grup mate- riałów zostały zgłoszone do ochrony patento- wej trzema odrębnymi zgłoszeniami. Stały się one podstawą prac zleconych ukierunkowa- nych na opracowanie składu nowego płynu do pielęgnacji i oczyszczania soczewek kon- taktowych. Prace te prowadzone są wspólnie z Katedrą mikrobiologii Cm UJ pod kierunkiem prof. dr n. med. hab. Piotra B. heczko. materia- ły na bazie modyfikowanego dwutlenku tyta- nu mogą posłużyć także jako fotokatalizatory

umożliwiające dezodoryzację powietrza, jak również jako materiały stosowane w celu za- pobiegania tworzenia się biofilmów, np. na sprzęcie medycznym.

Grupa Chemii Powierzchni i Materiałów rów- nież z zakładu Chemii Nieorganicznej, działa- jąca pod kierunkiem dra hab. Andrzeja Kotar- by, dzięki znajomości procesów zachodzących na granicy faz i zastosowaniu tej wiedzy do pre- paratyki powierzchni o określonych właściwo- ściach, opracowała skład i sposób wytwarza- nia dwóch nowych katalizatorów. Pierwszy to kompozytowy katalizator ferrytowy do synte- zy styrenu metodą odwodornienia etyloben- zenu, drugi to katalizator żelazowy do dopa- lania cząstek sadzy. Katalizator do syntezy styrenu, jednego z najpopularniejszych two- rzyw sztucznych, charakteryzuje się podwyż- szoną stabilnością termiczną, aktywnością i od- pornością na zawęglanie w porównaniu do po- dobnych dostępnych na rynku rozwiązań. Nato- miast charakteryzujący się wysoką aktywno- ścią i selektywnością do dwutlenku węgla ka- talizator żelazowy szczególnie zalecany jest do dopalania sadzy w gazach wydechowych z sil- ników diesla.

Zespół Nanotechnologii Polimerów i Bioma- teriałów z zakładu Chemii fizycznej i Elektro- chemii działający pod kierunkiem prof. dr hab.

KONTAKT

dr inż. Gabriela Konopka-Cupiał CITTRU, Uniwersytet Jagielloński TEL: +48 126633832 E-mAIL: gabriela.konopka-cupial@uj.edu.pl marii Nowakowskiej w 2009 roku do ochrony patentowej zgłosił kolejne nowe wynalazki. Tym razem był to polimer chitozanowy do neutra- lizacji heparyny oraz dwie grupy materiałów opartych na modyfikowanych glinokrzemia- nach warstwowych do fotokatalitycznej degra- dacji zanieczyszczeń wody i ścieków. Polimer, o którym mowa, to zmodyfikowany naturalny chitozan w postaci roztworu wodnego pozwa- lający na neutralizację hamującej krzepnięcie krwi heparyny w organizmie pacjenta. he- paryna jest lekiem podawanym w celu osią- gnięcie szybkiego efektu antykoagulacyjnego, np. podczas zabiegów i operacji chirurgicznych.

Natomiast fotokatalizatory to naturalne nietok- syczne materiały zdolne do absorpcji światła zarówno widzialnego, jak i ultrafioletowego.

mogą być stosowane do usuwania toksycznych związków z wody jednocześnie poprzez pro- stą adsorpcję fizyczną i fotodegradację. zasto- sowanie fotokatalizatorów łączy więc w sobie zalety dwóch znanych metody oczyszczania:

fotochemicznej i adsorpcyjnej. mogą one słu- żyć do usuwania takich substancji jak fenole, chlorowane związki aromatyczne, pestycydy i cyjanki. w szczególności zalecane są do oczyszczania ścieków pochodzących ze szpi- tali oraz zakładów przemysłowych.

wynalazki ma na swoim koncie ma także Wy- dział Fizyki, Astronomii i Informatyki Sto- sowanej. dr hab. Paweł moskal, prof. UJ z Za- kładu Fizyki Jądrowej, opracował konstrukcję dwóch nowych emisyjnych tomografów pozy- tonowych PET. Nowością w obu tomografach są zarówno detektory promieniowania – orga- niczne materiały scyntylacyjne – jak i sposób wyznaczania sygnałów niezbędnych do re- konstrukcji obrazu tomograficznego. PET sta- nowi obecnie najbardziej zaawansowaną tech- nologicznie metodę diagnostyczną, pozwala- jącą na nieinwazyjne obrazowanie przebiegu procesów fizjologicznych zachodzących w orga- nizmie. Odgrywa istotną i unikalną rolę za- równo w diagnostyce medycznej, jak i moni- torowaniu efektów terapii. Stanowi także pod- stawowe narzędzie umożliwiające badanie mózgu. Stosowane obecnie metody detekcji posiadają jednak ograniczenia mające zna- czenie dla dokładności obrazowania. Jednym z nich jest problem nieznanej głębokości, na jakiej zareagował kwant gamma; drugim – niedostateczna rozdzielczość czasowa detek- torów nieorganicznych, która znajduje swoje odzwierciedlenie w pomiarze różnicy czasu pomiędzy dotarciem kwantów gamma do de- tektorów. Oba te problemy mogą zostać roz- wiązane dzięki wynalazkom prof. moskala.

Michał Parczewski, MAPA WIĄZAŃ BIZNESOWYCH

(5)

PRzECIwCIAŁA dLA PROTEOmIKI,

CzyLI O NARzędzIACh BIOChEmIKA

JOANNA BERETA

Proteomika jest stosunkowo nowym hasłem w biochemii – to szeroki termin obej- mujący badanie struktury i funkcji białek oraz zależności między nimi. Domeną proteomiki jest zarówno identyfikowanie i charakteryzowanie wszystkich białek występujących w komórce i organizmie, jak też znalezienie różnic między białkami z tkanek normalnych i chorobowo zmienionych.

Jedną z ciekawszych sesji podczas 14. Eu- ropejskiego Kongresu Biotechnologicz- nego była w mojej opinii sesja poświęcona proteomice. Konwencjonalna metoda ana- lizy proteomu (zestawu białek danej tkanki) opiera się na dwukierunkowej elektroforezie i spektrometrii mas. Ograniczeniem tej meto- dy jest to, że analizie nie mogą zostać podda- ne białka występujące w komórkach czy pły- nach ustrojowych w niewielkich stężeniach.

Obecnie próby badania proteomu podążają w dwóch kierunkach, które wykorzystują ma- cierze białkowe (ang. protein arrays):

Jednoczesna analiza stężenia wielu bia- 1. łek w ekstraktach komórkowych czy pły-

nach ustrojowych.

Chodzi tutaj o scharakteryzowanie białek spe- cyficznych dla poszczególnych tkanek, po- znanie proteomów różnych typów komórek i tkanek na różnym etapie ich różnicowania i w różnych warunkach oraz poznanie zmian proteomu pod wpływem rozmaitych czyn- ników zewnętrznych czy w różnych stanach

fizjologicznych. Oprócz znaczenia poznawcze- go taka analiza miałaby duże znaczenie dia- gnostyczne – np. analiza proteomu komórek nowotworowych pobranych od poszczegól- nych pacjentów byłaby pomocna w doborze najskuteczniejszej dla danego pacjenta tera- pii, czyli w tzw. personalizacji terapii.

Jednoczesna analiza funkcjonalna wielu 2. (potencjalnie wszystkich) białek.

w tym przypadku chodzi o jednoczesną anali- zę oddziaływań danego enzymu, przeciwciała czy jeszcze innego białka, drobnocząsteczko- wego ligandu lub terapeutyku z zestawem bardzo wielu białek np. ze wszystkimi białkami komórkowymi czy ze wszystkimi białkami oso- cza. Taka analiza pozwoliłaby zweryfikować absolutną specyficzność danego przeciwciała czy terapeutyku. Pozwoliłaby również odpo- wiedzieć na takie pytania, jak: które białka ko- mórkowe są substratami danej kinazy? które oddziałują z kalmoduliną? z jakimi receptora- mi oddziałuje dany ligand? (Rys. 1).

Pierwsze próby przygotowywania takich ma-

cierzy opierały się na prostym nakładaniu pró- bek rekombinowanych białek na odpowiedni nośnik (np. płytkę szklaną pokrytą nitrocelulo- zą). Przeszkodą w takim podejściu okazała się niska biologiczna stabilność białek; ponadto wymagało ono pracochłonnego i kosztochłon- nego oczyszczania preparatów białek.

Obecnie pracuje się nad znacznie bardziej wy- sublimowanymi metodami, z których wszystkie opierają się na syntezie białek w systemie bez- komórkowym bezpośrednio na przygotowy- wanej macierzy. metody te noszą wdzięczne nazwy: PISA (ang. Protein In Situ Array), NAPPA (ang. Nucleic Acid Programmable Protein Array) i dAPA (ang. DNA Array to Protein Array). w me- todzie PISA na nośnik nakłada się próbki dNA kodujące poszczególne białka – wszystkie za- opatrzone w jednakową metkę. Rolę metek (etykietek) pełnią sekwencje kilku określonych aminokwasów lub całe, niewielkie białka. Na- stępnie (lub równocześnie z dNA) na nośnik na- kłada się odczynniki do bezkomórkowej trans- krypcji i translacji (ekstrakty retikulocytów

(6)

PRzECIwCIAŁA dLA PROTEOmIKI, CzyLI O NARzędzIACh BIOChEmIKA

Rys. 1. Schemat przedstawiający jedno z możliwych zastosowań macierzy białkowych. Tu – identyfikacja substratów dla kinazy białkowej PKCζ, enzymu fosforylującego niektóre białka komórkowe. Na płytkę pokrytą nitrocelulozą naniesiono 640 (20 x 32) próbek rozmaitych bia- łek komórkowych (potencjalnych substratów PKCζ). Na rysunku miejsca naniesienia białek zaznaczono szarymi kółeczkami, w rzeczywistości ich nie widać. Płytkę inkubowano w bufo- rze zawierającym enzym - PKCζ oraz jego drugi substrat – ATP, znakowany w pozycji γ radio- izotopem 32P. Po reakcji radioaktywność znajduje się na płytce w miejscu naniesienia tych białek, które są substratami PKCζ, gdyż tylko do tych białek enzym dodał resztę fosforanową.

Program komputerowy przeprowadza analizę obrazu i identyfikuje substraty PKCζ.

królika lub bakterii Escherichia coli). miej- sca, na które nanosi się próbki są wcześniej opłaszczone przeciwciałami wiążącymi metki dołączone do białek. Tak więc reakcje syntezy poszczególnych białek zachodzą w punktach naniesienia na macierz dNA kodujących te białka, a tworzące się polipeptydy są od razu wiązane do macierzy dzięki oddziaływaniu metka – przeciwciało anty-metka (Rys. 2).

metoda NAPPA opiera się na tej samej za- sadzie; różni się typem metki dołączanej do białek i tym, że dNA są związane do nośnika obok przeciwciał wiążących białka. w obu tych metodach matryce dNA są wykorzysty- wane jednokrotnie. Natomiast w metodzie dAPA wykorzystuje się dwie płytki: na jednej unieruchamia się rozmaite dNA, a na drugiej punktowo nanosi się przeciwciała wiążące metkę. Transkrypcja i translacja zachodzą w przestrzeni pomiędzy obu płytkami. Utwo- rzone białka posiadające metki dyfundują do drugiej płytki i tam zostają unieruchomione dzięki oddziaływaniom metka – przeciwciało anty-metka (Rys. 3). w metodzie tej macierz zawierającą dNA można wielokrotnie (ok. 20 razy) wykorzystywać do tworzenia macierzy białkowych.

Taka równoczesna funkcjonalna analiza wielu białek to kopalnia informacji, jednak ma ona swoje poważne ograniczenia. Nie pozwala na śledzenie oddziaływań, w których udział biorą nie pojedyncze łańcuchy peptydowe, a kom- pleksy białek. Nie bierze również pod uwagę tych oddziaływań, które wymagają potran- slacyjnych modyfikacji białek (fosforylacja, acetylacja, ubikwitynacja, sumoilacja i inne).

I najprostsze ograniczenie - nie potrafimy jesz- cze otrzymywać bardzo dużych białek rekom- binowanych, a także całych białek błonowych w formie natywnej.

Jak już wcześniej wspomniano, drugim wiel- kim obszarem stosowania analiz wykorzystu- jących macierze jest

badanie proteomu danej tkanki czy płynu ustrojowego, czyli badanie jakie białka i w jakich ilościach są obecne w analizowanej próbce.

można w tym wypadku stosować macierze opierające się na podobnych zasadach jak macierze badające transkryptom (czyli zestaw różnych mRNA). w przypadku mikromacierzy

nośniku unieruchamia się przeciwciała spe- cyficznie wychwytujące analizowane białka z badanych próbek (płynów ustrojowych, ekstraktów komórkowych). w testach odwró- conych na nośniku unieruchamia się próbki (płyny ustrojowe, ekstrakty komórkowe) i ana- lizowane białko wykrywa się specyficznym przeciwciałem nałożonym w określonym miejscu mikromacierzy.

format prosty (ang. forward-phase protein micro- array), w którym unieruchomione są przeciw- ciała, można wykorzystywać

do analizy różnicowej, czyli do po- równania proteomów dwóch róż- nych tkanek (np. normalna i nowo- tworowa)

czy komórek poddanych działaniu różnych warunków (np. komórki kontrolne i komórki poddane działaniu leku, cytokiny, podwyż- szonej temperatury itp.) (Rys. 4). Białka wy- izolowane z dwóch różnych typów komórek sprzęga się z dwoma różnymi fluoroforami np. Cy3 (fluorescencja zielona) i Cy5 (fluore- scencja czerwona). mieszaninę równych ob- jętości ekstraktów komórkowych inkubuje się z płytką mikromacierzową z unieruchomio- nym zestawem przeciwciał. fluorescencja poszczególnych plamek wskazuje na wyż- szy, niższy lub taki sam poziom analizowa- nych białek w próbce badanej w porównaniu z próbką kontrolną.

Jeśli analiza porównawcza nie jest wystar- czająca, można przeprowadzić analizę stężeń poszczególnych białek w badanych próbkach wykorzystując zminiaturyzowany test ELISA (ang. Enzyme-Linked ImmunoSorbent Assay):

nośnik zawiera przeciwciała o rozmaitych spe- cyficznościach, na całą płytkę nanosi się tę samą próbkę (np. ekstrakt białek tkankowych, osocze itp.), a następnie związane białka wy- krywa się specyficznymi przeciwciałami (inny- mi niż przeciwciała unieruchomione na nośni- ku). Przeciwciała wykrywające są sprzęgnięte z enzymem; dodanie do płytki substratu uru- chamia reakcję enzymatyczną – im więcej było analizowanego białka, tym więcej powstanie do analizy transkryptomu sytuacja jest jednak

znacznie prostsza, gdyż tu wykorzystuje się fakt oddziaływania pojedynczych nici kwa- sów nukleinowych z komplementarnymi do nich oligonukleotydami. Na nośnik nanosi się specjalnie zsyntetyzowane oligonukleotydy o konkretnych sekwencjach komplementarnych do analizowanych kwasów nukleinowych.

można tak dobrać zestawy oligonukleotydów, aby wiązały tylko jeden konkretny kwas nukle- inowy, kodujący konkretne białko. dzięki temu uzyskuje się w miarę jednoznaczne wyniki.

W przypadku analizy proteomu naj- lepszym narzędziem są przeciwcia- ła, które przynajmniej teoretycznie mogą specyficznie i z wysokim po- winowactwem wiązać poszczególne białka.

Tego typu testy, określane jako macierze po- winowactwa (ang. affinity protein arrays), opracowuje się w dwóch formatach: prostym i odwróconym. w pierwszym przypadku na

Rys. 2. Schemat przygotowania macierzy PISA. Przedstawiona na rysunku macierz pozwa- lałaby na jednoczesną analizę 18 różnych białek (w tetraplikatach; miejsca przyłączania poszczególnych białek oznaczono różnymi kolorami); w rzeczywistości macierze pozwalają na jednoczesną analizę znacznie większej ilości białek.

(7)

barwnego produktu reakcji (Rys. 5). Ta techni- ka charakteryzuje się wysoką wiarygodnością uzyskanych wyników.

format odwrócony (ang. reverse-phase pro- tein microarray) polega na nanoszeniu na nośnik analizowanych próbek w seryjnych rozcieńczeniach – np. próbek osocza wielu pacjentów, próbek ekstraktów guzów nowo- tworowych pobranych od wielu pacjentów albo próbek ekstraktów tkanek w kolejnych stadiach różnicowania. Analiza wiązania prze- ciwciała o danej specyficzności do wszystkich próbek na nośniku (czy danym fragmencie no- śnika) pozwala na porównawczą jednoczesną analizę poziomu określonego białka (białek) w wielu próbkach.

warunkiem wprowadzenia obu typu analiz (zarówno prostej, jak i odwróconej) na szeroką skalę jest

posiadanie specyficznych przeciw- ciał o wysokim powinowactwie do analizowanych białek.

Co więcej, do zminiaturyzowanego testu ELISA wymagane jest wykorzystanie dwóch różnych

Rys. 4. Schemat wykorzystania macierzy białkowej do analizy porównawczej proteomu tkanki zdrowej i nowotworowej. Zaznaczono jedynie trzy różne białka (kod kolorów). Ana- liza wykazała, że w tkance nowotworowej jest tyle samo białka „fioletowego”, mniej białka

„pomarańczowego” i więcej białka „niebieskiego” niż w tkance zdrowej.

PRzECIwCIAŁA dLA PROTEOmIKI, CzyLI O NARzędzIACh BIOChEmIKA

Rys. 5. Zasada testu ELISA stanowiącego podstawę opracowania niektórych typów

macierzy białkowych. KONTAKT

dr hab. Joanna Bereta, wydział Biochemii, Biofizyki i Biotechnologii, Uniwersytet Jagielloński

TEL.: +48 126646356 E-mAIL: joanna.bereta@uj.edu.pl przeciwciał dla każdego białka, i to takich, któ-

re rozpoznają niezależne, niezachodzące na siebie epitopy. I tu zaczyna się problem…

Od szeregu lat, między innymi z inicjatywy hUPO (ang. Human Proteome Organization) powstaje szereg ciekawych, zakrojonych na szeroką skalę projektów badawczych. Jednym z nich jest tworzenie tzw. atlasu białek czło- wieka (www.proteinatlas.org), czyli zbioru zdjęć obrazujących lokalizację wszystkich zna- nych białek w zdrowych tkankach, tkankach nowotworowych i rozmaitych liniach komórko- wych przy wykorzystaniu barwienia immuno- chemicznego komórek i tkanek. Podczas two- rzenia atlasu okazało się, że wiele komercyjnie dostępnych przeciwciał nie nadaje się do tego celu. To doprowadziło do powstania nowego projektu – stworzenia bazy danych nazwanej AntibodypediA (www.antibodypedia.org).

Celem tej inicjatywy jest zgromadzenie wszel- kich możliwych informacji na temat dostęp- ności i możliwych zastosowań przeciwciał po- liklonalnych i monoklonalnych rozpoznających wszystkie ludzkie białka. Twórcy Antibody- pedii, mathias Uhlén i Erik Björling z Królew- Rys. 3. Metoda DAPA przygotowania macie-

rzy do analizy funkcjonalnej białek. Przed- stawiono schemat przygotowania jednego punktu zawierającego jedno konkretne białko. Y – przeciwciało wiążące metkę za- znaczoną na rysunku jako czerwony ele- ment na początku łańcucha polipeptydowe- go (białka).

Struktura przeciwciała (źródło: Protein Data Bank, ID: 1igt).

skiego Instytutu Technologii w Sztokholmie rozpoczęli swoją działalność od zwrócenia się do firm oferujących komercyjne przeciwciała o przesłanie próbek w celu ich walidacji. Spo- śród ponad 5000 przeciwciał nadesłanych przez 51 firm jedynie 49% można było określić jako w pełni specyficzne…

Antibodypedia stała się dobrą platformą dla twórców przeciwciał rozpoznających ludzkie białka. mogą oni zgłosić swoje produkty wraz z informacjami o specyficzności oferowanych

przeciwciał i ich przydatności do rozmaitych technik. wiadomo bowiem, że niewiele jest

„wszechstronnych” przeciwciał, czyli takich, które mogą być stosowane zarówno do detek- cji białek zdenaturowanych, jak i natywnych.

Często więc wykorzystujemy inne przeciw- ciała do techniki western blotting, a inne np.

do cytometrii przepływowej; w obu przypad- kach najbardziej pożądaną cechą przeciwcia- ła jest jego wysoka specyficzność. zgłoszone przeciwciała po spełnieniu dość ostrych kry- teriów mogą znaleźć się na stronie Antibody- pedii. Co ciekawe, nie tylko twórca, ale każdy użytkownik przeciwciał (jeśli spełniają według niego wymagane kryteria) może je zgłosić do Antibodypedii.

Ale co najważniejsze,

Antibodypedia jest nieocenionym źródłem informacji dla każdego, kto potrzebuje do swej pracy przeciw- ciał rozpoznających ludzkie białka – przeciwciał, na których mógłby po- legać.

zachęcam wszystkich, którzy uzyskali w tech- nice western blotting 5 prążków zamiast jed- nego albo tych, których chromatyna nie ule- gła immunoprecypitacji, a także tych, którzy białko jądrowe odkryli w cytoplazmie do od- wiedzenia Antibodypedii.

(8)

RyNEK BIOTEChNOLOGII w RAPORCIE JEdNEJ z NAJwIęKSzyCh fIRm dORAdzTwA BIzNESOwEGO:

RECEPTA NA KRyzyS?

mACIEJ CzARNIK

Na rynku innowacyjnych firm biotechnologicznych zachodzi interesujące zjawisko.

W związku z nieprzewidzianymi w gospodarce zmianami, powstają nowe potrzeby i problemy. Wymagają więc innego podejścia i rozwiązań różniących się znacznie od dotychczasowych.

Biotechnologia vs IT

Biotechnologia – jako branża gospodarki - jest często porównywana przez anality- ków gospodarczych do informatyki (IT). w obydwu tych dziedzinach sukcesy rynkowe firm są rzekomo w dużej mierze kreowane przez przedsiębiorców i fundusze kapitałowe zajmujące się komercjalizacją innowacyjnych technologii. Innego zdania są autorzy raportu, stworzonego przez koncern Ernst & young. w ich opinii

proces tworzenia nowych leków przez firmy biotechnologiczne jest bliższy tworzeniu samolotu pasażerskiego, niż programu komputerowego.

mają o tym świadczyć: wydatki na badania, czas upływający od pomysłu do wprowadze- nia na rynek nowego produktu i wreszcie cykl życia produktu. Jest on zbliżony w przypadku nowego leku i samolotu, a zupełnie inny w IT.

dla rynku biotechnologicznego kluczowe jest wprowadzanie innowacji oraz udoskonalanie produktów. wiąże się z tym relatywnie wyso- kie ryzyko dla potencjalnych inwestorów i jed-

nocześnie szansa na duże zyski w przypadku wprowadzenia nowego leku na rynek.

Koniec monopolu

według autorów raportu, jednym z najbardziej zauważalnych czynników mających wpływ na działania podejmowane przez duże firmy farmaceutyczne jest wygaśnięcie ochrony pa- tentowej ich głównych produktów. zgodnie z danymi opublikowanymi w raporcie, w la- tach 2007–2012 ponad 30 leków traci ochronę patentową, co spowoduje powstanie rynku leków generycznych, o szacowanej rocznej wartości sprzedaży sięgającej 67 mld USd.

dobrym przykładem jest lek o nazwie Lipitor, produkowany przez firmę Pfizer, którego rocz- na sprzedaż sięga 13 mld USd. Ten najlepiej sprzedający się lek w historii traci ochronę pa- tentową w 2010 r.

Prace badawczo-rozwojowe prowadzone przez firmy farmaceutyczne są niewystarczająco za- awansowane i efektywne, aby w krótkim cza- sie mogły wypełnić luki w ofercie i sprzedaży swoich produktów.

wobec tego koncerny intensyfikują poszuki-

wania nowych związków, które będą kandy- datami na leki. Jeszcze kilka lat temu były one zainteresowane pozyskiwaniem projektów wy- łącznie w zaawansowanym stadium badań klinicznych - było to rozwiązanie krótkotermi- nowe.

Dziś uwaga dużych firm przesuwa się w kierunku projektów we wstęp- nej fazie rozwoju.

w ich ramach przedsięwzięcia realizowane są wspólnie z wynalazcami – jest to rozwiąza- nie długoterminowe.

żadne z przytoczonych rozwiązań nie jest wy- starczające przede wszystkim z tego powodu, że nie zwiększają one produktywności prowa- dzonych prac badawczo-rozwojowych.

Globalny kryzys finansowy

Nieoceniony wpływ na rynek innowacyjnych firm biotechnologicznych, ma dziś także kry- zys finansowy. w jego konsekwencji kapitał inwestycyjny wysycha, a rynek cechuje nie- pewność.

Jednym z symptomów złej sytuacji

(9)

RyNEK BIOTEChNOLOGII w RAPORCIEJEdNEJ z NAJwIęKSzyCh fIRm dORAdzTwA BIzNESOwEGO:

RECEPTA NA KRyzyS?

KONTAKT

maciej Czarnik, CITTRU, Uniwersytet Jagielloński TEL.: +48 126633832 E-mAIL: maciej.czarnik@uj.edu.pl

jest spadek wartości kapitału pozy- skiwanego z giełdy przez spółki bio- technologiczne.

Twórcy raportu zwracają uwagę na fakt, że do momentu opublikowania raportu, przez 4 kwartały (od drugiego kwartału 2008 do pierwszego kwartału 2009), firmy biotechno- logicznego nie pozyskały z rynku ani jedne- go dolara. Co więcej, biorąc pod uwagę rynki wysokorozwinięte, w tym czasie miał miejsce tylko jeden debiut giełdowy firmy biotech- nologicznej. Sytuacja przypomina przełom 2002/2003 r., kiedy przez 5 kwartałów nie było debiutów w wysoko rozwiniętych krajach.

Kryzys finansowy jest zjawiskiem, którego ska- li w tym momencie nie można ocenić. widać natomiast już dziś, że klienci zmniejszają wy- datki na produkty firm biotechnologicznych, a inwestorzy i banki stają się bardziej ostroż- ni. w konsekwencji zmniejsza się możliwości pozyskania kapitału przez firmy. Kryzys ma więc największy wpływ na rozwój małych i średnich przedsiębiorstw sektora biotechno- logicznego. duże firmy mogą jeszcze – choć

Coroczny raport przygotowany przez firmę Ernst & Young pt. „Beyond borders.

Global biotechnology report 2009” przedstawia syntetyczną charakterysty- kę obecnej sytuacji na rynku firm biotechnologicznych. Wyniki raportu zostały ogłoszone podczas corocznych targów BIO Convention, które miały miejsce w Atlancie (USA) w maju 2009 r.

nie wiadomo jak długo – czuć się bezpiecznie.

Nowa sytuacja

w związku z zarysowanymi zmianami, autorzy raportu identyfikują pojawienie się następują- cych potrzeb:

większej elastyczności firm, gwarantują-

cych niezależność i prawa własności in- telektualnej najlepszym wynalazcom, co w konsekwencji powoduje przesunięcia cię- żaru negocjacyjnego z silnych dotąd firm farmaceutycznych na wynalazców

wzrostu efektywności prowadzonych prac

badawczo-rozwojowych w przemyśle częstszej występującej na rynku koncentra-

cji firm na poszukiwaniu i następnie prze- chwytywaniu przełomowych odkryć doko- nanych poza nimi

ograniczania wydatków i utrzymania przy-

chodów na obecnym poziomie przez firmy biotechnologiczne

zwiększenia siły negocjacyjnej prywatnych

inwestorów

pozyskania dodatkowego kapitału na inwe-

stycje przez niewielkich inwestorów ograniczania kosztów i zmniejszenia skali

tzw. procesu „palenia pieniędzy”1 przez fun- dusze kapitałowe i prywatnych inwestorów znalezienia nowych sposobów wyjścia z in-

westycji funduszy kapitałowych Nowe strategie działania

Kończąca się ochrona patentowa le- ków sprzedawanych przez koncerny farmaceutyczne i globalny kryzys finansowy zmuszają firmy do poszu- kiwania nowych rozwiązań.

mają one zapewnić im możliwość stabilnego rozwoju. wśród strategii postępowania warto wyróżnić kilka ciekawych przykładów.

Coraz częściej firmy kupują innowacyjne technologie i czekając na sprzyjające warun- ki makroekonomiczne, nie przystępują do ich

wdrażania (np. w 2008 roku firma Takeda prze- jęła firmę millenium uzyskując m.in. prawa do jej portfolio związanego z badaniami nad ra- kiem licząc na możliwość wdrożenia wyników w przyszłości). Jeszcze kilka lat temu takie działanie byłoby potraktowane jako narusze- nie umowy licencyjnej. dziś tego typu postę- powanie jest akceptowane.

Obserwujemy też wzrost liczby niewyłącznych umów licencyjnych, które umożliwiają udzie- lanie licencji przez licencjodawcę więcej niż jednemu licencjobiorcy (np. w 2007 roku fir- ma Alnylam udzieliła firmie Roche niewyłącz- nej licencji na ich odkrycia m.in. w dziedzinie onkologii, chorób metabolicznych i chorób wątroby). Strategia ta zmniejsza koszty licen- cyjne i tym samym ułatwia wprowadzenie na rynek leków bazujących na innowacyjnym rozwiązaniu.

Pojawiają się także inicjatywy mające na celu współpracę różnych firm w fazie przedkonku- rencyjnej. Przykładem jest utworzona przez fir- my: merck, Pfizer, Eli Lilly, Johnson & Johnson, Novartis i Abbott, spółka Enlight Biosciences.

została powołana w celu wspólnego opraco- wania innowacji, które diametralnie zmienią podejście do tworzenia nowych leków.

Nowe strategie przyjmowane przez firmy, idą również kierunku zawierania porozumień z jednostkami naukowymi, które specjalizują się w badaniach skoncentrowanych na okre- ślonej dziedzinie. Przykładem takiej strategii jest współpraca firmy Pfizer z Uniwersytetem w Kalifornii (San francisco, USA). zaowocowa- ła ona podpisaniem w połowie 2008 r. trzylet- niego porozumienia o współpracy. Koncern Pfizer zastrzegł w nim sobie prawa do rynko-

1ang. to burn money – wyrażenie to stosuje się określając sytuację, w której firma biotechnologiczna jest przez długi okres czasu utrzymywana dzięki finansowaniu inwestorów, a sama pracuje nad innowacyjnym projektem i nie osiąga jeszcze żadnych przychodów z prowadzonejdziałalności

Tekst powstał na podstawie raportu przygotowanego przez firmę Ernst & Young pt. „Beyond borders. Global biotechnology report 2009.”

wego wykorzystania wyników badań sfinan- sowanych przez firmę.

Gama możliwych rozwiązań - mode- li i strategii jest szeroka, ponieważ każda sytuacja wymaga indywidu- alnego podejścia.

Szukając strategii

Jesteśmy świadkami bardzo ważnego mo- mentu w rozwoju rynku innowacyjnych firm biotechnologicznych. Globalny kryzys finan- sowy i kończąca się ochrona patentowa le- ków produkowanych przez koncerny farma- ceutyczne, powodują drastyczne zmiany w pro- cesie komercjalizacji nowych technologii w bio- medycynie. Obserwujemy dziś zwiększoną nie- chęć do ryzyka, poszukiwanie innowacji w la- boratoriach akademickich i publicznych środ- ków na sfinansowanie prac badawczo-rozwo- jowych. firmy ograniczają wydatki, a źródła kapitału inwestycyjnego wysychają.

Nie ma niestety jednej uniwersalnej zasady, która byłaby najlepszą receptą na czas kryzy- su. Każda firma musi opracować własną strate- gię przetrwania.

(10)

ŚwIET(L)NA KATALIzA, CzyLI fOTOKATALIzA

wOJCIECh mACyK

Dokąd zmierza fotokaliza

moda na odnawialne źródła energii po- woduje, że coraz częściej zwraca się uwagę na możliwość wykorzystywania ener- gii słonecznej w różnorodnych procesach, w szczególności związanych z jej konwersją na energię elektryczną lub chemiczną. Ogniwa fotowoltaiczne oparte na różnych technolo- giach pozwalają nam wytwarzać energię elek- tryczną, jednak dobowa i roczna zmienność nasłonecznienia, ograniczone wydajności procesów konwersji, duży stopień rozprosze- nia tej energii oraz koszt samych urządzeń powodują, że zakres stosowania fotowoltaiki jest dziś mocno ograniczony. Jeszcze gorzej sprawa przedstawia się przy próbach konwer- sji energii słonecznej na chemiczną, którą póź- niej można byłoby przekształcić na energię elektryczną. Próby fotogenerowania wodoru lub sztuczna fotosynteza związków mogących pełnić rolę paliwa w zasadzie nie wyszły dotąd poza ściany laboratoriów, a fotosynteza opa- nowana przez rośliny jest dla nas wciąż niedo- ścignionym wzorem.

Czyżby zatem należało zaniechać prób wykorzystania energii słonecznej?

Pisząc te słowa siedzę w ciepłym pomieszcze- niu, czerpiącym energię ze spalania metanu, czyli paliwa kopalnego (ewentualnie ze spala- nia drewna, które ma więcej wspólnego z od- nawialnymi źródłami energii niż gaz ziemny), podczas gdy za oknem niepokoi ponad dwu- dziestostopniowy mróz. Jednak niezależnie od tego, czy grozi nam globalne lub lokalne ocie- plenie (czy też może oziębienie) jestem prze- konany, że energię słoneczną trzeba i można

Rys. 1. Podstawowe procesy fizykochemicz- ne zachodzące w obecności naświetlanego fotokatalizatora półprzewodnikowego z pożytkiem wykorzystywać, a jedną z możli-

wości oferuje fotokataliza.

wszystko zaczęło się w latach sześćdziesiątych ubiegłego stulecia. Pojawiło się wtedy kilka ar- tykułów przedstawiających

utlenianie substancji organicznych w obecności naświetlanego światłem ultrafioletowym dwutlenku tytanu.

Prace te nie skupiły na sobie jednak większej uwagi i dopiero badania fujishimy i hondy na przełomie lat sześćdziesiątych i siedem- dziesiątych zainicjowały gwałtowny rozwój fotokatalizy heterogenicznej. miały one na celu wykorzystanie dwutlenku tytanu do fo- tokatalitycznego (lub może ściślej fotoelektro- katalitycznego) rozkładu wody. Niestety, do dzisiaj nie udało się opracować fotokatalizato- ra dającego nadzieję na szybkie zastosowanie w produkcji wodoru. „Święty Graal” fotokata- lizy nie został dotąd odnaleziony. Niemniej jednak prowadzone przez lata prace nad foto- katalitycznymi właściwościami półprzewodni- ków charakteryzujących się szerokim pasmem wzbronionym (przede wszystkim dwutlenku tytanu) zaowocowały wieloma ważnymi od- kryciami i technologiami. Jakimi? O tym za chwilę.

Proces fotokatalityczny

fotokatalizatorami heterogenicznymi są naj- częściej tlenki i siarczki metali przejściowych.

Podstawowe procesy składające się na efekt fotokatalityczny ilustruje rysunek 1. Absorp- cja światła o energii fotonów równej lub większej od szerokości pasma wzbronionego prowadzi do wygenerowania dziury i elek-

tronu odpowiednio w paśmie walencyjnym i przewodnictwa (proces 1). Ładunki te mogą migrować w obrębie ziarna (kryształu) pół- przewodnika, a w pobliżu jego powierzchni mogą być pułapkowane (proces 2). Ładunki te uczestniczą w procesach międzyfazowego przeniesienia elektronu z udziałem zaadsor- bowanych na powierzchni fotokatalizatora cząsteczek akceptora A i donora d (procesy 3). Kolejne reakcje pierwotnych produktów redukcji i utleniania, A•– i d•+, prowadzą do powstania trwałych produktów końcowych Ared i dutl. Niepożądanymi procesami uboczny- mi są rekombinacja ładunków (procesy 4 i 5), reakcja redoks między A•– i d•+ prowadząca do odtworzenia akceptora i donora (proces 6)

(11)

powierzchniowymi kompleksami tytanu(IV) (rysunek 2c). Stan wzbudzony takiego kom- pleksu można opisać jako kompleks tytanu(III), co formalnie jest tożsame z elektronem w paś- mie przewodnictwa. dlatego ten rodzaj foto- sensybilizacji, w przeciwieństwie do fotosen- sybilizacji związkami platyny(IV), nazwaliśmy fotosensybilizacją bezpośrednią. zaletą tego typu materiałów jest ich duża fotoaktywność w warunkach naświetlania światłem widzial- nym, która odzwierciedla się w wysokiej fo- totoksyczności względem bakterii. z tymi fotokatalizatorami wiążemy duże nadzieje na komercjalizację.

warto dodać, że opisane metody fotosensybili- zacji można również wykorzystać w procesach fotogenerowania prądów, czyli w fotowoltaice lub optoelektronice. Czy jednak badane przez nas materiały przyczynią się do poprawy kli- matu? wątpię, chociaż co do ich wielu innych zalet jestem przekonany. z pewnością światło można pożytecznie wykorzystać na wiele spo- sobów, a w ten zimowy wieczór brakuje go szczególnie…

Rys. 2. Metody fotosensybilizacji TiO2: a) domieszkowanie; b) modyfikacja powierzchni (fo- tosensybilizacja pośrednia); c) modyfikacja powierzchni (fotosensybilizacja bezpośrednia).

FS – fotosensybilizator, D – donor elektronu.

i nie przedstawione na rysunku procesy fo- tokorozji półprzewodnika, których przykła- dem może być powstawanie cynku, siarki lub siarczanów w przypadku siarczku cynku lub kadmu w przypadku CdS. dwutlenek tytanu cechuje się dużą trwałością i fotostabilnością – w warunkach prowadzenia procesów foto- katalitycznych nie ulega fotokorozji.

Tyle teorii. Jak ją wykorzystać w praktyce?

Jeśli procesami 3 z rysunku 1 byłyby reakcje redukcji i utleniania wody (woda pełniłaby jednocześnie funkcję akceptora elektronów A i donora d) mielibyśmy rozwiązany problem rozkładu wody i fotokatalitycznej produkcji wodoru. Jak już wiemy, jest to trudne i póki co nie udaje się przeprowadzić takiej reakcji z zadowalającą wydajnością. możemy w takim razie zmienić reagenty. Jeśli w procesach 3 związkami A i d będą substancje organiczne, można myśleć o wygenerowaniu jonorod- ników A•– i d•+ lub innych rodników, które na powierzchni fotokatalizatora mogą połączyć się tworząc wiązanie C-C lub C-N i nową czą- steczkę organiczną. Taką „fotosyntezę” można prowadzić z bardzo przyzwoitą wydajnością i selektywnością w obecności siarczków kad- mu lub cynku jako fotokatalizatorów. może to być zatem dobra alternatywa dla innych skomplikowanych syntez organicznych. Jed- nak najczęściej rolę A i d pełnią odpowiednio cząsteczki tlenu i wody. w takim przypadku fo- tokatalizatorem zwykle jest dwutlenek tytanu lub tlenek cynku, a produktami pierwotnych reakcji redoks są anionorodnik ponadtlenko- wy O2•– i rodnik hydroksylowy Oh. Te bardzo reaktywne rodniki są odpowiedzialne za utle- nianie większości substancji organicznych. Co ważne, utlenianie w tych warunkach jest za- zwyczaj całkowite, a produktami końcowymi jest woda i dwutlenek węgla (na marginesie:

znowu okazuje się, że łatwiej CO2 produko- wać, niż się go pozbywać…). Skoro zatem po- wierzchnia wzbudzonego fotokatalizatora jest tak nieprzyjazna dla wszelkiej maści związków organicznych, to można ją

wykorzystać w procesach detoksykacji wody, powietrza, czy powierzchni.

z reaktywnymi rodnikami kłopot mają rów- nież mikroorganizmy, zatem znO i TiO2 mogą być przydatne w fotodezynfekcji.

Znaczenie światła

Trochę się rozpędziłem, a powinienem wspo- mnieć o jeszcze jednym kluczowym para- metrze, od którego właściwie zacząłem – o świetle. Tlenki cynku i tytanu są materiałami białymi absorbującymi tylko promieniowanie ultrafioletowe (energia fotonów większa od 3,2

eV). Stanowi to istotny problem ograniczający możliwości, a czasem nawet sens stosowania tych fotokatalizatorów. Skoro bowiem mikro- organizmy można niszczyć światłem ultrafio- letowym, to po co stosować jeszcze TiO2? Gdy- byśmy jednak dysponowali fotokatalizatorem

„uczulonym”, czyli fotosensybilizowanym na zakres światła widzialnego motywacja dla na- szych badań wyraźnie wzrosłaby. Nasz nowy fotokatalizator musiałby uzyskać barwę.

w naszych pracach prowadzonych na Wy- dziale Chemii UJ oraz w zaprzyjaźnionych laboratoriach, w szczególności zaś w zespo- le profesora horsta Kischa z Uniwersytetu w Erlangen, z powodzeniem zastosowaliśmy kilka metod fotosensybilizacji TiO2 (rysunek 2).

Jedna z nich polega na syntezie TiO2 w obec- ności różnych związków organicznych będą- cych prekursorami wysoce nienasyconych związków węgla, które dostarczają poziomów donorowych w obrębie pasma wzbronionego (rysunek 2a). wzbudzenie takiego materia- łu światłem widzialnym (np. niebieskim lub zielonym) skutkuje wygenerowaniem dziury i elektronu, który z kolei redukuje zaadsor- bowane cząsteczki tlenu. zachodzące na po- wierzchni reakcje są odpowiedzialne za gene- rowanie całej serii reaktywnych form tlenu.

Prace te prowadzone w Erlangen, opubliko- wane w 2001 roku, zapoczątkowały dość in- tensywny rozwój fotokatalizatorów na bazie dwutlenku tytanu modyfikowanego węglem (tak zwykle nazywa się ten typ materiałów).

materiały okazały się skuteczne w usuwaniu zanieczyszczeń powietrza i powierzchni – takie fotokatalizatory stosuje się już jako składnik aktywny farb o działaniu fotokatalitycznym do malowania wnętrz, w których natężenie świa- tła ultrafioletowego jest znikome.

Modyfikowany TiO2

Inną metodą fotosensybilizacji jest modyfika- cja powierzchni TiO2 związkami koordynacyj- nymi, które wzbudzone światłem widzialnym oddają elektron do pasma przewodnictwa (ry- sunek 2b). dalsze losy elektronów są podobne jak poprzednio. Ten typ fotosensybilizacji uda- ło nam się osiągnąć przy pomocy chlorkowych kompleksów platyny(IV). Uzyskane materiały mogą być stosowane np. jako złoża fotokata- lityczne w klimatyzatorach do oczyszczania i dezodoryzacji powietrza. wykazaliśmy rów- nież ich fototoksyczność względem mikroor- ganizmów i komórek nowotworowych. może w przyszłości uda się opracować na ich bazie półprzewodnikowe fotochemoterapeutyki?

Kolejną grupę fotosensybilizowanych materia- łów stanowi dwutlenek tytanu modyfikowany

KONTAKT

dr hab. wojciech macyk wydział Chemii, Uniwersytet Jagielloński TEL.: +48 126632005 E-mAIL: macyk@chemia.uj.edu.pl

ŚwIET(L)NA KATALIzA, CzyLI fOTOKATALIzA

(12)

UNIwERSyTECKIE wyNALAzKI dLA OChRONy ŚROdOwISKA

GABRIELA KONOPKA-CUPIAŁ

dbałość o środowisko naturalne stała się obecnie jednym ze światowych prioryte- tów gospodarczy wyraźnie korespondującym z rozwojem gospodarczym. zewsząd jesteśmy bombardowani informacjami o zagrożeniach wynikających z zanieczyszczenia powietrza, efektu cieplarnianego, dziury ozonowej, ska- żenia wód i gleby, deficytu wody pitnej. Prze- pisy prawne dotyczące emisji gazów z zakła- dów przemysłowych, gazów spalinowych, odpadów, postępowania ze zużytym sprzętem bezpośrednio dotykają niemalże każdego.

wzrost świadomości środowiskowej wyraźnie widoczny jest już na poziomie gospodarstw domowych, coraz powszechniej segregują- cych odpady i dbających o to, aby niepotrzeb- ne sprzęty domowe trafiały na przystosowane do ich rozbiórki i przetwarzania wysypiska śmieci.

Największą jednak odpowiedzialno- ścią za niekorzystne zmiany w śro- dowisku naturalnym obarczany jest przemysł.

ma to oczywiście swoje konsekwencje gospo- darcze. Polityka klimatyczna często decyduje o działaniach i kierunkach rozwoju podejmo- wanych przez podmioty gospodarcze. Niestety, wymuszane prawnie inwestycje pro-ekologicz- ne to często bardzo kosztowne modernizacje instalacji przemysłowych, trudne do zrealizo- wania w szczególności w przypadku obiektów od dawna już eksploatowanych. dlatego też najbardziej poszukiwane nowoczesne tech- nologie - czy to sprzyjające zminimalizowaniu

emisji szkodliwych dla środowiska natural- nego gazów, czy też służące do degradacji zanieczyszczeń wody i ścieków - to takie, któ- re można wprowadzić niskim kosztem i bez zaawansowanych zmian istniejących liniach technologicznych. duży nacisk kładzie się tak- że na wykorzystywanie odnawialnych źródeł energii, surowców wtórnych oraz biopaliw.

Przyjazność dla środowiska to także jedno z podstawowych kryteriów branych pod uwa- gę przy projektowaniu nowych instalacji.

w panujące na rynku tendencje wspierania działań na rzecz ochrony środowiska wpisują się także wynalazki Uniwersytetu Jagielloń- skiego. Kilka spośród nowych technologii opracowanych przez pracowników wydzia- łu Chemii dotyczy ochrony powietrza oraz oczyszczania ścieków przemysłowych.

zespół Katalizy i fizykochemii Ciała Stałego pod kierunkiem prof. dra hab. zbigniewa Sojki, we współpracy z Instytutem Nawozów Sztucz- nych z Puław (jedynym polskim producentem tego typu produktów),

opracował dwa katalizatory do roz- kładu podtlenku azotu (N2O) w in- stalacjach do produkcji kwasu azo- towego.

Podtlenek azotu, powstający jako produkt uboczny m.in. podczas katalitycznego utle- niania amoniaku w instalacjach do produkcji kwasu azotowego, w znaczący sposób przy- czynia się do efektu cieplarnianego, stąd też konieczne jest jego skuteczne usuwanie. Ka- talityczny rozkład N2O w instalacjach kwasu

azotowego może być prowadzony w wysokiej lub niskiej temperaturze. w wysokiej tempe- raturze (800÷940°C) katalizator umieszcza się w reaktorze utleniania amoniaku, bezpośred- nio pod siatkami katalitycznymi, natomiast w niskiej temperaturze (200÷450°C) katalizator musi działać w specjalnym reaktorze w stru- mieniu gazów resztkowych. Oferowane obec- nie na rynku technologie to przede wszystkim katalizatory wysokotemperaturowe do rozkła- du N2O. Technologie niskotemperaturowe wy- magają natomiast zastosowania dodatkowych substancji redukujących.

Opracowane przez uniwersyteckich chemi- ków katalizatory dają wybór, ponieważ ofero- wane są dwa różne rozwiązania - zarówno kata- lizator nisko, jak i wysokotemperaturowy, przy czym wyeliminowano z nich negatywne cechy dotychczasowych rozwiązań. Katalizator do niskotemperaturowego rozkładu podtlenku azotu w gazach resztkowych z instalacji kwasu azotowego wykazuje aktywność już w tempe- raturze 50ºC, a co najmniej 90% konwersję N2O uzyskuje się w temperaturze poniżej 350ºC.

Ponadto wysokiej aktywności katalitycznej nie przeszkadza obecności innych składników strumienia gazów odlotowych (tlen, woda i inne tlenki azotu). zaletą jest również brak konieczności stosowania dodatkowych sub- stancji redukujących. Skład katalizatora to przede wszystkim tlenek kobaltu domieszko- wany jonami niklu i cynku.

Katalizator jest przedmiotem dwóch zgłoszeń patentowych,

Cytaty

Powiązane dokumenty

dziaiy pieniężne dla obywateli brytyj- 3) Drastyczne obcięcie importu luksu- skich, wyjeżdżających zagranicę, będą sowago z krajów o mocnej walucie. Również

2 lata przy 38 to pestka… Izrael był na finiszu i to właśnie wtedy wybuch bunt, dopadł ich kryzys… tęsknota za Egiptem, za niewolą, za cebulą i czosnkiem przerosła Boże

2) przedłożenia informacji o wytwarzanych odpadach oraz o sposobach gospodarowania wytworzonymi odpadami, jeżeli wytwarza odpady niebezpieczne w ilości do 0,1 Mg (100 kg) rocznie

Osoba pisząca reportaż wybiera autentyczne zdarzenie i udaje się na miejsce aby zebrać materiał.. Rozmawia się ze świadkami, którzy widzieli

czasu potrzebnego do ustalenia się stanu równowagi, stężenia jonów Fe(III), jonów chlorkowych oraz HCl, a także stężenia zastosowanego ekstrahenta na wydajność ekstrakcji

Nagród się tu nie przyznaje, formą wyróżnienia jest wybór filmu jako tematu do obrad i dyskusji „okrą­.. głego stołu” - seminarium

Jak widać, wzrost rentowności w pierwszych dwóch latach sprawił, że w tym okresie zysk z tytułu zmiany ceny czystej obu obligacji jest zdecydowanie mniejszy, wręcz nawet

Czy w toku obowiązywania umowy powierzenia przetwarzania danych osobowych możliwe jest jednak, aby podmiot przetwarzający jednocześnie pełnił zgodnie z prawem rolę