Złota myśl Racjonalisty: (..) przecież żadnych świadectw o istnieniu Abrahama poza przekazem z Księgi Rodzaju nie ma. Nie ma powodu do odrzucenia poglądu, że cały cykl Abrahamowy (..) jest zbiorem mitów.
Technika Przekształcanie odpadów rolnych i akwakulturowych w energię odnawialną (09-12-2013)
W ramach nowego, innowacyjnego projektu badawczego, zaplanowanego na trzy lata, sektory akwakultury, rolnictwa i biogazu połączą swe siły na rzecz energii odnawialnej. Inicjatywa pokazuje, jak można równolegle poprawiać zrównoważenie, ograniczać ilość odpadów i podnosić wydajność operacyjną.
Dofinansowany ze środków unijnych projekt BIFFIO odegra istotną rolę na drodze do osiągnięcia unijnego celu pokrywania 20% zapotrzebowania Europy na energię przez systemy energii odnawialnej do roku 2020.
Sektory rolnictwa i akwakultury znajdują się pod ogromną presją, aby poprawiać zrównoważenie i zmniejszać swoje oddziaływanie na środowisko. Obydwa sektory wytwarzają potężne ilości odpadów, które często nie podlegają utylizacji i pozostają niewykorzystane. Projekt BIFFIO ma zaradzić temu problemowi poprzez opracowanie systemu, sprawnego pod względem ekonomicznym i zasobowym, do obsługi zmieszanych odpadów rolnych i przekształcania ich na użyteczną energię.
Koncepcja projektu zasadza się na mieszaniu w reaktorze do produkcji biogazu odpadów łatwo dostępnych na farmach rybnych oraz obornika z przemysłu rolnego, aby w ten sposób zaspokoić zapotrzebowanie na energię odnawialną w przemyśle akwakulturowym oraz na nawozy w branży rolnej.
W toku projektu, którego realizacja rozpoczęła się w listopadzie 2013 r., przeprowadzona zostanie przede wszystkim analiza, jak najlepiej można wykorzystać odpady do produkcji energii odnawialnej i jakie składniki odżywcze można odzyskać do innych zastosowań. Kolejnym celem będzie skurczenie najnowszych technologii wykorzystywanych do wielkoskalowego przetwarzania odpadów do skali gospodarstwa, aby wydajną i ekonomiczną energię biogazu można było produkować lokalnie lub w pobliżu gospodarstwa.
W ciągu kolejnych trzech lat zespół projektowy zajmie się także wyzwaniami, jakie stają obecnie przed sektorem i poszukiwać będzie nowych sposobów na spełnianie wymagań regulacyjnych. Opracowany zostanie przewodnik po najlepszych praktykach w zagospodarowywaniu zmieszanych odpadów rolno-akwakulturowych do produkcji energii i dalszego wykorzystania przefermentowanych odpadów.
Wreszcie projekt ma wywrzeć pozytywny wpływ na lokalne warunki społeczno-gospodarcze. Zostanie to osiągnięte poprzez podniesienie standardów higieniczo-środowiskowych w hodowli ryb w cyklu zamkniętym oraz obniżenie emisji gazów cieplarnianych i innych zanieczyszczeń z sektora rolnego.
W projekt zaangażowała się międzynarodowa grupa MŚP i partnerów reprezentujących użytkowników końcowych z sektorów rolnictwa, akwakultury i bioenergetyki oraz trzech partnerów BRT. Są nimi Teknologisk Institutt (NO), Uniwersytet w Liverpoolu (UK) i konsultant ds. wody Ingenieur (DE). Prace nad projektem, który otrzyma 1,7 mln EUR dofinansowania ze środków unijnych, zakończą się w październiku 2016 r.
Medycyna Aborcja bez związku z rakiem piersi (05-12-2013)
Chociaż powszechne przekonanie o tym, jakoby usunięcie ciąży było istotnym czynnikiem zwiększającym ryzyko wystąpienia raka piersi, okazało się być błędne już prawie dekadę temu (wraz z opublikowaniem słynnej metaanalizy w czasopiśmie Lancet w 2004 roku), nadal często można się na nie natknąć w dyskusjach dotyczących medycznych aspektów aborcji. Nic dziwnego, że ten wciąż żywy mit jest obiektem cieszących się nieustającym zainteresowaniem dodatkowych badań i analiz, a poszczególne aspekty zagadnienia nie przestają zajmować lekarzy/naukowców.
Przykładem takiego "doszczegółowiania" jest duńskie prospektywne badanie kohortowe, którego wyniki opublikowano w tym roku w Acta Obstetricia et Gynecologica Scandinavica. Tym razem badacze na warsztat wzięli kobiety po pięćdziesiątce i dodatkowo oceniali ewentualny wpływ relacji czasowych pomiędzy aborcją a wcześniejszymi/późniejszymi ciążami zakończonymi porodem (do analizy włączono kobiety, które rodziły przynajmniej raz - podstawowe ryzyko zachorowania jest tu odmienne niż w przypadku nieródek). Do badania wykorzystano grupę 29 875 kobiet zrekrutowaną w latach 1993-97 w ramach duńskiego badania Diet, Cancer and Health study. W momencie włączenia do programu kobiety były w wieku 50-65 lat i żadna z nich nie chorowała na nowotwór złośliwy, co stanowiło dobry punkt wyjścia do oceny długofalowego ryzyka rzekomo związanego z aborcją. Celem oceny wpływu ewentualnej relacji czasowej pomiędzy zabiegami przerwania ciąży i porodami badane podzielone zostały wg schematu:
Kobiety, które rodziły przynajmniej raz i nigdy nie poddawały się aborcji
Kobiety, które przerywały ciążę po przynajmniej jednym porodzie
Kobiety, u których aborcja poprzedzały późniejsze porody
Dane uwzględnione w szczegółowej analizie to wiek w momencie pierwszego porodu, liczba porodów, ewentualna terapia hormonalna, korzystanie z antykoncepcji hormonalnej, karmienie piersią, wykształcenie, palenie papierosów, konsumpcja alkoholu, BMI, aktywność fizyczna. Ze względu na niezgodność z profilem badania lub brak istotnych danych wyłączono z oceny 4299 uczestniczek - ostateczna liczba badanych wyniosła 25 576. 27% spośród nich przynajmniej raz w życiu usunęło ciążę. Podczas 12 lat trwania badania zdiagnozowano 1215 przypadków raka piersi. Naukowcom nie udało się doszukać żadnego istotnego statystycznie związku pomiędzy przebytymi aborcjami a ryzykiem zachorowania, niezależnie od relacji czasowej pomiędzy zabiegami a ciążami nieprzerwanymi. Próba wyłączenia z analizy którejkolwiek z wymienionych dodatkowych zmiennych również nie wpłynęła znamiennie na rezultat.
Wynik badania pozostaje w zgodności z dotychczasowymi badaniami prospektywnymi zajmującymi się tym tematem - nie notuje się negatywnego wpływu terminacji ciąży na ryzyko zachorowania na raka sutka w przyszłości, nawet w długotrwałej perspektywie.
Cybernetyka i robotyka Roboty antyterrorystyczne na Stadionie Narodowym (27-11-2013)
Na Stadionie Narodowym w Warszawie odbyła się premiera systemu Proteus, wieńcząca 5 lat prac w jednym z największych projektów badawczo-rozwojowych w Polsce. Proteus to ultranowoczesny, zintegrowany system przeznaczony do działań antyterrorystycznych i antykryzysowych. Działania służb mają wspomagać m.in. trzy wielofunkcyjne roboty, samolot bezzałogowy oraz mobilne centrum dowodzenia. System ma być w całości zintegrowany, co jest innowacją w skali światowej.
Projekt realizowany był przez konsorcjum wiodących ośrodków naukowych w Polsce, którym przewodniczy Przemysłowy Instytut Automatyki i Pomiarów.
W celu prezentacji możliwości systemu Proteus na płycie Stadionu Narodowego zainscenizowane zostało zdarzenie kryzysowe, w którym na żywo zaprezentowano poszczególne elementy systemu Proteus. Mały Robot wyposażony w podbierak próbek cieczy, czujnik chemiczny i kamerę wizyjną wykonywały działania rozpoznawcze. Średni oraz Duży Robot zaprezentowały możliwości wykorzystania czujników oraz akcesoriów dodatkowych na robotach. Wszystkie trzy roboty podejmując wspólne działania wspomagały jednostki policji i straży pożarnej w usuwaniu skutków zainscenizowanego wypadku. Całość działań służb koordynowały Mobilne Centrum Dowodzenia oraz Mobilne Centrum Operatorów Robotów, do których spływały dane z jednostek uczestniczących w akcji w celu usprawnienia procesu decyzyjnego, stanowiącego nową jakość w dziedzinie zarządzania kryzysowego na poziomie taktycznym.
Wrześniowy pokaz na Stadionie Narodowym był ukoronowaniem ponad 5 lat pracy nad jednym z największych projektów badawczo-rozwojowych w Polsce (całkowity budżet ponad 68 mln zł), zrealizowanym przez konsorcjum jednostek naukowych pod przewodnictwem Przemysłowego Instytutu Automatyki i Pomiarów PIAP. "Zintegrowany mobilny system wspomagający działania antyterrorystyczne i antykryzysowe - Proteus" stanowi odpowiedź na liczne wyzwania, przed którymi stoją służby odpowiedzialne za bezpieczeństwo obywateli: gwałtowne zjawiska pogodowe, powodzie, a nawet zagrożenia terrorystyczne, chemiczne oraz biologiczne. Realizacja projektu umożliwiła wszystkim podmiotom biorącym w nim udział na wypracowanie nowej unikalnej wiedzy, dzięki której w przyszłości będą mogły skuteczniej współpracować z przemysłem w procesie opracowania innowacyjnych produktów. Wyniki projektu Proteus mogą stanowić podstawę od opracowania konkretnych rozwiązań i produktów, które wspomogą działania służb odpowiedzialnych za bezpieczeństwo publiczne.
Elementy systemu Proteus
Proteus, którego wymagania techniczne i operacyjne zostały zdefiniowane we współpracy
z przyszłymi odbiorcami (Policja, Straż Pożarna, Centra Antykryzysowe), jest jednostką operacyjną złożoną z zintegrowanych elementów, gwarantujących efektywność w praktycznie każdym rodzaju zagrożenia kryzysowego.
Mobilne Centrum Dowodzenia
Mobilne centrum dowodzenia zamontowane na podwoziu samochodu ciężarowego, wyposażone w szereg rozwiązań telekomunikacyjnych i informatycznych, (z wykorzystaniem technik satelitarnych). To tutaj odbywa się przetwarzane i analizowane danych nadchodzących
z pozostałych elementów Proteu¬sa, takich jak samolot bezzałogowy czy roboty.
Najważniejsze cechy centrum:
Samochód pozwalający na rozwinięcie w rejonie akcji nowoczesnego, w pełni autonomicznego stanowiska dowodzenia
System ekspercki, wielokryterialnie analizujący sytuację kryzysową i przedstawiający operatorom i kierującym akcją listę możliwych scenariuszy rozwiązania problemu
Rozwiązania informatyczne zapewniające kierującemu działaniami najlepszą możliwą ocenę sytuacji, włącznie z elementami wirtualnej rzeczywistości
Wspomaganie podejmowania decyzji przez dostęp do zewnętrznych baz danych i systemy eksperckie ułatwiające ocenę i prognozowanie rozwoju sytuacji
Systemy łączności i wymiany informacji zapewniające efektywną współpracę z różnych służb oraz komunikację ze stacjonarnymi stanowiskami kierowania
Samolot Bezzałogowy
Jego zadaniem jest wspomaganie działań w sytuacjach kryzysowych poprzez obserwację, zbieranie danych z zagrożonych obszarów (za pomocą czujników takich jak np. w pełni innowacyjny czujnik płomieni) i przekazywanie ich do Mobilnego Centrum Dowodzenia. Dostarczone informacje usprawniają proces decyzyjny i koordynację służb zaangażowanych w akcję ratunkową. Samolot Bezzałogowy jest jednostką częściowo autonomiczną - dzięki możliwości poruszania się po zadanej wcześniej trasie przelotu, nie wymaga stałej uwagi operatora i przeszkolenia w zakresie pilotażu.
Najważniejsze cechy samolotu:
Rozpiętość skrzydeł: 6,2 m
Długość: 2,85 m
Masa startowa: 70 kg
Czas lotu: 8 h (silnik spalinowy)
Minimalne rozmiary lotniska: 50 x 50 m (start z katapulty, lądowanie na spadochronie)
Zasięg komunikacji: do 50 km
Wyposażony w głowicę optyczną z kamerami światła dziennego (zoom 36x) i termowizji
Mały Robot
Najmniejszy z robotów wchodzących w skład systemu Proteus. Jego podstawową funkcją jest inspekcja trudno dostępnych i potencjalnie skażonych miejsc, gdzie zdrowie i życie osób biorących udział w akcji jest poważnie zagrożone. Mały Robot został wyposażony w szereg urządzeń pozwalających na pobranie próbek do analiz o różnym stanie skupienia i przewiezienie ich do laboratorium w celu dalszej analizy.
Najważniejsze cechy robota:
Innowacyjny, gąsiennicowy układ napędowy umożliwiający poruszanie się w trudnym terenie i wspinanie na przeszkody do wysokości pół metra
Waga robota: 50 kg
Wymiary robota: dł. 97 cm, szer. 58 cm, wys. 30 cm
Możliwość zamontowania na robocie pobieraka próbek gleby, cieczy i gazów
Robot będzie wyposażony w kamery wizyjne oraz termowizyjne
Średni Robot
Średni robot w systemie Proteus łączy funkcje interwencyjne i rozpoznawcze. Gąsienicowy układ napędowy umożliwia poruszanie się w trudnym terenie, również we wnętrzach budynków. Funkcje rozpoznawcze realizowane są dzięki możliwości montażu szerokiego wachlarza czujników, które wchodzą w skład systemu Proteus (np. czujnik materiałów wybuchowych). Funkcje interwencyjne zapewnia wielofunkcyjny manipulator o zasięgu aż 2 metrów i możliwości przenoszenia ładunków o maksymalnym udźwigu 28kg.
Najważniejsze cechy robota:
Układ napędowy umożliwiający poruszanie się w trudnym terenie oraz wspinanie się na krawężniki i schody
Waga robota, ok. 65 kg
Wymiary robota: dł. 100 cm, szer. 60 cm, wys. 50 cm
Robot będzie wyposażony w manipulator o zasięgu 2 m i maksymalnym udźwigu 28 kg
Manipulator robota będzie mógł być wyposażony w narzędzia, np. nożyce do cięcia blachy
Robot będzie wyposażony w kamery wizyjne oraz kamerę termowizyjną
Duży Robot
Robot ten jest największym robotem wchodzącym w skład systemu Proteus. Duża prędkość
i doskonałe właściwości jezdne umożliwiają sprawne i szybkie operowanie na trudnym, nieutwardzonym podłożu. Dzięki odpowiedniej konstrukcji i gabarytom może podnosić
i przewozić ładunki o znacznej masie, nawet do 40kg. Manipulator Dużego Robota służyć może do montażu urządzeń peryferyjnych. Ciekawostką jest możliwość zastosowania prądnicy strażackiej, służącej do gaszenia pożarów czy też antyterrorystycznych zestawów negocjacyjnych.
Najważniejsze cechy robota:
Specjalny rodzaj zawieszenia gwarantujący doskonałe właściwości jezdne w terenie nieutwardzonym i pagórkowatym
Duża prędkość maksymalna, ponad 10 km/h
Waga robota, ok. 300 kg
Wymiary robota: dł. 150 cm, szer. 90 cm, wys. 100 cm
Robot będzie wyposażony w moduł autonomii, który ułatwi operowanie robotem a nawet zastąpi operatora w niektórych sytuacjach
Robot będzie wyposażony w manipulator o wysokiej funkcjonalności, zasięgu 2,5 metra
i udźwigu maksymalnym ok. 40 kg
Wymienna końcówka manipulatora pozwoli na mocowanie różnego rodzaju narzędzi
np. wiertarki lub prądownicy strażackiej
Mobilne Centrum Operatorów Robotów
Na miejsce akcji wszystkie roboty dowiezie Mobilne Centrum Operatorów Robotów, zamontowane na podwoziu samochodu ciężarowego. Ta lekka i mobilna ciężarówka jest wyposażona w sprzęt do szybkiego załadunku i rozładunku robotów, przenośne lekkie konsole operatorów robotów oraz system łączności z centrum dowodzenia w ramach podstawowego stanowiska dowodzenia akcją.
Symulator Robota Mobilnego
Powstały w Zakładzie Automatyki i Osprzętu Lotniczego Politechniki Warszawskiej symulator robota mobilnego pełni funkcję ośrodka szkoleniowego i testowego w systemie Proteus. Dzięki zastosowanym rozwiązaniom wizualizacyjnym, symulator wiernie odtworza środowisko operacyjne robota.
Jedną z najważniejszych funkcji symulatora jest szkolenie operatorów robotów i przygotowanie ich do przyszłych działań operacyjnych w każdych warunkach. Ważnym zadaniem jest również wsparcie prac projektowych i rozwojowych oraz badania symulacyjne obiektów ruchomych.
Podstawowym elementem urządzenia jest półsferyczny ekran, wspierany systemem trójkanałowej wizualizacji. Stanowisko szkoleniowe połączone jest bezpośrednio z panelem operacyjnym instruktora, monitorującego na bieżąco proces szkolenia lub testów.
Nasobne Zestawy Czujników
Nasobne Zestawy Czujników to radiotelefony wyposażone w czujniki lokalizacyjne oraz czujniki monitorujące bezpieczeństwo osób zaangażowanych w akcję - czujnik pulsu, czujnik ruchu, czujnik temperatury i wilgotności otoczenia. Dzięki nim zarówno położenie, jak i warunki pracy ratowników będą przedstawione w formie graficznej na mapie w Mobilnym Centrum Dowodzenia, pozwalając na bezpieczne i efektywne wykorzystanie sił i środków.
Elementy wchodzące w skład Proteusa funkcjonują już w służbach ratowniczych i strukturach militarnych, lecz połączenie ich w jedną, operacyjną jednostkę jest innowacyjne nawet w skali światowej. Tego typu rozwiązania dopiero zaczynają być tworzone na świecie, jednak praktycznie wyłącznie dla potrzeb militarnych. Połączenie istniejących elementów i rozwiązań w zintegrowany system, będący w stanie pełnić różne zadania w zależności od potrzeb, stanowi o wyjątkowości projektu Proteus.
Przemysłowy Instytut Automatyki i Pomiarów PIAP został utworzony w 1965 roku jako państwowa jednostka badawcza, mająca za zadanie wdrażanie najnowszych technologii w różnych gałęziach przemysłu. Obecnie to polski lider m.in. w zakresie automatyzacji i robotyki, którego roboty mobilne z powodzeniem stosowane są od ponad 10 lat w wielu służbach na całym świecie.
Projekt Proteus zrealizowany został dzięki współfinansowaniu ze środków Europejskiego Funduszu Rozwoju Regionalnego w ramach Programu Operacyjnego Innowacyjna Gospodarka na lata 2007-2013. Przemysłowy Instytut Automatyki i Pomiarów PIAP został utworzony w 1965 roku jako państwowa jednostka badawcza, mająca za zadanie wdrażanie najnowszych technologii w różnych gałęziach przemysłu. Obecnie to polski lider m.in. w zakresie automatyzacji i robotyki, którego roboty mobilne z powodzeniem stosowane są od ponad 10 lat w wielu służbach na całym świecie.
Patronat nad wydarzeniem objęli: prof. Barbara Kudrycka, Minister Nauki i Szkolnictwa Wyższego, Elżbieta Bieńkowska, Minister Rozwoju Regionalnego, prof. Krzysztof Jan Kurzydłowski, Dyrektor Narodowego Centrum Badań i Rozwoju.
Astronomia Lem już w kosmosie! Pierwszy polski satelita naukowy (22-11-2013)
W przestrzeni kosmicznej jest już pierwszy polski satelita naukowy "Lem". Kolejny - "Heweliusz" - trafi na orbitę już za miesiąc. - To jeden z najambitniejszych polskich projektów badawczych. Otwiera drogę do uzyskania przełomowych wyników naukowych - podkreśla minister nauki prof. Barbara Kudrycka. Na skonstruowanie satelitów Ministerstwo Nauki i Szkolnictwa Wyższego przeznaczyło ponad 14 mln zł.
"Lem" i "Heweliusz" to tak zwane nanosatelity czyli obiekty o bardzo małych rozmiarach. Zbudowane zostały w ramach programu BRITE-PL przez naukowców z Centrum Badań Kosmicznych PAN i Centrum Astronomicznego im. Mikołaja Kopernika PAN, we współpracy z Uniwersytetem w Wiedniu, Politechniką w Grazu, Uniwersytetem w Toronto i Uniwersytetem w Montrealu. W 2010 r. ich nazwy - "Lem" i "Heweliusz" - wybrali internauci w konkursie zorganizowanym przez Ministerstwo Nauki.
Ważący niecałe 7 kg satelita ma kształt kostki o 20-centymetrowych bokach. Tak niewielkie urządzenia wykorzystywano dotychczas jako obiekty amatorskie i edukacyjne. Tym razem precyzyjna konstrukcja, umieszczona na orbicie na wysokości 800 km, przez kilka lat umożliwi pomiary naukowe 286 najjaśniejszych gwiazd.
Lem wystartował na rosyjskiej rakiecie Dniepr z bazy wojskowej Jasny na południowym Uralu tuż po godzinie 8.10 naszego czasu. Już kilka godzin później możliwe było uzyskanie pierwszego sygnału. Łączność umożliwia stacja kontroli lotów, znajdującą się w Centrum Astronomicznego im. Mikołaja Kopernika PAN (CAMK) w Warszawie. Stąd będą też wysyłane komendy do satelity oraz odbierane dane operacyjne i naukowe misji.
Polscy naukowcy nie mieli jednak dotąd własnego satelity, poza wystrzeloną w lutym 2012 roku studencką satelitą PW-Sat, która jest obiektem edukacyjnym.
Źródło: nauka.gov.pl
Chemia Dream Chemistry Award czeka na naukowców z wizją (08-11-2013)
1. Statuetka Dream Chemistry Award i 15 000 euro czekają na chemika-wizjonera z najciekawszym przyszłościowym projektem badawczym. Konkurs Dream Chemistry Award jest organizowany dla młodych naukowców przez Instytut Chemii Fizycznej Polskiej Akademii Nauk w Warszawie. Źródło: IChF PAN, Grzegorz Krzyżewski.
Instytut Chemii Fizycznej PAN (IChF PAN) w Warszawie przypomina naukowcom, że jeszcze tylko do końca listopada można nominować i zgłaszać kandydatury do konkursu Dream Chemistry Award (DCA) na najciekawszy naukowy projekt-marzenie z zakresu chemii i jej pogranicza z fizyką, biologią, medycyną lub inżynierią materiałową.
Konkurs Dream Chemistry Award jest adresowany do naukowców z całego świata, w wieku przed ukończeniem 36 lat, którzy obronili doktorat w 2006 roku lub później. Na zwycięzcę czeka statuetka, 15 tys. euro oraz możliwość upowszechnienia tematu projektu (w zakresie uzgodnionym z laureatem) w informacji prasowej o rozstrzygnięciu konkursu.
Główna nagroda będzie przyznawana wyłącznie za projekt badawczy dopiero czekający na realizację. Jury zastrzega, że przy wyborze laureata będzie zwracało uwagę także na wcześniejsze dokonania naukowe kandydatów.
W skład Komitetu Honorowego konkursu Dream Chemistry Award wchodzą wybitni chemicy: laureat Nagrody Nobla prof. Richard Schrock (MIT), prof. Krzysztof Matyjaszewski (Carnegie Mellon University) oraz prof. Bartosz Grzybowski (Northwestern University).
Warunkiem przyjęcia zgłoszenia jest nominowanie kandydata przez naukowca z tytułem doktora lub wyższym i przynajmniej 20-letnim stażem w naukach ścisłych/przyrodniczych, liczonym od daty publikacji pierwszej pracy naukowej.
Termin nadsyłania nominacji i zgłoszeń upływa 30 listopada.
Projekty nadsyłane na Konkurs będą oceniane przez Komitet Naukowy składający się ze znanych polskich naukowców zajmujących się chemią, fizyką, biologią, medycyną i inżynierią materiałową. Lista członków Komitetu Naukowego jest jawna i dostępna na stronie internetowej Konkursu.
Członkowie obu Komitetów są pisemnie zobowiązani do zachowania dyskrecji w zakresie tematyki projektów zgłaszanych do konkursu i niewykorzystywania zawartych w nich idei.
Nazwisko laureata oraz tytuł zwycięskiego projektu zostaną upublicznione w informacji prasowej przekazanej do mediów w związku z rozstrzygnięciem Konkursu. Zdobywca Nagrody będzie miał prawo współdecydowania o formie i objętości opisu swego projektu w informacji prasowej, a także prawo do ostatecznej akceptacji tego opisu.
Źródło: Instytut Chemii Fizycznej Polskiej Akademii Nauk.
Chemia Słońce i fotokatalizatory oczyszczą brudną wodę – tanio i szybko (25-10-2013)
1. Fotokatalizatory z Instytutu Chemii Fizycznej Polskiej Akademii Nauk w
Warszawie, wykonane z dwutlenku tytanu z dodatkami żelaza lub chromu i
osadzone na drobinach krzemionki lub zeolitu, skutecznie oczyszczają
wodę z zanieczyszczeń fenolem i celulozą. Na zdjęciu: dr inż. Juan
Carlos Colmenares z IChF PAN. (Źródło: IChF PAN, Grzegorz Krzyżewski)
Do zanieczyszczonej fenolem i celulozą wody wsypujemy odrobinę
odpowiednio przygotowanego proszku. Trochę słońca i po kwadransie
szkodliwe substancje znikają, a proszek można odfiltrować i użyć
ponownie. Brzmi jak bajka? Może, ale to nie magia, lecz umiejętne
wykorzystanie chemii i fizyki przez naukowców z Instytutu Chemii
Fizycznej PAN w Warszawie.
Problemem wielu rejonów świata jest rosnące zanieczyszczenie wód
odpadami przemysłu drzewnego i papierniczego, w tym pochodnymi celulozy
i fenolu. W usuwaniu z wody tego typu substancji mogą w przyszłości
pomóc tanie i łatwe w produkcji fotokatalizatory opracowane przez grupę
dr. inż. Juana Carlosa Colmenaresa z Instytutu Chemii Fizycznej PAN
(IChF PAN) w Warszawie.
Katalizatory to substancje, które uczestnicząc w reakcjach
przyspieszają ich przebieg i (niemal) całkowicie odtwarzają się po ich
zakończeniu. Typowe reakcje z udziałem katalizatorów wymagają temperatur
rzędu kilkuset stopni, a nierzadko także znacznie podwyższonego
ciśnienia.
Fotokatalizatory zaprojektowane w IChF PAN i tu syntezowane mają
znacznie mniejsze wymagania. Do ich aktywacji dochodzi pod wpływem
promieniowania słonecznego lub ultrafioletowego, a właściwa reakcja
chemiczna może przebiegać w temperaturze ok. 30 stopni i przy normalnym
ciśnieniu. Są to warunki występujące naturalnie w wielu miejscach naszej
planety.
Podstawowym elementem nowych fotokatalizatorów jest dwutlenek tytanu z
niewielkim dodatkiem atomów żelaza lub chromu. Wszystkie te materiały są
powszechnie dostępne i tanie. Fotokatalizatory są osadzane na
odpowiednim nośniku - ziarnach krzemionki lub jednej z odmian zeolitów
(glinokrzemianów). Proces osadzania odbywa się z użyciem popularnego
sprzętu laboratoryjnego: wyparki i myjki ultradźwiękowej.
"Pod wpływem ultradźwięków w roztworze z prekursorami dwutlenku tytanu
oraz chromu lub żelaza powstają mikrobąble o wysokim ciśnieniu i
temperaturze. W tych warunkach dochodzi do trwałego osadzenia tych
materiałów na drobinach nośnika", wyjaśnia dr Colmenares.
Tak wytworzone materiały katalityczne z domieszkami chromu lub żelaza
zostały przebadane i szczegółowo scharakteryzowane w Instytucie Chemii
Fizycznej PAN oraz przez grupę prof. Krzysztofa Kurzydłowskiego z
Wydziału Inżynierii Materiałowej Politechniki Warszawskiej.
Jak wygląda oczyszczanie wody za pomocą nowych fotokatalizatorów? W
warunkach laboratoryjnych proces zajmuje zaledwie 15-20 minut i polega
na wsypaniu do wody proszku z fotokatalizatorem. Teraz wystarczy krótka
ekspozycja na promieniowanie słoneczne, by zanieczyszczające wodę
pochodne celulozy lub fenolu zniknęły.
Fotokatalizatory na nośniku z krzemionki okazały się szczególnie
skuteczne w usuwaniu fenolu. Zostaje on w wysokim stopniu utleniony, a
produktami reakcji są woda i dwutlenek węgla. W przypadku nośnika
zeolitowego dochodziło z kolei do rozkładu glukozy (jest ona monomerem,
a więc podstawową "cegiełką" tworzącą łańcuchy polimerowe celulozy). W
wyniku rozkładu powstawały kwasy karboksylowe, glukonowy i glukarowy,
czyli użyteczne substancje, znajdujące zastosowanie m.in. w przemyśle
spożywczym, farmaceutycznym i kosmetycznym.
Co szczególnie ważne, analizy wykonane przez grupę dr. Colmenaresa
jednoznacznie dowodzą, że w trakcie całego procesu oczyszczania ani
atomy chromu, ani żelaza nie uwalniają się do wody.
Po zakończonej reakcji fotokatalizator można łatwo odzyskać. Ponieważ
jest on trwale osadzony na drobinach krzemionki lub zeolitu, a te mają
stosunkowo duże (mikrometrowe) rozmiary, wystarczy w tym celu
przefiltrować wodę. Odzyskany proszek można wykorzystać ponownie, przy
czym kilkukrotne powtórzenie cyklu nie wpływa znacząco na wydajność
pracy katalizatora.
Nowe fotokatalizatory mogą trafić także poza przemysł. Wykonane z nich
pokrycia charakteryzują się wystarczającą odpornością mechaniczną, by
stosować je np. do elementów wyposażenia basenów. W warunkach dobrego
nasłonecznienia woda w tak przygotowanym basenie podlegałaby ciągłemu
samooczyszczaniu.
"Prostota wytwarzania naszych fotokatalizatorów, niskie koszty ich
produkcji oraz łatwość przeprowadzenia reakcji w warunkach naturalnych
to istotne zalety. Ale równie ważny jest fakt, że nasze materiały
pozwalają zatrzymać reakcję utleniania zanieczyszczeń w wodzie na
ustalonym przez nas etapie i otrzymywać substancje ważne dla przemysłu",
podkreśla dr Colmenares.
Badania były finansowane z międzynarodowego grantu reintegracyjnego
Marii Skłodowskiej-Curie w ramach 7. Programu Ramowego Unii Europejskiej
oraz przez Ministerstwo Nauki i Szkolnictwa Wyższego.
Źródło: Instytut Chemii Fizycznej Polskiej Akademii Nauk
Technika Ogrzewanie energią atomową (22-10-2013)
Narodowe Centrum Badań Jądrowych (NCBJ) koordynuje projekt o wartości 2,5 mln euro skupiający 21 partnerów krajowych i zagranicznych. Zbadanie możliwości wykorzystania reaktorów jądrowych do produkcji nie tylko energii elektrycznej ale także ciepła to wyzwanie stojące przed naukowcami. Ich sukces może przyczynić się do zwiększenia bezpieczeństwa energetycznego kraju oraz do redukcji emisji gazów cieplarnianych.
10 października 2013 roku w Warszawie podczas pierwszego spotkania ekspertów z 21 ośrodków naukowych i przemysłowych z całego świata uroczyście zainaugurowano projekt badawczy NC2I-R (Nuclear Cogeneration Industrial Initiative - Research). Celem wspólnego przedsięwzięcia, realizowanego pod egidą Komisji Europejskiej, jest zbadanie możliwości wykorzystania reaktorów jądrowych do kogeneracji.
"Kogeneracja to proces technologiczny polegający na jednoczesnym wytwarzaniu energii elektrycznej i ciepła procesowego w elektrociepłowniach" - tłumaczy mgr inż. Kajetan Różycki z NCBJ - "reaktory jądrowe mogłyby świetnie nadawać się do takiego procesu. Naszym celem jest więc zbadanie tych możliwości i przygotowanie budowy pierwszego demonstratora".
Reaktory jądrowe produkujące energię elektryczną wytwarzają również ciepło. Umiejętne jego wykorzystanie przez np. zakłady chemiczne skutkowałoby zastąpieniem nim w procesie produkcji spalanego gazu ziemnego. Oznaczałoby to nie tylko duże korzyści ekonomiczne ale również znaczne zwiększenie bezpieczeństwa energetycznego kraju.
1. Rdzeń reaktora badawczego Maria w NCBJ (fot. Marcin Sierpiński)
"Proces kogeneracji jest więc nie tylko kluczem do dostarczania taniego ciepła procesowego ale również jest narzędziem do zmniejszenia zależności od importowanych paliw, jak np. gazu czy ropy. Jest więc narzędziem do budowania niezależności energetycznej" - wyjaśnia Tomasz Jackowski, kierownik Zakładu Energetyki Jądrowej NCBJ - "Polska zużywa obecnie około 14 mld. m3 gazu ziemnego rocznie, który w znacznej większości pochodzi z importu. Tylko same zakłady chemiczne zużywają go 15%, więc wydaje się, że byłyby one naturalnymi odbiorcami naszego rozwiązania".
Aby móc wykorzystywać ciepło powstające w reaktorach jądrowych na potrzeby zakładów przemysłowych konieczne jest uzyskanie wyższej temperatury pary. W dużych reaktorach jądrowych para napędzająca turbiny generatorów elektrycznych ma temperaturę około 280oC, a więc prawie dwa razy mniej niż wymagają tego odbiorcy ciepła procesowego. Takie dostarczyć im mogą reaktory wysokotemperaturowe HTR (High Temperature Reaktor). Wdrożenie technologii służącej kogeneracji musi być poprzedzone badaniami naukowymi i powstaniem demonstratora (próbnego urządzenia). Ze względu na to, że NCBJ jest koordynatorem projektu jest prawdopodobne, że taka instalacja powstanie w Polsce.
"Idea kogeneracji szybko zyskała poparcie Unii Europejskiej, która przeznaczyła 1,8 mln euro na prowadzenie badań. Wysoka ocena merytoryczna naszego wniosku oraz przekonanie , że Polska jest najlepszym partnerem do wdrożenia kogeneracji jądrowej zaowocowało powierzeniem nam funkcji koordynatora wszystkich prac. Jestem przekonany, że wspólnie z AGH, Politechniką Warszawską i Śląską oraz naszymi zagranicznymi partnerami staniemy na wysokości zadania" - podkreśla prof. dr hab. Grzegorz Wrochna, Dyrektor NCBJ, członek rady nadzorczej Platformy Technologicznej Zrównoważonej Energetyki Jądrowej (SNE-TP) - "W trakcie prac zajmiemy się przeglądem dostępnych technologii, możliwych lokalizacji i procedurami oceny bezpieczeństwa przyszłych reaktorów. Mamy nadzieję, że pierwszy demonstrator powstanie w Polsce. Wprawdzie z powodu małej mocy elektrycznej nie wpłynie istotnie na nasz bilans energetyczny, ale uczyni Polskę jednym z pierwszych krajów, które będą czerpały korzyści z produkcji i użytkowania nowego typu reaktorów a także pozwoli na większe uniezależnienie się od ropy czy gazu".
Rozpoczęcie projektu NC2I-R zbiega się w czasie z ożywieniem prac w USA nad małymi reaktorami modułowymi SMR. Niektóre z proponowanych modeli mogłyby znaleźć zastosowanie w kogeneracji, dlatego przewidziana jest współpraca zespołu NC2I-R z odpowiednimi inicjatywami amerykańskimi. Po okresie pewnego zastoju w ostatnich dwudziestu latach po obu stronach Atlantyku widać istotne przyspieszenie w rozwoju nowych technologii rektorów jądrowych.
Wydarzenia NCBJ przygotowane do wsparcia programu jądrowego (22-10-2013)
Narodowe Centrum Badań Jądrowych (NCBJ) opublikowało raport o stanie swoich przygotowań do wspierania programu polskiej energetyki jądrowej. Ponad 30-stronicowy dokument wylicza aktualne kompetencje NCBJ w dziedzinie bezpieczeństwa jądrowego i ochrony radiologicznej, analiz zagrożeń, monitoringu radiologicznego, ekspertyz dotyczących pracy reaktorów, badań materiałów i urządzeń dla elektrowni, aż po działania edukacyjne i informacyjne.
Ośrodek jądrowy w Świerku podjął intensywne przygotowania do programu jądrowego już od momentu decyzji rządowej w styczniu 2009 roku. Połączono rozbite jeszcze w stanie wojennym instytuty tworząc Narodowe Centrum Badań Jądrowych zatrudniające ponad 1000 osób. Korzystając ze środków unijnych zaangażowano wielu młodych ludzi, którzy kształcili się intensywnie dzięki współpracy z Międzynarodową Agencją Energii Atomowej, producentami reaktorów i instytucjami badawczymi z innych krajów. NCBJ włączył się też w szereg międzynarodowych programów badawczych, co umożliwiło dostęp do aktualnej wiedzy i najnowszych narzędzi badawczych.
Ponad 30-stronicowy dokument wylicza aktualne kompetencje NCBJ w dziedzinie bezpieczeństwa jądrowego i ochrony radiologicznej, analiz zagrożeń, monitoringu radiologicznego, ekspertyz dotyczących pracy elektrowni, badań materiałów i urządzeń dla elektrowni, aż po działania edukacyjne i informacyjne.
"Często słyszymy obawy, czy zdążymy przygotować kadry do sprawnego wdrażania energetyki jądrowej." - zauważa prof. Grzegorz Wrochna, dyrektor NCBJ - "Zapominamy, że w Świerku od wielu lat nieprzerwanie eksploatujemy reaktory jądrowe. Reaktory badawcze mają wprawdzie znacznie mniejszą moc od reaktorów energetycznych, ale za to są ciągle modernizowane, zmienia się ich konfiguracja, służą różnych eksperymentom. A to oznacza, że nasi specjaliści muszą umieć projektować nowe wyposażenie reaktora, modelować jego zachowanie, przeprowadzać analizy bezpieczeństwa, na bieżąco monitorować pracę reaktora."
Reaktor Maria przechodził gruntowną modernizację w latach 90-tych. Kilka lat temu został przystosowany do produkcji radioizotopów na masową skalę, a obecnie przechodzi na nowy rodzaj paliwa o niskim wzbogaceniu, co wymagało m.in. wymiany pomp. Wszystkie te prace są znakomitym poligonem do kształcenia specjalistów.
Na zlecenie Państwowej Agencji Atomistyki NCBJ obsługuje system wspomagania decyzji w sytuacjach kryzysowych RODOS. Dysponuje kilkoma akredytowanymi laboratoriami, m.in. wzorcowania aparatury dozymetrycznej i utrzymuje Państwowy Wzorzec Jednostki Miary Aktywności Promieniotwórczej Radionuklidów.
NCBJ stał się cenionym partnerem w międzynarodowych projektach związanych z doskonaleniem metod modelowania reaktorów czy pracami nad reaktorami nowych generacji. W tym roku instytutowi powierzono rolę koordynatora w projekcie Euratom NC2I-R poświęconemu kogeneracji jądrowej z udziałem m.in. firm Areva, Fortum, Amec i E.ON.
"Raport przygotowaliśmy na zamówienie Ministerstwa Gospodarki w ramach prac nad programem polskiej energetyki jądrowej." - informuje dyrektor NCBJ - "Chcemy by ośrodek w Świerku oraz wiedza i umiejętności naszych ekspertów były wykorzystywane nie tylko w programach międzynarodowych, ale także na potrzeby naszego kraju."
Medycyna Szczepienie zapewnia długotrwałą ochronę przed ospą wietrzną (24-09-2013)
Jedną z kwestii pojawiających podczas dyskusji na temat szczepień ochronnych jest bardzo często trwałość ochrony przez nie zapewnianej. W ostatnich latach ukazało się kilka prac opisujących tę kwestię dla poszczególnych szczepionek, jedna z najświeższych to chociażby tegoroczna, dokumentująca utrzymywanie się ochronnego stężenia przeciwciał przeciw wirusowemu zapaleniu wątroby typu A nawet przez 17 lat po szczepieniu. W zeszłym miesiącu w prestiżowym czasopiśmie Pediatrics opublikowano zaś wyniki badania oceniającego trwałość seroprotekcji po szczepieniach przeciwko ospie wietrznej.
Szczepienia przeciw ospie wietrznej dla dzieci od 12 miesiąca życia wprowadzono w Stanach Zjednoczonych w 1995 roku, w 2006 wzbogacono schemat szczepień o rekomendowaną drugą dawkę (w wieku 4-6 lat). Obserwacją objęto 7585 dzieci zaszczepionych w latach 1995-2009, w tym wyszczególniono grupę 2826 dzieci objętych od 2006 roku schematem dwudawkowym.
Przed wprowadzeniem szczepionek infekcję wirusem ospy wietrznej-półpaśca (Varicella zoster virus, VZV) przechorowywało ponad 90% populacji do 20 roku życia. We wczesnych latach dziewięćdziesiątych Stany Zjednoczone notowały rocznie nawet do 18000 hospitalizacji z tego powodu i 100-150 zgonów, ospa wietrzna nie zawsze bowiem jest schorzeniem lekkim i niegroźnym. Szczepienia dramatycznie obniżyły ilość podobnych przypadków, a ich skuteczność wraz z wprowadzeniem drugiej dawki preparatu wzrosła do nawet 98%.
Analizę przeprowadzono na podstawie danych zebranych przez liczne ośrodki należące do Kaiser Permanente Northern California (KPNC). Z rodzicami/opiekunami uwzględnionych w badaniu dzieci przeprowadzono dokładne wywiady, poproszono ich również o zgłaszanie podczas trwania badania ewentualnych nowych przypadków infekcji. Zebrane dane porównywano z dostępną literaturą medyczną zbierającą informacje na temat zachorowalności w latach poprzedzających wprowadzenie szczepień. Podczas 14 lat trwania badania zanotowano 1505 przypadków ospy wietrznej, wszystkie nastąpiły przed wprowadzeniem drugiej, przypominającej dawki szczepionki do programu. Po drugiej dawce szczepionki nie zaobserwowano żadnych zachorowań. Infekcja wśród zaszczepionych dzieci miała zazwyczaj łagodny (do 50 wykwitów) przebieg, 24% opisano jako przypadki o umiarkowanym (50-300 wykwitów) przebiegu, u trzydzieściorga dzieci przebieg opisano jako ciężki (>300 wykwitów). Średnia zapadalność wyniosła 15,9/1000 osobolat, co stanowi ok. 1/9-1/10 przypadków oczekiwanych w populacji nieszczepionych dzieci w wieku 1-15 lat. W okresie przed wprowadzeniem szczepień większość zachorowań ponadto kwalifikowała się według przyjętych na potrzeby aktualnego badania kryteriów jako infekcje o ciężkim przebiegu (>300 wykwitów). Jednocześnie podczas całego czasu trwania badania stwierdzono znaczącą, wyraźną tendencję zniżkową - w ostatnim roku zanotowano zachorowalność rzędu 2/1000 osobolat, co można przypisywać z jednej strony wprowadzeniu drugiej dawki szczepionki, z drugiej - powiększaniu się zaszczepionej populacji (odporność grupowa), pokazuje też trwałość zapewnianej przez szczepienie ochrony.
Dodatkowym aspektem opisanego badania była analiza występowania półpaśca (efekt reaktywacji "uśpionego" wirusa VZV, który po przebytej ospie umiejscawia się w zwojach nerwów czuciowych). Badanie obejmuje niestety stosunkowo krótki okres - reaktywacja wirusa może przecież nastąpić na dowolnym etapie życia, zwykle dotyczy też osób starszych, z tego względu jednak do oceny porównawczej wybrano dane archiwalne ograniczone tylko do chorych na półpasiec dzieci. Podczas obserwowanych 14 lat zgłoszono lekarzom KPNC 90 przypadków podejrzenia półpaśca, z czego 46 zostało potwierdzonych, co łącznie daje zachorowalność rzędu 0,45/1000 osobolat (z niewielką tendencją wzrostową na przestrzeni czasu trwania badania, zgodną zresztą z biologią choroby, której prawdopodobieństwo pojawienia się rośnie z wiekiem) - o 40% niższą niż przewidywana dla podobnej wiekowo grupy nieszczepionej.
1. Promieniowanie Czerenkowa w reaktorze Maria. Fot. A. Rumińska, Wikimedia
Jedyny czynny reaktor jądrowy "Maria" znajduje się na terenie NCBJ w Świerku pod Warszawą. Zbudowany przez polskich naukowców i inżynierów obiekt o mocy 30 MW (co plasuje go na piątym miejscu w Europie) i wysokiej gęstości strumienia neutronów termicznych wybudowany został w 1974 roku. Wykorzystywany jest przede wszystkim do celów naukowych, w szczególności prowadzenia specjalistycznych szkoleń, neutrograficznych badań struktur i dynamiki wewnętrznej przedmiotów a także badań materiałów metoda radiografii neutronowej. Reaktor wykorzystywany jest również do domieszkowania materiałów półprzewodnikowych jak również do napromieniania tarcz uranowych służących do wytwarzania radioizotopów niezbędnych w medycynie. Obecnie reaktor jądrowy "Maria" pokrywa prawie 20% zapotrzebowania światowego na molibden-99, zapewniając leczenie w terapii onkologicznej dla 100 000 pacjentów tygodniowo.
W poniedziałek (23.09) i we wtorek (24.09) o godzinie 8.30 i 9.30 spod Muzeum Techniki w Pałacu Kultury i Nauki odjadą specjalne autokary NCBJ. Zabiorą chętnych do Świerku, gdzie będą mogli wejść do jedynego w Polsce reaktora jądrowego. Liczba osób jest ograniczona pojemnością autokaru a o udziale decyduje kolejność zgłoszeń. Jedynym wymogiem jest wiek uczestników (powyżej 15 lat) i posiadanie dokumentu tożsamości ze zdjęciem.
Podczas wycieczki do Świerku eksperci NCBJ oprowadzą uczestników nie tylko po reaktorze ale również zaprezentują Laboratorium Badań Materiałowych, Laboratorium Pomiarów Dozymetrycznych oraz Zakład Aparatury Jądrowej, a także przedstawią perspektywy rozwoju energetyki jądrowej w Polsce.
NCBJ od wielu lat prowadzi szeroką działalność edukacyjną. Każdego roku instytut odwiedza blisko 7000 gości, głównie uczniów klas ponadpodstawowych i nauczycieli nauk przyrodniczych. Wydawane broszury popularno-naukowe i plakaty edukacyjne stają się cenną pamiątką dla osób odwiedzających ośrodek w Świerku. Zorganizowane wystawy przestawiają takie zagadnienia jak: postępowanie z odpadami promieniotwórczymi, budowa i działanie elektrowni jądrowej, a także podstawy przyszłej energetyki termojądrowej. NCBJ prowadzi także Studium Doktoranckie, Studia Podyplomowe, staże i praktyki naukowe a także bierze systematycznie udział w Piknikach i Festiwalach Naukowych w Warszawie oraz innych miastach Polski. Naukowcy realizują obecnie również projekt "Szkoła z przyszłością" mający wpłynąć na poprawę jakości kształcenia przedmiotów ścisłych w szkołach zawodowych i technikach.
Wydarzenia Dawka wiedzy od Narodowego Centrum Badań Jądrowych (17-09-2013)
Podczas zbliżającego się Festiwalu Nauki (20-29 września) Narodowe Centrum Badań Jądrowych promieniować będzie... wiedzą. Każdy kto weźmie udział w wykładach i warsztatach otrzyma porządną dawkę wiadomości. Najbardziej ciekawi będą mogli wejść do reaktora i na własnej skórze przekonać się, że jest to całkowicie bezpieczne.
1. Liczni goście z zaciekawieniem słuchają opowieści o reaktorach (fot. Marcin Sadowski)
Podczas tegorocznego Festiwalu Nauki eksperci NCBJ przybliżą zagadnienia dotyczące promieniowania. Podczas interaktywnych wystaw i warsztatów każdy będzie mógł poznać i zbadać zjawisko radioaktywności, które obecne jest codziennie w naszym życiu. Natomiast podczas wykładów zaprezentowane zostaną jego praktyczne zastosowania - w przemyśle czy medycynie nuklearnej. Niewątpliwie największą atrakcją pośród propozycji naukowców ze Świerku będzie... reaktor.
Każdy z uczestników Festiwalu Nauki będzie mógł usiąść za sterami reaktora jądrowego. 28 i 29 września na Wydziale Biologii UW (ul. I. Miecznikowa 1) przez cały dzień udostępniony będzie jego symulator. Pod opieką doświadczonego pracownika będzie można samodzielnie przeprowadzić rozruch reaktora przekonując się w jaki sposób zapewniona jest bezpieczna jego eksploatacja. Wiedzę tą będzie można uzupełnić podczas wykładu dotyczącego analiz i kodów obliczeniowych. Mówiąc o bezpieczeństwie energetyki jądrowej koniecznie należy poruszyć temat katastrof, jakie zdarzyły się w kilkudziesięcioletniej eksploatacji elektrowni. Warto poznać bezpośrednią przyczynę dwóch z nich cechujących się najwyższą punktacją w międzynarodowej skali zdarzeń jądrowych INES (Czarnobyl i Fukushima).
Natomiast dla najbardziej ciekawskich, jak co roku przygotowana została wycieczka do jedynego reaktora jądrowego w Polsce. Ze względu na ogromną jej popularność NCBJ w tym roku zorganizuje aż cztery grupy. W poniedziałek 23 września dwa autobusy spod Muzeum Techniki w Pałacu Kultury i Nauki zabiorą chętnych o godz. 8:30 i 9:30 - decyduje kolejność zgłoszeń (liczba miejsc ograniczona). Kolejne dwa (w tych samych godzinach) zabiorą uczestników Festiwalu we wtorek, 24 września.
Narodowe Centrum Badań Jądrowych (NCBJ) to jeden z największych instytutów badawczych w Polsce, zatrudniający ponad tysiąc pracowników. Zajmuje się m.in. wspieraniem budowy polskiej energetyki jądrowej, badaniami podstawowymi z dziedziny fizyki subatomowej (fizyka cząstek elementarnych i jądrowa, fizyka plazmy gorącej itp.) oraz stosowaniem metod fizyki jądrowej i produkcją urządzeń dla rozmaitych gałęzi nauki i gospodarki, w tym medycyny. NCBJ posiada jedyny w Polsce reaktor badawczy Maria wykorzystywany do wytwarzania izotopów promieniotwórczych, radiacyjnej modyfikacji materiałów oraz badań na wiązkach neutronów. Ośrodek uczestniczy w międzynarodowych przedsięwzięciach badawczych oraz w pracach nad nowymi technologiami jądrowymi. Urządzenia opracowane w NCBJ będą wdrażane w Parku Naukowo-Technologicznym w Świerku.
Biologia Biolodzy zobaczą więcej – w nowej pracowni mikroskopowej Instytutu Nenckiego (23-08-2013)
Wyjątkowy zestaw przyrządów do mikroskopii świetlnej i elektronowej zaczyna pracę w Centrum Neurobiologii Instytutu Nenckiego. Już wkrótce aparatura pomoże naukowcom lepiej poznać budowę, funkcje i możliwości ludzkiego mózgu.
1. Połączenie konfokalnej mikroskopii fluorescencyjnej z mikroskopią elektronową pozwoli naukowcom z Centrum Neurobiologii Instytutu Nenckiego lepiej zrozumieć budowę i funkcjonowanie komórek i tkanek nerwowych. Na zdjęciu dr Tytus Bernaś z Pracowni Obrazowania Struktury i Funkcji Tkanek. (Źródło: Instytut Nenckiego, Grzegorz Krzyżewski)
Trójwymiarowe odwzorowanie wewnętrznej budowy komórek nerwowych oraz mikroskopowe obserwacje mózgu w żywych organizmach - to tylko niektóre możliwości Pracowni Obrazowania Struktury i Funkcji Tkanek, właśnie uruchomionej w Centrum Neurobiologii Instytutu Biologii Doświadczalnej im. M. Nenckiego w Warszawie. Nowa pracownia powstała w ramach Centrum Badań Przedklinicznych i Technologii CePT i ma charakter środowiskowy i badawczy. Z jednej strony będzie realizowała prace dla naukowców Instytutu Nenckiego i zewnętrznych grup badawczych, z drugiej zajmie się dalszym rozwojem technik obrazowania mikroskopowego.
"W ramach jednego laboratorium udało się nam połączyć wiele technik mikroskopowych, od tych bazujących na analizie praktycznie wszystkich parametrów światła widzialnego po techniki wykorzystujące do obrazowania wiązkę elektronów. Spodziewamy się dzięki temu otrzymywać znacznie pełniejsze obrazy fizjologii komórek i tkanek oraz dokładniejsze obrazy ich struktury. W szególności będziemy mogli na poziomie mikroskopowym zbierać informacje o tym, co się dzieje w żywej tkance nerwowej", mówi dr Tytus Bernaś, kierownik Pracowni.
Badania w Pracowni Obrazowania Struktury i Funkcji Tkanek są prowadzone z użyciem mikroskopii konfokalnej i dwufotonowej, obrazowania czasowo-rozdzielczego, mikroskopii superrozdzielczej oraz korelacyjnej. Na uwagę zasługują zwłaszcza pracujące w tandemie konfokalny mikroskop fluorescencyjny i mikroskop elektronowy. Ten unikatowy w skali kraju zestaw łączy wysoką rozdzielczość, charakterystyczną dla technik obrazowania elektronowego, z bogactwem informacji biologicznej niesionym przez obrazy otrzymywane z użyciem światła. Dodatkową zaletą zestawu jest możliwość automatycznego zobrazowania trójwymiarowej struktury spreparowanych tkanek i komórek. Rozdzielczość przyrządów jest tak duża, że umożliwia obserwację nawet nie tylko całych komórek, ale także struktury wewnętrznej ich części (np. samych jąder komórkowych lub aksonów).
Z uwagi na neurobiologiczny charakter większości badań w Instytucie Nenckiego, ważnym elementem wyposażenia nowej pracowni jest mikroskop przeznaczony do szybkiego obrazowania grubych fragmentów żywej tkanki nerwowej. Naukowcy zyskują dzięki niemu możliwość mikroskopowej obserwacji zmian zachodzących w mózgach myszy i szczurów - i to praktycznie w czasie rzeczywistym. Obserwacje pomogą w badaniach nad plastycznością mózgu, która odgrywa istotną rolę w procesach umysłowych związanych m.in. z uczeniem się, pamięcią, starzeniem poznawczym, chorobami Alzheimera i Parkinsona i odzyskiwaniem sprawności po udarze mózgu.
"W najbliższych miesiącach zakończymy też budowę własnego mikroskopu superrozdzielczego, wykorzystującego optykę adaptatywną do modelowania frontu falowego światła", podkreśla dr Bernaś. Przyrząd, konstruowany we współpracy z grupą prof. Macieja Wojtkowskiego z Instytutu Fizyki Uniwersytetu Mikołaja Kopernika w Toruniu, będzie wykorzystywał samą próbkę, zazwyczaj utrudniającą obrazowanie mikroskopowe, jako dodatkowy element optyczny. W efekcie naukowcy spodziewają się otrzymać lepszą rozdzielczość od tej, na którą pozwala optyka mikroskopu. Do analizy obrazu zostaną użyte własne algorytmy, opracowane przez dr. Błażeja Ruszczyckiego z Instytutu Nenckiego.
Centrum Badań Przedklinicznych i Technologii (CePT), w budowie którego uczestniczy Instytut Nenckiego, to największe przedsięwzięcie biomedyczne i biotechnologiczne w Europie Środkowo-Wschodniej. Budżet projektu wynosi ponad 388 mln zł, w tym 85% to wkład Europejskiego Funduszu Rozwoju Regionalnego. W ramach CePT powstaje zespół powiązanych laboratoriów środowiskowych, integrujących działalność badawczą i wdrożeniową szeregu instytucji naukowych tworzących Centrum Badawcze Ochota. Laboratoria te umożliwią prowadzenie badań podstawowych i przedklinicznych na najwyższym poziomie europejskim w zakresie analizy strukturalnej i funkcjonalnej białek, fizyko-chemii i nanotechnologii biomateriałów, biotechnologii molekularnej, instrumentalnego wspomagania technologii medycznych, patofizjologii i fizjologii, onkologii, genomiki, neurobiologii oraz chorób związanych ze starzeniem.
Instytut Biologii Doświadczalnej im. M. Nenckiego Polskiej Akademii Nauk, utworzony w 1918 roku, jest największym nieuniwersyteckim ośrodkiem badań biologicznych w Polsce. Do priorytetowych dziedzin podejmowanych w Instytucie należą: neurobiologia, neurofizjologia, biologia i biochemia komórkowa oraz biologia molekularna - w skalach złożoności od organizmów tkankowych przez organelle komórkowe do białek i genów. W Instytucie działa 31 laboratoriów, m.in. nowoczesnej Mikroskopii Konfokalnej, Cytometrii Przepływowej i Skaningowej, Mikroskopii Elektronowej, Testów Behawioralnych i Elektrofizjologii. Instytut dysponuje nowoczesną aparaturą badawczą i zmodernizowaną zwierzętarnią, pozwalającą na hodowlę zwierząt laboratoryjnych, także transgenicznych, według najwyższych standardów. Poziom prac eksperymentalnych, publikacje i silne związki z nauką światową plasują Instytut wśród wiodących placówek biologicznych Europy.
Chemia Elektrochemiczny krok ku lepszym magazynom wodoru (14-08-2013)
Nie można opracować dobrych magazynów wodoru z użyciem metali bez
wiedzy, jak pierwiastek ten przez nie przenika. W Instytucie Chemii
Fizycznej Polskiej Akademii Nauk w Warszawie udało się zastosować
wygodną w użyciu metodę elektrochemiczną do badania dyfuzji wodoru w
metalach o dużej reaktywności.
1. Nowa membrana o warstwowej konstrukcji umożliwia - w połączeniu z odpowiednimi metodami pomiarowymi - elektrochemiczne badanie tempa przenikania wodoru w metalach reaktywnych, takich jak magnez. Na zdjęciu dr Arkadiusz Gajek z Instytutu Chemii Fizycznej PAN w Warszawie. (Źródło: IChF PAN, Grzegorz Krzyżewski)
Wodór jest postrzegany jako uniwersalne paliwo przyszłości. Niestety,
pierwiastek ten praktycznie nie występuje na Ziemi w stanie wolnym.
Trzeba więc go najpierw wytworzyć (np. przez elektrolizę wody) i
zmagazynować, by w końcu wykorzystać - najlepiej w ogniwach paliwowych,
które przetwarzają energię chemiczną wprost w elektryczną. Lecz
magazynowanie wodoru to poważny problem. Wady tradycyjnych zbiorników na
gazowy i ciekły wodór zmuszają do poszukiwania innych rozwiązań. Jeden z
obiecujących sposobów magazynowania wodoru wykorzystuje zdolność
niektórych metali i stopów do łatwego pochłaniania tego pierwiastka.
Opracowanie efektywnych magazynów wodoru wymaga jednak dokładnej wiedzy
o jego dyfuzji w metalach.
Przenikanie wodoru przez metale najwygodniej bada się za pomocą metod
elektrochemicznych. Niestety, zawodzą one w przypadku metali, w których
dyfuzja wodoru jest stosunkowo powolna, oraz wtedy, gdy metale silnie
reagują z wodnymi roztworami elektrolitów. Problem w szczególności
dotyczy magnezu i jego stopów, uważanych za jedne z najbardziej
atrakcyjnych materiałów do magazynowania wodoru. "Nam udało się pokonać
tę przeszkodę", mówi prof. dr hab. Tadeusz Zakroczymski, którego zespół
od wielu lat prowadzi w Instytucie Chemii Fizycznej PAN (IChF PAN) w
Warszawie kompleksowe badania nad wnikaniem, dyfuzją i absorpcją wodoru
w metalach.
Aby wprowadzić wodór do wnętrza metalu, można użyć bardzo dużego
ciśnienia. Inna metoda, elektrochemiczna, jest prostsza, lecz równie
skuteczna. "Stosunkowo niewielka gęstość prądu katodowego, rzędu
miliamperów na centymetr kwadratowy, może odpowiadać ciśnieniu gazowego
wodoru rzędu kilkudziesięciu tysięcy atmosfer", wyjaśnia dr Arkadiusz
Gajek (IChF PAN).
O tym, jak wodór dyfunduje w metalach, dowiadujemy się zwykle dzięki
elektrochemicznym pomiarom szybkości jego przenikania przez próbkę,
którą jest membrana rozdzielająca dwa niezależne naczynia
elektrolityczne. Z jednej strony membrana jest ładowana wodorem
wydzielającym się z roztworu wodnego na katodzie. Atomy wodoru wnikają
następnie do membrany, dyfundują przez nią i uchodzą drugą stroną.
Tutaj, dzięki odpowiednim warunkom, nie rekombinują, lecz są natychmiast
utleniane elektrochemicznie do protonów.
Metodami elektrochemicznymi można nie tylko wprowadzać wodór do metalu,
ale także wykrywać atomy wodoru opuszczające membranę. Sposób ten jest
niezmiernie czuły. Łatwy do zmierzenia prąd o gęstości jednego
mikroampera na centymetr kwadratowy oznacza strumień zaledwie ok.
sześciu bilionów (6•10^12) pojedynczych atomów na sekundę na centymetr
kwadratowy.
Zespół prof. Zakroczymskiego skonstruował membranę, która pozwala
elektrochemicznie wprowadzać wodór do metali o dużej reaktywności i -
również elektrochemicznie - go wykrywać. Membrana ma budowę
wielowarstwową. Główną warstwę, będącą konstrukcyjną podstawą membrany,
wykonano z żelaza. Metal ten wybrano, bo atomy wodoru poruszają się
wyjątkowo szybko w sieci krystalicznej żelaza: ich tempo dyfuzji w
temperaturze pokojowej jest porównywalne do tempa dyfuzji jonów
wodorowych w roztworach wodnych. Dlatego warstwa żelazna w małym stopniu
wpływa na szybkość przenikania wodoru przez całą membranę.
Na obie strony żelaznej membrany naniesiono następnie,
elektrochemicznie, cienką warstwą palladu. Tak przygotowane membrany
były kolejno pokrywane magnezem i (w celach ochronnych) ponownie
palladem. Nanoszenie obu pierwiastków wykonano w ramach współpracy z
laboratorium prof. Wen-Ta Tsai z National Cheng Kung University w Tainan
na Tajwanie.
"Mierzona szybkość przenikania wodoru przez wielowarstwową membranę
zależy od dyfuzji wodoru w poszczególnych warstwach. Ponieważ dyfuzja
wodoru w żelazie i palladzie jest dobrze zbadana, znając grubości
poszczególnych warstw można wydedukować, jaki jest współczynnik dyfuzji
wodoru w interesującej nas warstwie magnezu", wyjaśnia prof.
Zakroczymski.
Instytut Chemii Fizycznej Polskiej Akademii Nauk
(http://www.ichf.edu.pl/) został powołany w 1955 roku jako jeden z
pierwszych instytutów chemicznych PAN. Profil naukowy Instytutu jest
silnie powiązany z najnowszymi światowymi kierunkami rozwoju chemii
fizycznej i fizyki chemicznej. Badania naukowe są prowadzone w 9
zakładach naukowych. Działający w ramach Instytutu Zakład Doświadczalny
CHEMIPAN wdraża, produkuje i komercjalizuje specjalistyczne związki
chemiczne do zastosowań m.in. w rolnictwie i farmacji. Instytut
publikuje około 200 oryginalnych prac badawczych rocznie.
Różności Całkiem nowy chleb... prosto z laboratorium (08-08-2013)
Z ziarna pszenżyta można upiec chleb o unikalnym smaku, z dużą ilością błonnika i witamin. Ponieważ wypieka się trudniej niż inne rodzaje pieczywa, to naukowcy nad jego recepturą pracują w laboratorium, tak by udawał się też w piekarniach.
"Polska jest światowym potentatem w uprawie pszenżyta (Polska, przed Niemcami i Francją, jest największym producentem pszenżyta na świecie - przyp. red.) Jest ono jednak wykorzystywane głównie na pasze oraz jako surowiec do produkcji biopaliw. W niewielkim tylko stopniu do celów żywieniowych" - powiedziała PAP dr inż. Anna Fraś z Instytutu Hodowli i Aklimatyzacji Roślin - Państwowego Instytutu Badawczego w Radzikowie.
Na wypracowanie receptury pieczywa pszenżytnio-owsianego o podwyższonej wartości prozdrowotnej otrzymała właśnie grant Narodowego Centrum Badan i Rozwoju. "Podstawowym składnikiem naszego pieczywa będzie przede wszystkim ziarno pszenżyta, które odznacza się bardzo wysokimi właściwościami odżywczymi i funkcjonalnymi" - wyjaśniła.
Pszenżyto i owies są bogatym źródłem substancji bioaktywnych, takich jak błonnik pokarmowy. Dlatego w pieczywie wypiekanym z mieszanki pszenżytnio-owsianej będzie go dużo więcej niż w pieczywie np. z ziarna pszenicy.
"Ziarno owsa, które chcemy dołożyć do chleba, ma unikalne właściwości fizjologiczno-żywieniowe. Charakteryzuje się wysoką zawartością błonnika pokarmowego i wielu innych związków takich jak: polifenole, witaminy, przeciwutleniacze, a także dostępne tylko w owsie antyoksydanty - awentramidy. Jest też bogatym źródłem nienasyconych kwasów tłuszczowych" - opisała rozmówczyni PAP.
Ziarna pszenżyta z dodatkiem np. płatków czy mąki owsianej dadzą zupełnie nowy gatunek pieczywa o wysokich właściwościach prozdrowotnych i bardzo ciekawych walorach smakowych. "Pieczywo pszenżytnie różni się bowiem smakiem od pieczywa pszennego czy żytniego. Trudno opisać wrażenia, ale jest nietypowe i bardzo smaczne" - powiedziała Anna Fraś.
Problem polega na tym, że chleb z pszenżyta znacznie trudniej się wypieka. "Pszenżyto pod względem wartości wypiekowej jest trochę gorsze od pszenicy. Ma +gorszy+ gluten, który jest bardzo ważny w procesie wypieku" - tłumaczy rozmówczyni PAP.
Niektórzy naukowcy podejmowali już próby wypieku pszenżytniego chleba. Dotąd nie opracowano jednak technologicznej metody, umożliwiającej wypiek na szerszą skalę.
Na razie chleb będzie przygotowywany w laboratorium, ale być może w przyszłości jego wypiekiem zajmą się piekarze. "Chcemy opracować taką recepturę wypieku pieczywa i taki skład mieszanek pszenżytnio-owsianych, by można było je wypiekać też w tradycyjnych piekarniach, a nie tylko w laboratorium" - tłumaczy autorka badań.
"Pszenżyto jest bardzo atrakcyjne cenowo, dlatego chciałabym, aby produkty, które stworzymy, były dostępne dla przeciętnego konsumenta. Chcemy by nasz produkt znalazł się w grupie cenowej produktów takich jak chleb, ale trafił na wyższą półkę pod względem jakości" - dodała.
Jak podkreśla rozmówczyni PAP, obecnie panuje moda na różnego rodzaju nowinki kulinarne, pieczywo i produkty o działaniu prozdrowotnym. Na rynku można spotkać szeroką gamę pieczywa prozdrowotnego, które wypiekane jest z różnych gatunków zbóż - najczęściej z pszenicy i żyta. "Gdyby pieczywo pszenżytnie udało się wprowadzić na rynek, to mogłoby stać się wizytówką naszego kraju, ze względu na nasz duży potencjał produkcyjny tego zboża" - powiedziała rozmówczyni PAP.
Projekt Anny Fraś rozpocznie się na początku 2014 roku i jest przewidziany na trzy lata. Dlatego zanim będzie można spróbować pieczywa pszenżytnio-owsianego, lepiej sięgać po pieczywo z pełnego ziarna zbóż. "Zawiera ono całą okrywę owocowo-nasienną, w której znajduje się większość substancji o charakterze prozdrowotnym. Podczas produkcji tradycyjnej białej mąki są one usuwane, natomiast przy produkcji mąki z pełnego ziarna pozostają" - powiedziała Anna Fraś.
Biotechnologia Mikrofluidyczny przełom w biotechnologiach (02-08-2013)
Kolby chemiczne i nieporęczne chemostaty do hodowania bakterii mają
szansę wkrótce trafić do lamusa. Naukowcy z Instytutu Chemii Fizycznej
Polskiej Akademii Nauk w Warszawie jako pierwsi na świecie skonstruowali
układ mikroprzepływowy pozwalający kontrolować łączenie, transport i
dzielenie mikrokropel. Od teraz w jednym układzie można prowadzić
jednocześnie setki różnych hodowli bakterii, co przyspieszy m.in. prace
badawcze nad nowymi antybiotykami.
1. Pierwszy układ mikrofluidyczny zdolny do łączenia, mieszania i dzielenia mikrokropel zbudowano w Instytucie Chemii Fizycznej Polskiej Akademii Nauk w Warszawie. Układ umożliwia prowadzenie różnych hodowli bakterii w różnych mikrokroplach. Część układu, w której dochodzi do łączenia i dzielenia mikrokropel, znajduje się w prawym dolnym rogu płytki. (Źródło: IChF PAN / Grzegorz Krzyżewski)
Nie ma wielkiej przesady w stwierdzeniu, że bez kolby chemicznej chemia
by nie istniała. Chemicy od lat marzyli, by operacje, które tak łatwo
wykonuje się z dużymi ilościami substancji wewnątrz kolb - jak
dolewanie, mieszanie, odlewanie - można było realizować także w
mikroskali. Pierwszy układ mikrofluidyczny zdolny do przeprowadzenia
wszystkich typowych operacji z substancjami chemicznymi został jednak
zaprezentowany dopiero teraz. Urządzenie, skonstruowane przez grupę
naukowców z Instytutu Chemii Fizycznej PAN w Warszawie kierowaną przez
dr. hab. Piotra Garsteckiego, jest tak precyzyjne, że w pojedynczych
mikrokroplach można nie tylko prowadzić ściśle kontrolowane reakcje
chemiczne, ale nawet hodować kolonie bakterii.
Prace naukowe opisujące układ do hodowli bakterii zostały właśnie
opublikowane w jednym z najbardziej prestiżowych czasopism chemicznych,
"Angewandte Chemie International Edition".
Układy mikroprzepływowe są budowane z płytek polimerowych o rozmiarach
porównywalnych do karty kredytowej lub mniejszych. Wewnątrz układów,
przez kanaliki o średnicach rzędu dziesiątych lub setnych części
milimetra, płynie laminarnie ciecz nośna (najczęściej olej), w której
unoszą się mikrokrople właściwych substancji. Za pomocą jednego układu
mikroprzepływowego można przeprowadzić nawet kilkadziesiąt tysięcy
różnych reakcji chemicznych dziennie.
Dotychczasowe układy mikroprzepływowe miały poważną wadę: nie pozwalały
prowadzić i kontrolować długich procesów, wymagających dokonywania
tysięcy operacji na każdej z setek mikrokropel. Ograniczenie
uniemożliwiało m.in. długotrwałą hodowlę mikroorganizmów. Aby zapewnić
bakteriom normalne warunki rozwoju, trzeba przecież w ich otoczenie
regularnie doprowadzać substancje odżywcze oraz usuwać z niego
metabolity.
"Zbudowany przez nas układ mikroprzepływowy jako pierwsze tego typu
urządzenie na świecie pozwala do każdej z setek krążących w nim
mikrokropel dodawać i z każdej pobierać precyzyjnie odmierzoną ilość
płynu", stwierdza dr Garstecki.
Mikroukład z IChF PAN składa się z dwóch odnóg mikrokanałów,
uformowanych w gęste zygzaki. W mikrokanałach może krążyć nawet kilkaset
kropel, w odległości około centymetra jedna od drugiej. Mikrokrople
przemieszczają się wahadłowo z jednej odnogi do drugiej.
"W drodze między odnogami kropelki przepływają przez układ kanałów, w
którym możemy z każdej z nich pobrać odrobinę płynu - lub odrobinę
dodać, zależnie od potrzeb. Jako jedyni potrafimy to zrobić niezależnie
od kierunku ruchu kropli, dzięki odpowiednim zmianom przepływów na
skrzyżowaniach mikrokanałów", wyjaśnia dr Sławomir Jakieła (IChF PAN).
Co ważne, każda z kropel krążących w układzie mikrofluidycznym ma
własny, unikatowy identyfikator, przyporządkowany przez układ
optoelektroniczny. Dzięki temu naukowcy w każdej chwili mają kontrolę
nad tym, jakie operacje przeprowadzono na każdej z mikrokropel.
Możliwość hodowania bakterii w pojedynczych mikrokroplach przez czas
liczony w dziesiątkach i setkach godzin, wymagający wielokrotnej wymiany
pożywki, ma ogromne znaczenie praktyczne dla medycyny. Wiąże się ono z
występowaniem coraz większej liczby lekoopornych szczepów bakteryjnych,
które zaczynają pojawiać się nawet poza szpitalami. Tymczasem
poszukiwania nowych, skutecznych leków przeciwbakteryjnych wymagają
przeprowadzenia nawet dziesiątków tysięcy eksperymentów z antybiotykami
podawanymi w różnych stężeniach. Wykonywane tradycyjnymi metodami,
doświadczenia te trwają bardzo długo i są niezwykle kosztowne.
"Typowe chemostaty do hodowania i badania bakterii mają wielkość
kilkulitrowych bioreaktorów, są więc duże i nieporęczne. Wymagają przy
tym sporej liczby połączeń, mieszadeł, zasilania. Kłopoty sprawia ich
czyszczenie z biofilmów tworzących się na ściankach. W przypadku
hodowania bakterii w naszych mikrokroplach wszystkie te problemy
znikają", mówi doktorant Tomasz Kamiński (IChF PAN).
W pojedynczej mikrokropli może się znajdować nawet ponad sto tysięcy
bakterii. Kluczowy jest przy tym fakt, że bakterie nie są w stanie
przemieszczać się między kropelkami. Na przeszkodzie stają prawa fizyki
(konieczność pokonania błony powierzchniowej mikrokropli) oraz chemia
(ciecz nośna, w której płyną mikrokrople, nie jest środowiskiem
sprzyjającym życiu bakterii).
"Każdą naszą mikrokroplę potrafimy przekształcić w prawdziwy
bioreaktor. W praktyce na jednej małej płytce możemy więc mieć nawet
kilkaset bioreaktorów, w każdym inne, kontrolowane stężenie antybiotyku,
inny antybiotyk, a nawet inny gatunek bakterii", podkreśla dr Garstecki.
Rozwiązania związane z dzieleniem mikrokropel, opracowane przez
naukowców z IChF PAN przy budowie nowego mikroukładu, są objęte
patentami międzynarodowymi.