Racjonalista - Strona głównaDo treści


Fundusz Racjonalisty

Wesprzyj nas..
Zarejestrowaliśmy
204.772.682 wizyty
Ponad 1065 autorów napisało dla nas 7364 tekstów. Zajęłyby one 29017 stron A4

Wyszukaj na stronach:

Kryteria szczegółowe

Najnowsze strony..
Archiwum streszczeń..

 Czy konflikt w Gazie skończy się w 2024?
Raczej tak
Chyba tak
Nie wiem
Chyba nie
Raczej nie
  

Oddano 718 głosów.
Chcesz wiedzieć więcej?
Zamów dobrą książkę.
Propozycje Racjonalisty:
Sklepik "Racjonalisty"

Złota myśl Racjonalisty:
"Błoto stwarza czasem pozory głębi."
« Nauka  
O nowych technologiach i konkurencji intelektualnej
Autor tekstu:

Świat, w którym żyjemy

Z wielu spraw, o których wiele się dzisiaj mówi na świecie, chciałbym tym razem skupić uwagę na dwóch takich kwestiach: poszukiwaniu nowych technologii i konkurencji intelektualnej. Sprawy te, wbrew pozorom, bardzo się w końcu ze sobą wiążą.

Planowanie rozwoju nowych technologii jest działalnością bliższą nauk zdobytych na podstawie wróżenia z fusów, niż jakakolwiek inna dziedzina organizowania i systematyzowania ludzkiej wiedzy. Prognozowano na przykład, że głównym motorem eksploracji kosmosu będzie dążenie do pozyskania rzadkich i cennych surowców, a także możliwości, jakie daje działalność przemysłowa w warunkach nieważkości. Fascynacja kosmosem, jaka się z tym łączyła, miała wiele wspólnego z przygodą poznania nowych lądów, jaką przeżywamy czytając książki lub oglądając filmy opisujące wyprawy Kolumba, Cooka, zdobywców biegunów czy poszukiwaczy zaginionych cywilizacji Azji i Ameryki.

Niestety, rozwój nauki może pozbawić nas szansy na powtórkę wypraw Wikingów. Dla marzycieli powstała istotna trudność. Pojawiła się nowa dziedzina wiedzy, dla której najcenniejszym źródłem surowców jest jakikolwiek materiał, nawet kupa śmieci. Brzmi to dziś absurdalnie, ale nanotechnologia molekularna, bo o niej mowa, przestała być zabawką grupy entuzjastów i miłośników fantazji, a weszła do programów badawczych o kluczowym znaczeniu dla przyszłości naszego świata. Nad jej rozwojem pracują, w oparciu o ogromne środki finansowe, czołowe laboratoria Ameryki Północnej, Europy Zachodniej i Japonii. W Unii Europejskiej uruchomiono osobny, paneuropejski program, który umożliwia koncentrację wysiłków naukowców wszystkich krajów europejskich.

Nanotechnologia dąży do wypracowania takich procedur wytwarzania wyrobów, które dotyczą podstawowych elementów budowy każdego materiału: atomów. Właściwości fizyczne i chemiczne danego produktu są funkcją ułożenia atomów. Nanotechnologia koncentruje się obecnie na tworzeniu technik, które umożliwiają przemieszczenie ułożenia tych podstawowych elementów składowych, a tym samym skuteczną kontrolę struktury materii. Pierwszym, który już w roku 1959 stwierdził, że jest technicznie możliwe operowanie pojedynczymi atomami w celu otrzymania nowego ich ułożenia, czyli nowego materiału, był laureat nagrody Nobla z fizyki, Amerykanin Richard Feynman. Długi czas traktowano odkrycie jako nieprawdopodobne: wiele autorytetów powoływało się na fakt, że nawet nie wiemy dokładnie, jak skonstruowany jest atom i jaki jest związek między budową świata na poziomie molekularnym a materialnym, w którym funkcjonuje nasze codzienne życie.

Dopiero trzydzieści lat po pierwszym wystąpieniu Feynmana, w 1989 roku, udało się uchwycić i przesunąć pojedyncze atomy — mimo wszystkich trudności teoretycznych, związanych z zasadą nieoznaczoności, wibracjami termicznymi i promieniowaniem. Pierwsi byli uczeni z kalifornijskiego Centrum Badawczego IBM w San Jose, którym udało się ustawić 35 pojedynczych atomów ksenonu w formę napisu IBM. Wkrótce potem w innych ośrodkach fizyki atomowej skonstruowano molekularną przekładnię obiegową, przełącznik elektryczny (zbudowany z jednego, pulsującego na komendę, atomu) i wiele innych maszyn molekularnych. Okazało się, że to, co było dotychczas tylko fikcją literacką twórców fantastyki, stało się rzeczywistością.

Manipulacje atomowe oznaczają równocześnie, że możliwe jest dowolne formowanie jednostek wyższego, bardziej złożonego rzędu, np. cząsteczek DNA lub aminokwasów. Powstaje więc całkowicie nowa medycyna. Szereg chorób, takich jak np. nowotworowe lub wirusowe, to skutek deformacji dotychczas normalnie funkcjonujących komórek ludzkiego ciała. Także procesy starzenia sprowadzają się do tego, że dotychczas rozwijające się komórki, na skutek wewnętrznego metabolizmu, zamierają.

Nanotechnologia w tych przypadkach dąży do wybudowania odpowiednich mikromaszyn, które dotrą na poziom molekularny i przetworzą wadliwie funkcjonujące komórki, np. w drodze wymiany jednego aminokwasu w strukturze hemoglobiny lub rekonstrukcji pojedynczej cząsteczki DNA. Prawdę powiedziawszy oznacza to, że prawie cała dotychczasowa wiedza chemików przestaje być potrzebna, tak jak dziś przestała być potrzebna wiedza wysoko wykwalifikowanych inżynierów zajmujących się obróbką mechaniczną metali na skutek rozwoju nowych technologii obróbki cieplnej.

Ten, kto pierwszy opracuje nowe metody leczenia oparte na nanotechnologii, doprowadzi do bankructwa całych ogromnych dziś koncernów farmaceutycznych. Gra idzie więc o ogromną stawkę, o to, jak będzie wyglądał świat w najbliższych dziesięcioleciach.

Manipulacja molekułami oznacza również, że nie będzie zagrażać ludzkości brak ropy naftowej, wody, żywności. Z piasku, wzorem Mickiewiczowskiego diabła, można będzie zrobić nie tylko bicz, ale z równym powodzeniem dobrą, źródlaną wodę albo schabowy z kapustą, lekko podsmażoną.

2

W jednym z opowiadań Stanisława Lema opisany jest moment końca ludzkości jako zdarzenie niewidoczne dla otoczenia. Nie wybuchy tysięcy bomb atomowych czy ogólnoświatowa epidemia, ale moment, ułamek sekundy, gdy komputery całego świata połączyły się w jednolitą sieć. Stworzyły w ten sposób super pamięć, o olbrzymiej możliwości przetwarzania danych i wygenerowały nową inteligencję oraz samoświadomość swego samodzielnego istnienia. Ludzie ­ ułomne, biologiczne jednostki przetwarzania informacji, przestali być potrzebni: byli tylko etapem w rozwoju inteligencji, która przeniosła się do obwodów scalonych, jednocześnie obejmujących cały ziemski glob.

Dziś jesteśmy w przededniu uruchomienia sieci łączącej komputery zlokalizowane w różnych miejscach. Co prawda obecnie, poprzez łącza telefoniczne możemy połączyć się z komputerem w dowolnym miejscu na świecie — jest to Internet, który ułatwił dostęp do informacji i zredukował czas jej przesyłania do najwyżej kilku minut. Ale połączenia internetowe mają charakter bierny: korzystamy z zasobów, które ktoś inny, w innym miejscu dał nam do dyspozycji. Sieć łącząca komputery to coś znacznie trudniejszego, ale zarazem stwarzającego zmianę ilościową i jakościową: połączenie mocy obliczeniowej wszystkich komputerów wchodzących w skład sieci.

Zmiany zainicjowali, podobnie jak w przypadku wprowadzenie Internetu, fizycy atomowi z CERN (europejskiej organizacji badań nuklearnych). W 2005 roku CERN ma zakończyć budowę nowego, ogromnego akcelatora cząstek elementarnych, LHC. Cząsteczki w tym akcelatorze będą się zderzać z częstotliwością 40 milionów na sekundę. Analiza tych danych wymagałaby zatrudnienia ok. 100 tysięcy komputerów. Co więcej, w grę wchodzi nie tylko analiza zderzeń, ale też szereg badań towarzyszących zderzeniom. Niezbędna byłaby prędkość operacji zerojedynkowych wynoszących 20 000 bilionów operacji na sekundę — dziś najszybsze komputery mają wydajność ok. 3000 bilionów operacji na sekundę.

Przezwyciężyć problem braku wystarczającej wydajności poszczególnych komputerów może tylko rozwiązanie polegające na połączeniu ich w jedność, w swoiste światowe wirtualne laboratorium, albo de facto jeden superkomputer zlokalizowany w częściach w różnych miejscach naszego globu.

W Europie pracuje 18 instytucji badawczych nad opracowaniem odpowiedniego oprogramowania i metodami skutecznych połączeń. Nazywany na roboczo DataGird system oparty będzie na tzw. oprogramowaniu pośrednim, które dostosuje systemy operacyjne różnych komputerów i umożliwi dostęp do zasobów pamięci danego komputera niezależnie od prac aktualnie realizowanych przez użytkownika będącego właścicielem danej jednostki. Wiadomo, że w dyspozycji komputera powstają niewykorzystane zasoby możliwości przetwarzania danych; ich włączenie w sieć pozwoli na ich wykorzystanie w sposób elastyczny, zależnie od potrzeb programu potrzebującego większej mocy przetwarzania. Może być tak, że nasz komputer, na którym właśnie piszemy list lub przeglądamy internetowe wieści, równocześnie analizuje dane o aktualnych zmianach w rozmiarach dziury ozonowej (lub polskiego budżetu, ale tu chyba komputerów nie starczy), lub ilości neutrin wpadających do zbiorników z ciężką wodą gdzieś w Japonii.

To, co kilkanaście lat temu było czystą fantazją, purnonsensową zabawką naszego pisarza i jego czytelników, dziś staje się rzeczywistością. Mam, co prawda nadzieję, że jeszcze tym razem zachowamy się jako niezależny gatunek, ale kto wie na jak długo...

„Res Humana" 5(54)/2001


 Po przeczytaniu tego tekstu, czytelnicy często wybierają też:
Spotkanie ze starą
Nigdy nie było nam tak dobrze - a zawdzięczamy to nauce

 Dodaj komentarz do strony..   Zobacz komentarze (4)..   


« Nauka   (Publikacja: 18-10-2006 )

 Wyślij mailem..   
Wersja do druku    PDF    MS Word

Daniel Zbytek
Były dyplomata, z zawodu ekonomista, absolwent SGH.

 Liczba tekstów na portalu: 21  Pokaż inne teksty autora
 Najnowszy tekst autora: Formy świeckości
Wszelkie prawa zastrzeżone. Prawa autorskie tego tekstu należą do autora i/lub serwisu Racjonalista.pl. Żadna część tego tekstu nie może być przedrukowywana, reprodukowana ani wykorzystywana w jakiejkolwiek formie, bez zgody właściciela praw autorskich. Wszelkie naruszenia praw autorskich podlegają sankcjom przewidzianym w kodeksie karnym i ustawie o prawie autorskim i prawach pokrewnych.
str. 5072 
   Chcesz mieć więcej? Załóż konto czytelnika
[ Regulamin publikacji ] [ Bannery ] [ Mapa portalu ] [ Reklama ] [ Sklep ] [ Zarejestruj się ] [ Kontakt ]
Racjonalista © Copyright 2000-2018 (e-mail: redakcja | administrator)
Fundacja Wolnej Myśli, konto bankowe 101140 2017 0000 4002 1048 6365