Naturalne przetwarzanie
Obliczenia naturalne , zwane także obliczeniami naturalnymi , to terminologia wprowadzona w celu objęcia trzech klas metod: 1) tych, które czerpią inspirację z natury w celu opracowania nowych technik rozwiązywania problemów; 2) oparte na wykorzystaniu komputerów do syntezy zjawisk przyrodniczych; oraz 3) te, które wykorzystują naturalne materiały (np. molekuły) do obliczeń. Główne dziedziny badań składające się na te trzy gałęzie to sztuczne sieci neuronowe , algorytmy ewolucyjne , inteligencja roju , sztuczne systemy odpornościowe , geometria fraktalna, sztuczne życie , obliczenia DNA i obliczenia kwantowe .
Paradygmaty obliczeniowe badane przez obliczenia naturalne są abstrahowane od zjawisk naturalnych tak różnorodnych, jak samoreplikacja , funkcjonowanie mózgu , ewolucja darwinowska , zachowanie grupowe , układ odpornościowy , właściwości definiujące formy życia, błony komórkowe i morfogeneza . Oprócz tradycyjnego sprzętu elektronicznego te paradygmaty obliczeniowe można wdrożyć na alternatywnych nośnikach fizycznych, takich jak biomolekuły (DNA, RNA) lub obliczenia kwantowe z uwięzionymi jonami urządzenia.
Dwojako można postrzegać procesy zachodzące w przyrodzie jako przetwarzanie informacji. Takie procesy obejmują samoorganizację , procesy rozwojowe , sieci regulacji genów , sieci interakcji białko-białko , sieci transportu biologicznego ( transport aktywny , transport pasywny ) oraz montaż genów w organizmach jednokomórkowych . Wysiłki mające na celu zrozumienie systemów biologicznych obejmują również inżynierię organizmów półsyntetycznych i zrozumienie samego wszechświata z punktu widzenia przetwarzania informacji. Rzeczywiście, pomysł był nawet wysunięty, że informacja jest bardziej fundamentalna niż materia czy energia. Teza Zuse-Fredkina, datowana na lata sześćdziesiąte XX wieku, głosi, że cały wszechświat jest ogromnym automat komórkowy , który stale aktualizuje swoje reguły. Ostatnio zasugerowano, że cały wszechświat jest komputerem kwantowym , który oblicza swoje własne zachowanie. Wszechświat/natura jako mechanizm obliczeniowy jest rozpatrywany poprzez badanie natury z pomocą idei obliczalności i badanie procesów naturalnych jako obliczeń (przetwarzanie informacji).
Modele obliczeniowe inspirowane naturą
Najbardziej ugruntowanymi „klasycznymi” modelami obliczeń inspirowanymi naturą są automaty komórkowe, obliczenia neuronowe i obliczenia ewolucyjne. Nowsze systemy obliczeniowe wyabstrahowane z procesów naturalnych obejmują inteligencję roju, sztuczne systemy odpornościowe, obliczenia membranowe i obliczenia amorficzne. Szczegółowe recenzje można znaleźć w wielu książkach.
Automaty komórkowe
Automat komórkowy to dynamiczny system składający się z szeregu komórek. Przestrzeń i czas są dyskretne, a każda z komórek może znajdować się w skończonej liczbie stanów . Automat komórkowy aktualizuje stany swoich komórek synchronicznie zgodnie z podanymi a priori regułami przejść . Następny stan komórki jest obliczany na podstawie reguły przejścia i zależy tylko od jej bieżącego stanu oraz stanów jej sąsiadów.
Conway's Game of Life to jeden z najbardziej znanych przykładów automatów komórkowych, który okazał się uniwersalny obliczeniowo . Automaty komórkowe zostały zastosowane do modelowania różnych zjawisk, takich jak komunikacja, wzrost, reprodukcja, konkurencja, ewolucja i inne procesy fizyczne i biologiczne.
Obliczenia neuronowe
Obliczenia neuronowe to dziedzina badań, która wyłoniła się z porównania maszyn liczących i ludzkiego układu nerwowego . Dziedzina ta ma na celu zarówno zrozumienie, jak mózg żywych organizmów (teoria mózgu lub neuronauka obliczeniowa ), jak i zaprojektowanie wydajnych algorytmów opartych na zasadach przetwarzania informacji przez mózg człowieka (sztuczne sieci neuronowe, ANN).
Sztuczna sieć neuronowa to sieć sztucznych neuronów . Sztuczny neuron A funkcję , odbiera n wejść o wartościach rzeczywistych z odpowiednimi wagami i wyprowadza . Niektóre neurony są wybierane jako neurony wyjściowe, a funkcja sieci jest funkcją wektorową, która wiąże n wartości wejściowych z wyjściami m wybrane neurony wyjściowe. Należy zauważyć, że różne wybory wag dają różne funkcje sieciowe dla tych samych wejść. Propagacja wsteczna to nadzorowana metoda uczenia , w której wagi połączeń w sieci są wielokrotnie dostosowywane, tak aby zminimalizować różnicę między wektorem rzeczywistych wyjść a pożądanymi wyjściami. Algorytmy uczące się oparte na wstecznej propagacji błędów mogą być wykorzystane do znalezienia optymalnych wag dla danej topologii sieci i par wejście-wyjście.
Obliczenia ewolucyjne
Obliczenia ewolucyjne to paradygmat obliczeniowy inspirowany ewolucją darwinowską .
Sztuczny system ewolucyjny to system obliczeniowy oparty na pojęciu symulowanej ewolucji. Obejmuje populację osobników o stałej lub zmiennej wielkości, kryterium sprawności i inspirowanych genetycznie operatorów, którzy tworzą następne pokolenie z obecnego. Początkowa populacja jest zwykle generowana losowo lub heurystycznie, a typowymi operatorami są mutacja i rekombinacja . Na każdym etapie osobniki są oceniane zgodnie z zadaną funkcją przystosowania ( przeżycie najlepiej przystosowanych ). Następne pokolenie uzyskuje się od wybranych osobników (rodziców) za pomocą operatorów inspirowanych genetycznie. Wybór rodziców może być kierowany przez operator selekcji, który odzwierciedla biologiczną zasadę doboru partnera . Ten proces symulowanej ewolucji ostatecznie zbiega się w kierunku prawie optymalnej populacji osobników z punktu widzenia funkcji przystosowania.
Badanie systemów ewolucyjnych ewoluowało historycznie wzdłuż trzech głównych gałęzi: Strategie ewolucji zapewniają rozwiązanie problemów optymalizacji parametrów dla parametrów o wartościach rzeczywistych, jak również dyskretnych i mieszanych. Programowanie ewolucyjne pierwotnie miało na celu stworzenie optymalnych „inteligentnych agentów” modelowanych np. jako maszyny o skończonych stanach. Algorytmy genetyczne zastosował ideę obliczeń ewolucyjnych do problemu znalezienia (prawie) optymalnego rozwiązania danego problemu. Algorytmy genetyczne początkowo składały się z wejściowej populacji osobników zakodowanych jako ciągi bitów o stałej długości, mutacji operatorów genetycznych (przerzucanie bitów) i rekombinacji (połączenie przedrostka rodzica z sufiksem drugiego) oraz zależnego od problemu dopasowania funkcjonować. Algorytmy genetyczne były wykorzystywane do optymalizacji programów komputerowych, zwanych programowaniem genetycznym , a dziś są również stosowane do problemów optymalizacji parametrów o wartościach rzeczywistych, a także do wielu rodzajów zadań kombinatorycznych.
Z drugiej strony algorytm szacowania dystrybucji (EDA) to algorytmy ewolucyjne, które zastępują tradycyjne operatory reprodukcji operatorami sterowanymi modelami. Takich modeli uczy się od populacji za pomocą technik uczenia maszynowego i przedstawia w postaci probabilistycznych modeli graficznych, z których można pobierać próbki nowych rozwiązań lub generować je za pomocą krzyżowania z przewodnikiem.
Inteligencja roju
Inteligencja roju , czasami określana jako inteligencja zbiorowa , jest definiowana jako zachowanie polegające na rozwiązywaniu problemów, które wyłania się z interakcji poszczególnych agentów (np. bakterii , mrówek , termitów , pszczół , pająków , ryb , ptaków ), które komunikują się z innymi agentami, działając na ich lokalnych środowisk .
Optymalizacja roju cząstek stosuje tę ideę do problemu znalezienia optymalnego rozwiązania danego problemu poprzez przeszukiwanie (wielowymiarowej) przestrzeni rozwiązań . Początkowa konfiguracja to rój cząstek , z których każda reprezentuje możliwe rozwiązanie problemu. Każda cząsteczka ma swoją własną prędkość która zależy od jego wcześniejszej prędkości (komponent bezwładności), tendencji do najlepszej osobistej pozycji w przeszłości (komponent nostalgii) oraz jego tendencji do optimum globalnego lub lokalnego sąsiedztwa (komponent społeczny). Cząsteczki poruszają się w ten sposób przez wielowymiarową przestrzeń i ostatecznie zbiegają się w kierunku punktu pomiędzy najlepszym wynikiem globalnym a najlepszym osobistym. Algorytmy optymalizacji roju cząstek zostały zastosowane do różnych problemów optymalizacyjnych oraz do uczenia bez nadzoru , uczenia gier i aplikacji do planowania .
W tym samym duchu algorytmy mrówek modelują zachowanie żerowania kolonii mrówek. Aby znaleźć najlepszą ścieżkę między gniazdem a źródłem pożywienia, mrówki polegają na komunikacji pośredniej, wyznaczając ślad feromonowy w drodze powrotnej do gniazda, jeśli znalazły pożywienie, lub odpowiednio śledząc stężenie feromonów, jeśli szukają pożywienia. Algorytmy Ant zostały z powodzeniem zastosowane do różnych problemów optymalizacji kombinatorycznej w dyskretnych przestrzeniach wyszukiwania.
Sztuczne układy odpornościowe
Sztuczne systemy odpornościowe (inaczej obliczenia immunologiczne lub obliczenia immunologiczne ) to systemy obliczeniowe inspirowane naturalnymi systemami odpornościowymi organizmów biologicznych.
Postrzegany jako system przetwarzania informacji, naturalny układ odpornościowy organizmów wykonuje wiele złożonych zadań w sposób równoległy i rozproszony . Obejmują one rozróżnienie między sobą a obcym , neutralizację obcych patogenów ( wirusów , bakterii, grzybów i pasożytów ), uczenie się , pamięć , wyszukiwanie asocjacyjne, samoregulację i tolerancję błędów . Sztuczne systemy odpornościowe są abstrakcjami naturalnego układu odpornościowego, podkreślając te aspekty obliczeniowe. Ich zastosowania obejmują wykrywanie wirusów komputerowych , wykrywanie anomalii w szeregach czasowych danych, diagnostykę usterek , rozpoznawanie wzorców , uczenie maszynowe, bioinformatykę , optymalizację, robotykę i sterowanie .
Obliczenia membranowe
Obliczenia membranowe badają modele obliczeniowe wyodrębnione z podzielonej na przedziały struktury żywych komórek, na którą wpływają membrany . Ogólny system membranowy (system P) składa się z podobnych do komórek przedziałów (regionów) ograniczonych membranami , które są umieszczone w zagnieżdżonej hierarchicznej Struktura. Każdy region otoczony błoną zawiera obiekty, reguły transformacji, które modyfikują te obiekty, a także reguły transferu, które określają, czy obiekty zostaną przeniesione na zewnątrz, czy pozostaną w regionie. Regiony komunikują się ze sobą poprzez transfer obiektów. Obliczenia za pomocą systemu membranowego rozpoczynają się od wstępnej konfiguracji, w której liczba ( krotność ) każdego obiektu jest ustawiona na pewną wartość dla każdego regionu ( multiset obiektów ). Postępuje poprzez wybór, niedeterministycznie iw sposób maksymalnie równoległy , które reguły są stosowane do jakich obiektów. Dane wyjściowe obliczeń są zbierane z a priori obszaru wyjściowego.
Zastosowania systemów membranowych obejmują uczenie maszynowe, modelowanie procesów biologicznych ( fotosynteza , niektóre szlaki sygnałowe , quorum sensing u bakterii, odporność komórkowa ), a także zastosowania informatyczne, takie jak grafika komputerowa , kryptografia klucza publicznego , algorytmy aproksymacji i sortowania , a także analizę różnych trudnych obliczeniowo problemów.
Obliczenia amorficzne
W organizmach biologicznych morfogeneza (rozwój dobrze zdefiniowanych kształtów i struktur funkcjonalnych) jest osiągana poprzez interakcje między komórkami kierowane przez program genetyczny zakodowany w DNA organizmu.
Zainspirowane tą ideą obliczenia amorficzne mają na celu inżynierię dobrze zdefiniowanych kształtów i wzorów lub spójnych zachowań obliczeniowych na podstawie lokalnych interakcji wielu prostych, zawodnych, nieregularnie rozmieszczonych, asynchronicznych, identycznie zaprogramowanych elementów obliczeniowych (cząstek). Celem paradygmatu programowania jest znalezienie nowych technik programowania , które dobrze sprawdzają się w amorficznych środowiskach komputerowych. Przetwarzanie amorficzne odgrywa również ważną rolę jako podstawa „ obliczeń komórkowych ” (patrz tematy biologia syntetyczna i obliczenia komórkowe , poniżej).
Obliczenia morfologiczne
Zrozumienie, że morfologia wykonuje obliczenia, jest wykorzystywane do analizy związku między morfologią a kontrolą oraz do teoretycznego kierowania projektowaniem robotów o zmniejszonych wymaganiach w zakresie kontroli, było wykorzystywane zarówno w robotyce, jak i do zrozumienia procesów poznawczych w organizmach żywych, patrz Obliczenia morfologiczne i .
Obliczenia kognitywne
Obliczenia kognitywne CC to nowy typ obliczeń, zwykle mający na celu modelowanie funkcji ludzkiego zmysłu, rozumowania i reakcji na bodźce, patrz Obliczenia kognitywne i .
Możliwości poznawcze dzisiejszych komputerów kognitywnych są dalekie od poziomu ludzkiego. To samo podejście informacyjno-obliczeniowe można zastosować do innych, prostszych żywych organizmów. Bakterie są przykładem systemu poznawczego modelowanego komputerowo, zob. Eshel Ben-Jacob i Microbes-mind .
Syntetyzowanie natury za pomocą obliczeń
Sztuczne życie
Sztuczne życie (ALife) to dziedzina badań, której ostatecznym celem jest zrozumienie podstawowych właściwości organizmów żywych poprzez budowanie w komputerach elektronicznych lub innych sztucznych mediach systemów ab initio , które wykazują właściwości normalnie kojarzone tylko z organizmami żywymi. Wczesne przykłady obejmują systemy Lindenmayera (systemy L), które były używane do modelowania wzrostu i rozwoju roślin. System L to równoległy system przepisywania, który zaczyna się od początkowego słowa i stosuje swoje zasady przepisywania równolegle do wszystkich liter słowa.
Pionierskie eksperymenty w sztucznym życiu obejmowały projektowanie ewoluujących „wirtualnych stworzeń blokowych” działających w symulowanych środowiskach z realistycznymi cechami, takimi jak kinetyka , dynamika , grawitacja , zderzenia i tarcie . Te sztuczne stworzenia zostały wybrane ze względu na ich zdolności do pływania, chodzenia lub skakania i rywalizowały o wspólny ograniczony zasób (kontrolowanie sześcianu). Symulacja zaowocowała ewolucją stworzeń wykazujących zaskakujące zachowania: niektóre rozwinęły ręce do chwytania sześcianu, inne rozwinęły nogi do poruszania się w kierunku sześcianu. To podejście obliczeniowe zostało następnie połączone z technologią szybkiej produkcji, aby faktycznie zbudować fizyczne roboty, które wirtualnie ewoluowały. Oznaczało to pojawienie się dziedziny mechanicznego sztucznego życia .
Dziedzina biologii syntetycznej bada biologiczną realizację podobnych pomysłów. Inne kierunki badawcze w dziedzinie sztucznego życia obejmują sztuczną chemię , a także tradycyjnie biologiczne zjawiska badane w sztucznych systemach, począwszy od procesów obliczeniowych, takich jak koewolucyjna adaptacja i rozwój, po procesy fizyczne, takie jak wzrost, samoreplikacja i samo-replikacja . naprawa .
Nowatorski sprzęt inspirowany naturą
Wszystkie wymienione powyżej techniki obliczeniowe, choć inspirowane naturą, były dotychczas wdrażane głównie na tradycyjnym sprzęcie elektronicznym . W przeciwieństwie do tego dwa paradygmaty wprowadzone tutaj, obliczenia molekularne i obliczenia kwantowe , wykorzystują radykalnie różne typy sprzętu.
Obliczenia molekularne
Obliczenia molekularne (znane również jako obliczenia biomolekularne, biokomputery, obliczenia biochemiczne, obliczenia DNA ) to paradygmat obliczeniowy, w którym dane są kodowane jako biomolekuły , takie jak nici DNA , a narzędzia biologii molekularnej działają na danych w celu wykonywania różnych operacji (np. operacji arytmetycznych lub logicznych ).
Pierwszą eksperymentalną realizacją komputera molekularnego specjalnego przeznaczenia był przełomowy eksperyment Leonarda Adlemana z 1994 r ., Który rozwiązał 7-węzłowy przypadek problemu ścieżki Hamiltona wyłącznie poprzez manipulowanie niciami DNA w probówkach. Obliczenia DNA rozpoczynają się od początkowego wejścia zakodowanego jako sekwencja DNA (zasadniczo sekwencja nad czteroliterowym alfabetem {A, C, G, T}) i przechodzą przez kolejne biooperacje, takie jak wycinanie i wklejanie ( przez enzymy restrykcyjne i ligazy ), ekstrakcja nici zawierających określoną podsekwencję (za pomocą komplementarności Watsona-Cricka), kopiowanie (za pomocą reakcji łańcuchowej polimerazy , która wykorzystuje enzym polimerazę) i odczyt. Niedawnym badaniom eksperymentalnym udało się rozwiązać bardziej złożone przypadki NP-zupełnych, takie jak 20-zmienna instancja 3SAT , oraz implementacje mokrego DNA maszyn skończonych z potencjalnymi zastosowaniami w projektowaniu inteligentnych leków .
Jednym z najbardziej znaczących wkładów badań w tej dziedzinie jest zrozumienie samoorganizacji . Samoorganizacja to oddolny proces, w którym obiekty autonomicznie łączą się, tworząc złożone struktury. W przyrodzie występuje wiele przypadków, w tym atomy wiążące się wiązaniami chemicznymi, tworząc cząsteczki , oraz cząsteczki tworzące kryształy lub makrocząsteczki . Przykładami tematów badawczych związanych z samoorganizacją są samoorganizujące się nanostruktury DNA, takie jak trójkąty Sierpińskiego lub dowolne nanokształty uzyskane za pomocą origami DNA i nanomaszyny DNA, takie jak obwody oparte na DNA (licznik binarny , skumulowany bitowo XOR), rybozymy do operacji logicznych, przełączniki molekularne (pęsety DNA) i autonomiczne silniki molekularne (chodziki DNA).
Teoretyczne badania obliczeń molekularnych przyniosły kilka nowych modeli obliczeń DNA (np. systemy splicingu wprowadzone przez Toma Heada już w 1987 r.) oraz zbadano ich moc obliczeniową. Obecnie wiadomo, że różne podzbiory operacji biologicznych są w stanie osiągnąć moc obliczeniową maszyn Turinga [ potrzebne źródło ] .
Obliczenia kwantowe
Komputer kwantowy przetwarza dane przechowywane jako bity kwantowe ( kubity ) i wykorzystuje zjawiska mechaniki kwantowej, takie jak superpozycja i splątanie, do wykonywania obliczeń. Kubit może zawierać „0”, „1” lub ich kwantową superpozycję. Komputer kwantowy działa na kubitach z kwantowymi bramkami logicznymi . Dzięki wielomianowemu algorytmowi Shora do rozkładania liczb całkowitych na czynniki i algorytmowi Grovera do przeszukiwania kwantowej bazy danych, który ma kwadratową przewagę czasową, wykazano, że komputery kwantowe mają potencjalnie znaczną przewagę w porównaniu z komputerami elektronicznymi.
Kryptografia kwantowa nie opiera się na złożoności obliczeń , ale na specjalnych właściwościach informacji kwantowej , takich jak fakt, że informacji kwantowej nie można wiarygodnie zmierzyć, a każda próba jej pomiaru skutkuje nieuniknionym i nieodwracalnym zaburzeniem. W 2007 roku zgłoszono udany eksperyment na otwartej przestrzeni w kryptografii kwantowej, w którym dane zostały bezpiecznie przesłane na odległość 144 km. Teleportacja kwantowa to kolejne obiecujące zastosowanie, w którym stan kwantowy (nie materia czy energia) jest przenoszony w dowolnie odległe miejsce. Implementacje praktycznych komputerów kwantowych są oparte na różnych podłożach, takich jak pułapki jonowe , nadprzewodniki , jądrowy rezonans magnetyczny itp. Od 2006 r. W największym kwantowym eksperymencie komputerowym wykorzystywano procesory informacji kwantowego rezonansu magnetycznego w stanie ciekłym i mógł działać na maksymalnie 12 kubity.
Natura jako przetwarzanie informacji
Podwójny aspekt naturalnych obliczeń polega na tym, że mają one na celu zrozumienie natury poprzez traktowanie zjawisk naturalnych jako przetwarzania informacji. Już w latach 60. XX wieku Zuse i Fredkin zasugerowali, że cały wszechświat jest mechanizmem obliczeniowym (przetwarzającym informacje), modelowanym jako automat komórkowy, który nieustannie aktualizuje swoje reguły. Niedawne podejście Lloyda do mechaniki kwantowej sugeruje, że wszechświat jest komputerem kwantowym, który oblicza swoje własne zachowanie, podczas gdy Vedral sugeruje, że informacja jest najbardziej podstawowym budulcem rzeczywistości.
Wszechświat/natura jako mechanizm obliczeniowy jest rozwijany, badając naturę za pomocą idei obliczalności, podczas gdy, w oparciu o ideę natury jako sieci sieci procesów informacyjnych na różnych poziomach organizacji, bada procesy naturalne jako obliczenia ( przetwarzanie informacji).
Główne kierunki badań w tym obszarze to biologia systemowa , biologia syntetyczna i informatyka komórkowa .
Biologia systemów
Obliczeniowa biologia systemów (lub po prostu biologia systemów) to integracyjne i jakościowe podejście, które bada złożoną komunikację i interakcje zachodzące w systemach biologicznych. Tak więc w biologii systemów przedmiotem badań są sieci interakcji i właściwości systemów biologicznych, które powstają w wyniku tych sieci, a nie poszczególne składniki procesów funkcjonalnych w organizmie. Ten rodzaj badań nad składnikami organicznymi skupił się mocno na czterech różnych, współzależnych sieciach interakcji: sieciach regulacji genów, sieciach biochemicznych, sieciach transportowych i sieciach węglowodanów.
Sieci regulacyjne genów obejmują interakcje gen-gen, a także interakcje między genami i innymi substancjami w komórce. Geny są transkrybowane do informacyjnego RNA (mRNA), a następnie tłumaczone na białka zgodnie z kodem genetycznym . Każdy gen jest powiązany z innymi segmentami DNA ( promotorami , wzmacniaczami lub tłumikami ), które działają jako miejsca wiązania aktywatorów lub represorów transkrypcji genów . Geny oddziałują ze sobą albo poprzez swoje produkty genowe (mRNA, białka), które mogą regulować transkrypcję genów, albo poprzez małe cząsteczki RNA, które mogą bezpośrednio regulować geny. Te interakcje gen-gen, wraz z interakcjami genów z innymi substancjami w komórce, tworzą najbardziej podstawową sieć interakcji: sieci regulacyjne genów . Wykonują zadania przetwarzania informacji w komórce, w tym montaż i konserwację innych sieci. Modele sieci regulacyjnych genów obejmują losowe i probabilistyczne sieci boolowskie , automaty asynchroniczne i motywy sieciowe .
Według innego punktu widzenia cały genomowy system regulacyjny jest systemem obliczeniowym, genomowym komputerem . Ta interpretacja pozwala porównać obliczenia elektroniczne wykonane przez człowieka z obliczeniami występującymi w przyrodzie.
Komputer genomowy | Komputer elektroniczny | |
---|---|---|
Architektura | zmienny | sztywny |
Budowa komponentów | w zależności od potrzeb | od początku |
Koordynacja | koordynacja przyczynowa | synchronizacja czasowa |
Rozróżnienie sprzętu i oprogramowania | NIE | Tak |
Media transportowe | cząsteczki i jony | przewody |
Ponadto, w przeciwieństwie do konwencjonalnego komputera, solidność w komputerze genomowym jest osiągana dzięki różnym mechanizmom sprzężenia zwrotnego , dzięki którym słabo funkcjonalne procesy są szybko degradowane, słabo funkcjonalne komórki są zabijane przez apoptozę , a słabo funkcjonalne organizmy są wygrywane przez bardziej sprawne gatunki.
Sieci biochemiczne odnoszą się do interakcji między białkami i wykonują różne zadania mechaniczne i metaboliczne wewnątrz komórki. Dwa lub więcej białek może wiązać się ze sobą poprzez wiązanie ich miejsc interakcji i tworzyć dynamiczny kompleks białkowy ( kompleksowanie ). Te kompleksy białkowe mogą działać jako katalizatory dla innych reakcji chemicznych lub mogą wzajemnie modyfikować się chemicznie. Takie modyfikacje powodują zmiany w dostępnych miejscach wiązania białek. W komórce znajdują się dziesiątki tysięcy białek, które wchodzą ze sobą w interakcje. Aby opisać interakcje na tak ogromną skalę, wprowadzono mapy Kohna jako notację graficzną, aby przedstawić interakcje molekularne na zwięzłych obrazach. Inne podejścia do dokładnego i zwięzłego opisywania interakcji białko-białko obejmują wykorzystanie tekstowego rachunku różniczkowego lub rachunku pi wzbogaconego o cechy stochastyczne.
Sieci transportowe odnoszą się do separacji i transportu substancji, w których pośredniczą błony lipidowe. Niektóre lipidy mogą samoorganizować się w błony biologiczne. Błona lipidowa składa się z dwuwarstwy lipidowej , w której osadzone są białka i inne cząsteczki, które mogą przemieszczać się wzdłuż tej warstwy. Poprzez dwuwarstwy lipidowe substancje są transportowane między wewnętrzną i zewnętrzną stroną błon, aby wchodzić w interakcje z innymi cząsteczkami. Formalizmy przedstawiające sieci transportowe obejmują systemy membranowe i rachunki branowe.
Biologia syntetyczna
Biologia syntetyczna ma na celu inżynierię syntetycznych składników biologicznych, a ostatecznym celem jest złożenie całych systemów biologicznych z ich składników składowych. Historia biologii syntetycznej sięga lat 60. XX wieku, kiedy François Jacob i Jacques Monod odkryli logikę matematyczną w regulacji genów. Techniki inżynierii genetycznej, oparte na rekombinacji DNA , są prekursorami dzisiejszej biologii syntetycznej, która rozszerza te techniki na całe systemy genów i produktów genów.
Wraz z możliwością syntezy coraz dłuższych nici DNA, urzeczywistniła się perspektywa stworzenia syntetycznych genomów w celu zbudowania całkowicie sztucznych syntetycznych organizmów. Rzeczywiście, szybkie składanie zsyntetyzowanych chemicznie krótkich nici DNA umożliwiło wygenerowanie syntetycznego genomu wirusa o długości 5386 pz.
Alternatywnie, Smith i in. znaleźli około 100 genów, które można usunąć pojedynczo z genomu Mycoplasma Genitalium . To odkrycie toruje drogę do złożenia minimalnego, ale wciąż zdolnego do życia sztucznego genomu, składającego się wyłącznie z niezbędnych genów.
Trzecim podejściem do inżynierii komórek półsyntetycznych jest konstrukcja pojedynczego typu cząsteczki podobnej do RNA ze zdolnością do samoreplikacji. Taką cząsteczkę można uzyskać, kierując szybką ewolucją początkowej populacji cząsteczek podobnych do RNA, poprzez selekcję pod kątem pożądanych cech.
Innym wysiłkiem w tej dziedzinie jest inżynieria systemów wielokomórkowych poprzez projektowanie np. modułów komunikacyjnych między komórkami wykorzystywanych do koordynowania populacji żywych komórek bakteryjnych.
Obliczenia komórkowe
Obliczenia w żywych komórkach (inaczej obliczenia komórkowe lub obliczenia in vivo ) to kolejne podejście do zrozumienia natury jako obliczeń. Jedno szczególne badanie w tej dziedzinie dotyczy obliczeniowej natury składania genów w organizmach jednokomórkowych zwanych orzęskami . Orzęski przechowują kopię swojego DNA zawierającą funkcjonalne geny w makrojądrze i kolejną „zaszyfrowaną” kopię w mikrojądrze . Koniugacja dwóch orzęsków polega na wymianie ich mikrojądrowej informacji genetycznej, co prowadzi do powstania dwóch nowych mikrojąder, po czym każdy orzęsek ponownie składa informacje ze swojego nowego mikrojądra w celu skonstruowania nowego funkcjonalnego makrojądra. Ten ostatni proces nazywany jest składaniem genów lub rearanżacją genów. Polega na zmianie kolejności niektórych fragmentów DNA ( permutacje i ewentualnie inwersja) . ) i usuwanie innych fragmentów z kopii mikrojądrowej. Z obliczeniowego punktu widzenia badanie tego procesu składania genów doprowadziło do wielu trudnych tematów badawczych i wyników, takich jak uniwersalność Turinga różnych modeli tego procesu. Z biologicznego punktu widzenia zaproponowano wiarygodną hipotezę dotyczącą „bioware”, które realizuje proces składania genów, w oparciu o rekombinację sterowaną szablonem.
Inne podejścia do obliczeń komórkowych obejmują opracowanie programowalnego in vivo i autonomicznego automatu skończonego z E. coli , projektowanie i konstruowanie komórkowych bramek logicznych in vivo i obwodów genetycznych, które wykorzystują istniejące procesy biochemiczne komórki (patrz na przykład) oraz globalną optymalizację szparki w liściach, zgodnie z lokalnymi regułami przypominającymi automat komórkowy .
Zobacz też
- Inteligencji obliczeniowej
- Komputery inspirowane biologią
- Obliczenia DNA
- Czasopismo Natural Computing
- Obliczenia kwantowe
- Biologia syntetyczna
- Niekonwencjonalne obliczenia
Dalsza lektura
Ten artykuł został napisany w oparciu o następujące źródła za uprzejmą zgodą ich autorów:
- Lila Kari, Grzegorz Rozenberg (październik 2008). „Wiele aspektów naturalnego przetwarzania danych” . Komunikaty ACM . 51 (10): 72–83. doi : 10.1145/1400181.1400200 .
- Leandro Nunes de Castro (marzec 2007). „Podstawy informatyki naturalnej: przegląd”. Recenzje fizyki życia . 4 (1): 1–36. Bibcode : 2007PhLRv...4....1D . doi : 10.1016/j.plrev.2006.10.002 .
Wiele składowych obszarów badawczych informatyki naturalnej ma własne specjalistyczne czasopisma i serie książek. Czasopisma i serie książek poświęcone szerokiej dziedzinie Natural Computing obejmują czasopisma International Journal of Natural Computing Research (IGI Global), Natural Computing (Springer Verlag), Theoretical Computer Science, Series C: Theory of Natural Computing (Elsevier), The Natural Seria książek o informatyce (Springer Verlag) oraz Handbook of Natural Computing (G.Rozenberg, T.Back, J.Kok, Editors, Springer Verlag).
- Grzbiet, E.; Kudenko, D.; Kazakow D.; Curry, E. (2005). „Przenoszenie algorytmów inspirowanych naturą do środowisk równoległych, asynchronicznych i zdecentralizowanych”. Samoorganizacja i autonomiczna informatyka (I) . 135 : 35–49. CiteSeerX 10.1.1.64.3403 .
- Roje i inteligencja roju autorstwa Michaela G. Hincheya, Roya Sterritta i Chrisa Rouffa,
Dla czytelników zainteresowanych artykułem popularnonaukowym, rozważ ten na Medium: Algorytmy inspirowane naturą