Gdybyśmy się dowiedzieli, że kable prowadzące do naszego komputera działają jak procesory, bylibyśmy zdumieni. Ale właśnie czegoś takiego w swojej działce dowodzą biolodzy badający neurony

Zacznijmy od dogmatu, który obowiązywał dotąd w biologii. Neuron jest prostym przekaźnikiem sygnałów elektrycznych w układzie nerwowym zwierząt. Przypomina swoją budową drzewo. Wypustki neuronu zwane dendrytami zbierają wspomniane sygnały. Pod wpływem wystarczająco silnego bodźca, czyli gdy zebrane przez dendryty napięcie przekroczy pewien próg, wzbudza się potencjał (przez wypustkę zwaną aksonem trafia do połączenia między komórkami, czyli synaps, skąd może trafić do kolejnego neuronu). Gdy napięcie w neuronie nie przekracza pewnego progu, po prostu wygasa. Neuron zbiera więc elektryczne sygnały i działa jak rodzaj najprostszej bramki logicznej.

Tyle że to nieprawda.

Podważanie dogmatu

Dowody na to, że jest inaczej, pojawiały się w biologii od lat, a badanie opublikowane w „Science” na początku tego roku to potwierdza. Ale po kolei.

Prosty obraz neuronu: wejście – pobudzenie lub wygaszenie – wyjście utrzymywał się przez ponad pół wieku. Jak mówi Bartlett Mel (neurobiolog obliczeniowy z University of South California) portalowi Quanta, głównie dlatego, że naukowcy nie mieli narzędzi, żeby móc przeprowadzać eksperymenty na pojedynczych neuronach, nie mówiąc o ich częściach.

Jednym z pierwszych badaczy, którzy zakwestionowali ten stan wiedzy, był neurobiolog Gordon Shepherd. W latach 70. ubiegłego wieku dowiódł, że dendryty, wówczas uważane tylko za przewody dostarczające sygnały, wpływają na pracę całego neuronu w bardziej złożony sposób (jego szeroko cytowany podręcznik „Synaptic Organization of the Brain” doczekał się pięciu wydań).

Najnowsze odkrycie może oznaczać, że nawet pojedynczy neuron może wykonywać skomplikowane zadania, na przykład rozpoznawać obiekty

Dopiero niedawno naukowcy zdobyli możliwości techniczne (i obliczeniowe), żeby zaglądać w głąb pojedynczych komórek nerwowych. Na początku ubiegłej dekady na podstawie analizy aktywności elektrycznej neuronów stwierdzono, że pojedynczy neuron zachowuje się nie jak prosty element obliczeniowy, ale jak złożona dwuwarstwowa sieć neuronowa. Badacze stawiali wtedy hipotezę, że dendryty mogłyby stanowić pierwszą warstwę takiej sieci, soma zaś – czyli główna część neuronu – drugą.

Dwa lata temu zaś udowodniono, że dendryty są znacznie bardziej aktywne niż same neurony. Przez dekady umykało to badaczom, bowiem w neuronach napięcie powstaje dzięki zmianom stężenia jonów sodu i potasu, a w dendrytach – głównie jonów wapnia. Okazało się, że aktywność dendrytów jest nawet dziesięciokrotnie większa niż samych neuronów, co oznaczałoby, że nasze mózgi są dziesięciokrotnie bardziej wydajne obliczeniowo, niż do tej pory sądzono. Naukowcy stwierdzili wtedy też, że to raczej w dendrytach zachodzi mechanizm wzmacniania sygnału, czyli uczenia się.

Okablowanie czy obliczanie

Trzeba przyznać, że były to twierdzenia odważne, jeśli nie obrazoburcze. Skoro dendryty mają własną aktywność i przetwarzają informacje, to pojedynczy neuron stanowi mikrosieć neuronową sam w sobie. Neurony wyposażone w jeden dendryt, choć występują w układzie nerwowym, są rzadkie. Przeciętnie takich przewodów prowadzących do somy neuronu jest kilka. Ale w szczególnie rozwiniętej u ludzi korze mózgowej pojedynczy neuron może mieć ich nawet setkę.

W takich eksperymentach badano mózgi laboratoryjnych gryzoni. W niedawnym badaniu naukowcy z Uniwersytetu Humboldta w Berlinie postanowili natomiast zbadać neurony ludzkie. W tym celu analizowali próbki pobrane z kory mózgowej, usunięte przy okazji operacji neurologicznych (w dwu różnych schorzeniach, by wykluczyć ich wpływ na aktywność dendrytów) i mierzyli potencjał elektryczny dendrytów. To właśnie wyniki ich badań opublikował w pierwszych dniach tego roku tygodnik „Science”.

Badacze potwierdzili aktywność dendrytów. I jednocześnie odkryli, że przebiega ona zupełnie inaczej niż w głównej części neuronów. Tam sygnał musi przekroczyć pewną progową wartość, by został przekazany dalej. W dendrytach nie ma progu pobudzenia. A co najciekawsze, im silniejsze pobudzenie dendrytu, tym słabszy w nim sygnał (i odwrotnie, im słabszy sygnał, tym silniejsze pobudzenie dendrytu). Dopiero kilka sygnałów z dendrytu pobudza neuron do działania.

Dopiero niedawno naukowcy zdobyli możliwości techniczne (i obliczeniowe), żeby zaglądać w głąb pojedynczych komórek nerwowych

Te odkrycia pokazują, że dendryty nie są tylko okablowaniem, doprowadzającym do neuronu napięcie. Wszystko wskazuje na to, że również przetwarzają sygnały. To tak, jakbyśmy ze zdziwieniem odkryli, że przewody zasilające procesor w komputerze również przetwarzają dane.

Autorzy badań poszli krok dalej i postanowili odtworzyć aktywność dendrytów w komputerowym modelu. Okazało się, że dendryty działają jak bramki logiczne XOR (patrz ramka na dole tekstu). Wykonanie takiej operacji logicznej jest teoretycznie niemożliwe ani przez pojedynczy neuron, ani nawet przez ich sieć złożoną z pojedynczej warstwy. Może to wykonać dopiero sieć złożona z przynajmniej dwóch warstw.

Komentujący pracę naukowcy uważają, że może to oznaczać, że nawet pojedynczy neuron może wykonywać skomplikowane zadania, na przykład rozpoznawać obiekty. „Sądzę, że dopiero odkrywamy wierzchołek tego, co potrafią neurony”, mówi portalowi Quanta główny autor opublikowanej w „Science” pracy, Albert Gidon.

Dendryty stanowią nawet 95 procent powierzchni komórek neuronów w korze mózgowej, tłumaczy z kolei dr Michael Häusser z University College London portalowi Gizmodo. Twierdzi, że dalsze badania na gryzoniach mogą przynieść odpowiedź, czy aktywność elektryczna dendrytów odgrywa jakąś rolę w tym, że ludzkie mózgi są wyjątkowe.

Głupie neurony i „zima sztucznej inteligencji”

Te odkrycia z obszaru biologii układu nerwowego mogą mieć skutki także dla informatyki i sztucznej inteligencji. Sztuczne sieci neuronowe powstawały z inspiracji budową mózgu w czasach, gdy neurony były uważane za proste elementy obliczeniowe. Teraz wiadomo, że pojedynczy neuron sam w sobie stanowi mikrosieć i jest ona raczej dendrytowa niż neuronowa.

Sztuczna inteligencja miała swoje okresy „zimy”, kiedy entuzjazm naukowców opadał, a w badaniach panowała stagnacja. Jednym z powodów była praca pionierów SI Marvina Minsky’ego i Seymoura Paperta z 1969 roku, w której dowiedli, że sieć neuronowa złożona z pojedynczej warstwy nie jest w stanie wykonać operacji XOR. Był to ważny dowód dotyczący ówczesnych pierwszych sieci neuronowych (perceptronów), bowiem dopiero taka operacja logiczna pozwala wykrywać sekwencje i korelacje (a ściślej – wykrywać je w nieliniowych zbiorach danych). Teraz, jak sugerują biologowie, okazuje się, że potrafi to pojedynczy neuron.

Dzisiejsze sieci neuronowe radzą sobie na przykład z rozpoznawaniem obrazów, bo składają się z wielu warstw. Ale by móc się czegokolwiek nauczyć, potrzebują niezmiernie wielu opisanych przykładów. Ludzkie dzieci (i potomstwo zwierząt) uczą się znacznie szybciej na znacznie mniejszej liczbie przykładów. Dziecku wystarczy kilka razy pokazać konia na zdjęciu i rozpozna go na łące, w koniu na biegunach i rysunku, nawet gdy będzie bardzo uproszczonym szkicem. Żadna sieć tego wszystkiego naraz jeszcze nie potrafi. W ubiegłym roku w „Nature Communications” neurobiolog Anthony Zador zastanawiał się, czy sekret lepszej sztucznej inteligencji kryje się w budowie naszych mózgów. Zapewne nie przypuszczał, że kryje się też w budowie pojedynczych neuronów.

Sztuczna inteligencja dziś jeszcze nie spełnia pokładanych w niej nadziei. Być może sieci neuronowe zaczną działać lepiej – będą potrzebować mniej przykładów, uczyć się bez nadzoru, staną się też bardziej wszechstronne, jeśli zbuduje się je z elementów przypominających działaniem neuron, biorąc pod uwagę jego rzeczywiste możliwości obliczeniowe. Ale to oznacza tworzenie sieci neuronowych z mikrosieci neuronowych

Amerykański kognitywista, który od lat polemizuje z przesadzonym obrazem myślących maszyn, Gary Marcus, komentuje dla Quanta, że być może to najnowsze odkrycie wyjaśnia kwestię, jak skomplikowane zdolności poznawcze powstają z „głupich” neuronów. Po prostu nie są one głupie.

Bramki logiczne

To podstawowe elementy wykonujące obliczenia, na przykład w układach scalonych. W bramce typu AND sygnał na wyjściu pojawia się tylko wtedy, gdy pojawia się na obydwu wejściach. W bramce typu OR – gdy jest sygnał na dowolnym z dwu wejść lub obydwu naraz. Bramki typu NOT, mają jedno wejście i wyjście – sygnał na wyjściu pojawia się, gdy na wejściu go nie ma (i odwrotnie). Bramki typu XOR zaś dają sygnał na wyjściu tylko wtedy, gdy sygnał pojawia się na jednym (i tylko jednym) z wejść (gdy pojawia się na obydwu, milczą). Dopiero takie bramki logiczne mogą służyć do porównywania dwóch zestawów sygnałów i wykrywania korelacji.

Istnieją również bramki będące kombinacjami dowolnej bramki i bramki NOT, np. NANDNOR. Z logiki formalnej wynika, że można z nich zbudować każdą dowolną bramkę i w praktyce to z tak działających elementów buduje się układy scalone.

Sieci neuronowe buduje się zwykle z wirtualnych bramek zbudowanych na wzór klasycznego modelu działania neuronu – w nich każdy węzeł sieci (odpowiednik neuronu) zbiera sygnał z dwu lub więcej węzłów i jeśli suma przekracza pewien próg, przesyła dalej (zwykle mnoży go przez pewną wartość, zwaną wagą).

Skip to content