Ramy przewidywania pamięci - Memory-prediction framework

Ramy pamięci przewidywania jest teorią mózgu funkcji utworzonej przez Jeff Hawkins i opisane w jego książce 2004 inteligencji . Teoria ta dotyczy roli kory nowej ssaków i jej powiązań z hipokampem i wzgórzem w dopasowywaniu bodźców sensorycznych do zapisanych wzorców pamięci oraz tego, w jaki sposób proces ten prowadzi do przewidywania tego, co wydarzy się w przyszłości.

Przegląd

Teoria jest motywowana obserwowanymi podobieństwami między strukturami mózgu (zwłaszcza tkanką kory nowej ), które są wykorzystywane do szerokiego zakresu zachowań dostępnych dla ssaków. Teoria zakłada, że ​​niezwykle jednorodne fizyczne rozmieszczenie tkanki korowej odzwierciedla jedną zasadę lub algorytm, który leży u podstaw całego przetwarzania informacji korowej. Przypuszcza się, że podstawową zasadą przetwarzania jest pętla sprzężenia zwrotnego / przypominania , która obejmuje udział zarówno korowy, jak i pozakorowy (w szczególności ta ostatnia ze wzgórza i hipokampu ).

Podstawowa teoria: rozpoznawanie i przewidywanie w hierarchiach dwukierunkowych

Koncepcją ramach pamięci predykcji jest to, że nakłady oddolne są dopasowane w hierarchii do rozpoznawania i wywołać szereg ODGÓRNEGO oczekiwania zakodowanych jako potentiations. Oczekiwania te współdziałają z sygnałami oddolnymi, aby zarówno analizować te dane wejściowe, jak i generować prognozy dotyczące późniejszych oczekiwanych danych wejściowych. Każdy poziom hierarchii zapamiętuje często obserwowane czasowe sekwencje wzorców wejściowych i generuje etykiety lub „nazwy” dla tych sekwencji. Kiedy sekwencja wejściowa pasuje do zapamiętanej sekwencji na danym poziomie hierarchii, etykieta lub „nazwa” jest propagowana w górę hierarchii - eliminując w ten sposób szczegóły na wyższych poziomach i umożliwiając im naukę sekwencji wyższego rzędu. Ten proces powoduje zwiększoną niezmienność na wyższych poziomach. Wyższe poziomy przewidują przyszłe dane wejściowe, dopasowując częściowe sekwencje i rzutując swoje oczekiwania na niższe poziomy. Jednakże, gdy występuje niezgodność między wejściowymi a zapamiętanymi / przewidywanymi sekwencjami, bardziej kompletna reprezentacja rozprzestrzenia się w górę. Powoduje to, że alternatywne „interpretacje” są aktywowane na wyższych poziomach, co z kolei generuje inne prognozy na niższych poziomach.

Weźmy na przykład pod uwagę proces widzenia . Informacje oddolne zaczynają się od niskiego poziomu sygnałów siatkówkowych (wskazujących na obecność prostych elementów wizualnych i kontrastów). Na wyższych poziomach hierarchii wydobywane są coraz bardziej znaczące informacje dotyczące obecności linii , regionów , ruchów itp. Jeszcze wyżej w hierarchii aktywność odpowiada obecności określonych obiektów - a następnie zachowaniom tych obiektów. Informacje odgórne zawierają szczegółowe informacje o rozpoznanych obiektach, a także o ich oczekiwanym zachowaniu w miarę upływu czasu.

Hierarchia sensoryczna wywołuje szereg różnic między różnymi poziomami. W miarę przesuwania się w górę w hierarchii reprezentacje wzrosły:

  • Zasięg - na przykład większe obszary pola widzenia lub bardziej rozległe obszary dotykowe.
  • Stabilność czasowa - jednostki niższego poziomu zmieniają się szybko, podczas gdy percepcje wyższego poziomu są bardziej stabilne.
  • Abstrakcja - w procesie sukcesywnej ekstrakcji cech niezmiennych rozpoznawane są byty coraz bardziej abstrakcyjne.

Związek między przetwarzaniem sensorycznym i motorycznym jest ważnym aspektem podstawowej teorii. Proponuje się, aby obszary motoryczne kory składały się z hierarchii behawioralnej podobnej do hierarchii sensorycznej, przy czym najniższe poziomy składają się z wyraźnych poleceń motorycznych dla mięśni, a najwyższe poziomy odpowiadają abstrakcyjnym zaleceniom (np. „Zmień rozmiar przeglądarki”). Hierarchie sensoryczna i motoryczna są ze sobą ściśle powiązane, a zachowania powodują powstawanie oczekiwań sensorycznych i percepcji sensorycznej kierujących procesami motorycznymi.

Wreszcie, ważne jest, aby zauważyć, że wszystkie wspomnienia w hierarchii kory muszą zostać nauczone - ta informacja nie jest wstępnie zaprogramowana w mózgu. Stąd proces wydobywania tej reprezentacji z przepływu bodźców i zachowań jest teoretycznie procesem, który zachodzi w sposób ciągły podczas poznania .

Inne warunki

Hawkins przeszedł szerokie szkolenie jako inżynier elektryk. Innym sposobem opisania tej teorii (wskazanej w jego książce) jest ucząca się hierarchia stochastycznych maszyn stanu z wyprzedzeniem . Z tego punktu widzenia mózg jest analizowany jako problem z kodowaniem, nie różniący się zbytnio od przewidujących przyszłe kody korekcji błędów. Hierarchia jest hierarchią abstrakcji , w której stany maszyn wyższego poziomu reprezentują bardziej abstrakcyjne warunki lub zdarzenia, a stany te predysponują maszyny niższego poziomu do wykonywania określonych przejść. Maszyny niższego poziomu modelują ograniczone dziedziny doświadczenia lub kontrolują lub interpretują czujniki lub efektory. Cały system faktycznie kontroluje zachowanie organizmu. Ponieważ maszyna stanu jest „sprzężona naprzód”, organizm reaguje na przyszłe zdarzenia przewidywane na podstawie przeszłych danych. Ponieważ jest hierarchiczny, system wykazuje elastyczność behawioralną, łatwo wytwarzając nowe sekwencje zachowań w odpowiedzi na nowe dane sensoryczne. Ponieważ system się uczy, nowe zachowanie dostosowuje się do zmieniających się warunków.

Oznacza to, że ewolucyjnym celem mózgu jest przewidywanie przyszłości na wprawdzie ograniczony sposób, aby ją zmienić.

Implementacja neurofizjologiczna

Teoretyzuje się, że hierarchie opisane powyżej występują głównie w korze nowej ssaków. W szczególności zakłada się, że kora nowa składa się z dużej liczby kolumn (jak przypuszczał również Vernon Benjamin Mountcastle z rozważań anatomicznych i teoretycznych). Każda kolumna jest dostrojona do określonej funkcji na danym poziomie w hierarchii. Otrzymuje dane wejściowe oddolne z niższych poziomów i dane wejściowe odgórne z wyższych poziomów. (Inne kolumny na tym samym poziomie również zasilają daną kolumnę i służą głównie do powstrzymania wyłącznej reprezentacji aktywacji). Kiedy dane wejściowe są rozpoznawane - to znaczy uzyskuje się akceptowalną zgodność między źródłami oddolnymi i odgórnymi - a kolumna generuje dane wyjściowe, które z kolei rozprzestrzeniają się na niższe i wyższe poziomy.

Kora

Procesy te dobrze odwzorowują określone warstwy kory ssaków. (Warstw korowych nie należy mylić z różnymi poziomami hierarchii przetwarzania: wszystkie warstwy w jednej kolumnie uczestniczą jako jeden element na jednym poziomie hierarchicznym). Wejście oddolne dociera do warstwy 4 (L4), skąd rozchodzi się do L2 i L3 w celu rozpoznania niezmiennej zawartości. Aktywacja odgórna dociera do L2 i L3 przez L1 (głównie warstwę aksonalną, która rozprowadza aktywację lokalnie w kolumnach). L2 i L3 porównują informacje z dołu do góry i z góry na dół i generują niezmienne „nazwy” po osiągnięciu wystarczającego dopasowania lub bardziej zmienne sygnały, które pojawiają się, gdy to się nie powiedzie. Sygnały te są propagowane w górę hierarchii (przez L5), a także w dół hierarchii (przez L6 i L1).

Wzgórze

Aby uwzględnić przechowywanie i rozpoznawanie sekwencji wzorców, sugeruje się połączenie dwóch procesów. Nieswoiste wzgórze działa jak „linia opóźniająca” - to znaczy L5 aktywuje ten obszar mózgu, który ponownie aktywuje L1 po niewielkim opóźnieniu. Zatem wyjście jednej kolumny generuje aktywność L1, która zbiegnie się z wejściem do kolumny, która jest czasowo następna w sekwencji. To porządkowanie czasu działa w połączeniu z identyfikacją sekwencji na wyższym poziomie, która nie zmienia się w czasie; stąd aktywacja reprezentacji sekwencji powoduje, że komponenty niższego poziomu są przewidywane jedna po drugiej. (Oprócz tej roli w sekwencjonowaniu wzgórze jest również aktywne jako stacja sensoryczna - role te najwyraźniej obejmują odrębne obszary tej anatomicznie niejednolitej struktury.)

Hipokamp

Inną zróżnicowaną anatomicznie strukturą mózgu, co do której istnieje hipoteza, że ​​odgrywa ważną rolę w poznawaniu hierarchicznym, jest hipokamp . Powszechnie wiadomo, że uszkodzenie obu hipokampów upośledza formowanie się długotrwałej pamięci deklaratywnej ; osoby z takimi uszkodzeniami nie są w stanie tworzyć nowych wspomnień o charakterze epizodycznym, chociaż mogą bez trudności przywoływać wcześniejsze wspomnienia i mogą również nauczyć się nowych umiejętności. W aktualnej teorii hipokampy są uważane za najwyższy poziom hierarchii korowej; specjalizują się w zachowywaniu pamięci o wydarzeniach, które rozprzestrzeniają się aż na sam szczyt. Ponieważ takie wydarzenia wpisują się w przewidywalne wzorce, stają się one zapamiętywalne na niższych poziomach w hierarchii. (Taki ruch wspomnień w dół hierarchii jest, nawiasem mówiąc, ogólną prognozą teorii.) Zatem hipokampy nieustannie zapamiętują „nieoczekiwane” zdarzenia (to znaczy te, których nie przewidziano na niższych poziomach); jeśli są uszkodzone, cały proces zapamiętywania poprzez hierarchię jest zagrożony.

W 2016 roku Jeff Hawkins postawił hipotezę, że kolumny korowe uchwyciły nie tylko doznanie, ale także względną lokalizację tego odczucia, w trzech wymiarach, a nie w dwóch ( wychwycenie usytuowane ), w odniesieniu do tego, co było wokół niego. „Kiedy mózg buduje model świata, wszystko ma swoje położenie względem wszystkiego innego” - Jeff Hawkins.

Wyjaśniające sukcesy i prognozy

Ramy przewidywania pamięci wyjaśniają szereg psychologicznie istotnych aspektów poznania. Na przykład zdolność ekspertów z dowolnej dziedziny do bezproblemowego analizowania i zapamiętywania złożonych problemów w ich dziedzinie jest naturalną konsekwencją tworzenia przez nich coraz bardziej wyrafinowanych hierarchii pojęciowych. Również procesja od „ percepcji ” do „ zrozumienia ” jest łatwo zrozumiała w wyniku dopasowania odgórnych i oddolnych oczekiwań . W przeciwieństwie do tego niedopasowania generują wyjątkową zdolność biologicznego poznania do wykrywania nieoczekiwanych spostrzeżeń i sytuacji. (Braki w tym zakresie są wspólną cechą obecnych podejść do sztucznej inteligencji).

Oprócz tych subiektywnie satysfakcjonujących wyjaśnień, platforma zawiera również szereg możliwych do przetestowania prognoz . Na przykład, ważna rola, jaką predykcja odgrywa w całej hierarchii sensorycznej, wymaga antycypacyjnej aktywności neuronalnej w pewnych komórkach w korze czuciowej. Ponadto komórki, które „nazywają” określone niezmienniki, powinny pozostać aktywne przez cały czas występowania tych niezmienników, nawet jeśli zmieniają się bazowe dane wejściowe. Przewidywane wzorce aktywności oddolnej i odgórnej - przy czym poprzednie są bardziej złożone, gdy oczekiwania nie są spełnione - mogą być wykryte, na przykład za pomocą funkcjonalnego obrazowania metodą rezonansu magnetycznego ( fMRI ).

Chociaż te przewidywania nie są wysoce specyficzne dla proponowanej teorii, są wystarczająco jednoznaczne, aby umożliwić weryfikację lub odrzucenie jej głównych założeń. Szczegółowe informacje na temat prognoz i ustaleń można znaleźć w artykule O inteligencji .

Wkład i ograniczenia

Z założenia obecna teoria opiera się na pracach wielu neurobiologów i można argumentować, że większość z tych pomysłów została już zaproponowana przez badaczy, takich jak Grossberg i Mountcastle . Z drugiej strony, nowe oddzielenie mechanizmu pojęciowego (tj. Dwukierunkowego przetwarzania i niezmiennego rozpoznawania) od szczegółów biologicznych (tj. Warstw neuronowych, kolumn i struktur) stanowi podstawę abstrakcyjnego myślenia o szerokim zakresie procesów poznawczych.

Najbardziej znaczącym ograniczeniem tej teorii jest jej obecny brak szczegółów. Na przykład pojęcie niezmienności odgrywa kluczową rolę; Hawkins zakłada „ komórki nazw ” przynajmniej dla niektórych z tych niezmienników. (Patrz również zespół neuronów # Kodowanie dla neuronów babcia , które wykonują tego typu funkcji, a neuronów lustrzanych dla somatosensorycznej systemowego punktu widzenia). Ale to jest dalekie od oczywistości, jak opracować matematycznie ścisłą definicję, która przeprowadzi wymagane obciążenie koncepcyjne poprzek domeny przedstawione przez Hawkins. Podobnie, pełna teoria będzie wymagała wiarygodnych szczegółów dotyczących zarówno krótkoterminowej dynamiki, jak i procesów uczenia się, które umożliwią warstwom korowym zachowanie się zgodnie z zapowiedzią.

IBM wdraża model Hawkinsa.

Modele uczenia maszynowego

Teoria przewidywania pamięci twierdzi, że wspólny algorytm jest stosowany we wszystkich regionach kory nowej. Teoria ta dała początek wielu modelom oprogramowania, których celem jest symulacja tego wspólnego algorytmu przy użyciu hierarchicznej struktury pamięci. Rok na poniższej liście wskazuje, kiedy model był ostatnio aktualizowany.

Modele oparte na sieciach bayesowskich

Poniższe modele wykorzystują propagację przekonań lub korektę przekonań w pojedynczo połączonych sieciach bayesowskich .

  • Hierarchical Temporal Memory (HTM), model, powiązana platforma programistyczna i kod źródłowy firmy Numenta, Inc. (2008).
  • HtmLib , alternatywna implementacja algorytmów HTM autorstwa Grega Kochaniaka z szeregiem modyfikacji poprawiających dokładność i szybkość rozpoznawania (2008).
  • Project Neocortex , projekt open source do modelowania struktury przewidywania pamięci (2008).
    • Strona badawcza Saulius Garalevicius , artykuły naukowe i programy prezentujące wyniki eksperymentalne z modelem struktury przewidywania pamięci, będącej podstawą projektu Neocortex (2007).
  • George, Dileep (2005). „Hierarchiczny model bayesowski niezmiennego rozpoznawania wzorców w rdzeniu wzrokowym”. CiteSeerX   10.1.1.132.6744 . Cite Journal wymaga |journal= ( pomoc ) artykuł opisujący wcześniejszy model bayesowski sprzed HTM autorstwa współzałożyciela Numenta . Jest to pierwszy model struktury przewidywania pamięci, który wykorzystuje sieci bayesowskie, a wszystkie powyższe modele są oparte na tych początkowych pomysłach. Kod źródłowy tego modelu w Matlabie był od wielu lat dostępny bezpłatnie do pobrania.

Inne modele

  • Implementation of MPF , artykuł Sauliusa Garaleviciusa opisujący metodę klasyfikacji i przewidywania w modelu przechowującym sekwencje czasowe i wykorzystującym uczenie się bez nadzoru (2005).
  • M5 , maszyna wzorcowa dla Palm OS, która przechowuje sekwencje wzorców i przywołuje wzorce odpowiednie dla obecnego środowiska (2007).
  • BrainGame , klasa predyktorów typu open source, która uczy się wzorców i może być powiązana z innymi predyktorami (2005).

Zobacz też

Bibliografia

Dalsza lektura

Linki zewnętrzne