Metanauka (informatyka) - Meta learning (computer science)

Metauczenie to poddziedzina uczenia maszynowego, w której algorytmy automatycznego uczenia są stosowane do metadanych dotyczących eksperymentów uczenia maszynowego. Od 2017 r. termin ten nie znalazł standardowej interpretacji, jednak głównym celem jest wykorzystanie takich metadanych, aby zrozumieć, w jaki sposób automatyczne uczenie się może stać się elastyczne w rozwiązywaniu problemów związanych z uczeniem, a tym samym poprawić wydajność istniejących algorytmów uczenia się lub nauczyć się (indukować) sam algorytm uczenia się, stąd alternatywny termin nauka uczenia się .

Elastyczność jest ważna, ponieważ każdy algorytm uczenia się opiera się na zbiorze założeń dotyczących danych, ich indukcyjnym obciążeniu . Oznacza to, że nauczy się dobrze tylko wtedy, gdy błąd będzie pasował do problemu uczenia się. Algorytm uczący się może działać bardzo dobrze w jednej domenie, ale nie w następnej. Stwarza to silne ograniczenia w stosowaniu technik uczenia maszynowego lub eksploracji danych , ponieważ związek między problemem uczenia się (często jakiś rodzaj bazy danych ) a skutecznością różnych algorytmów uczenia się nie jest jeszcze zrozumiały.

Korzystając z różnych rodzajów metadanych, takich jak właściwości problemu uczenia się, właściwości algorytmu (takie jak miary wydajności) lub wzorce wcześniej wyprowadzone z danych, można uczyć się, wybierać, zmieniać lub łączyć różne algorytmy uczenia się, aby skutecznie rozwiązać dane uczenie problem. Krytyka podejść do metauczenia jest bardzo podobna do krytyki metaheurystyki , prawdopodobnie powiązanego problemu. Dobra analogia do metauczenia i inspiracja dla wczesnych prac Jürgena Schmidhubera (1987) oraz Yoshua Bengio et al. (1991) uważa, że ​​ewolucja genetyczna uczy się procedury uczenia się zakodowanej w genach i wykonywanej w mózg. W otwartym hierarchicznym systemie meta-uczenia wykorzystującym programowanie genetyczne , lepsze metody ewolucyjne można nauczyć się dzięki metaewolucji, która sama może zostać ulepszona przez metaewolucję itp.

Definicja

Proponowana definicja systemu metauczenia łączy trzy wymagania:

  • System musi zawierać podsystem uczenia się.
  • Doświadczenie zdobywa się poprzez wykorzystanie wydobytej metawiedzy
    • w poprzednim odcinku nauki na pojedynczym zbiorze danych lub
    • z różnych domen.
  • Stronniczość uczenia się należy wybierać dynamicznie.

Bias odnosi się do założeń, które wpływają na wybór hipotez wyjaśniających, a nie do pojęcia błędu systematycznego reprezentowanego w dylemacie bias-wariancja . Metanauka dotyczy dwóch aspektów uczenia się.

  • Obciążenie deklaratywne określa reprezentację przestrzeni hipotez i wpływa na wielkość przestrzeni poszukiwań (np. reprezentowanie hipotez tylko za pomocą funkcji liniowych).
  • Błąd proceduralny nakłada ograniczenia na uporządkowanie hipotez indukcyjnych (np. preferowanie mniejszych hipotez).

Wspólne podejścia

Istnieją trzy popularne podejścia:

  • 1) korzystanie z (cyklicznych) sieci z pamięcią zewnętrzną lub wewnętrzną (oparte na modelu)
  • 2) nauka skutecznych mierników odległości (opartych na metrykach)
  • 3) jawna optymalizacja parametrów modelu w celu szybkiego uczenia się (oparta na optymalizacji).

Oparte na modelu

Modele metauczącego oparte na modelach szybko aktualizują swoje parametry za pomocą kilku kroków szkoleniowych, które można osiągnąć dzięki ich wewnętrznej architekturze lub kontrolować przez inny model metauczącego.

Sieci neuronowe z rozszerzoną pamięcią

Sieć neuronowa z rozszerzoną pamięcią (ang. Memory-Augmented Neural Network , w skrócie MANN) twierdzi, że jest w stanie szybko kodować nowe informacje, a tym samym dostosowywać się do nowych zadań po zaledwie kilku przykładach.

Metasieci

Meta Networks (MetaNet) uczy się wiedzy na poziomie meta w różnych zadaniach i zmienia swoje indukcyjne nastawienia poprzez szybką parametryzację w celu szybkiego uogólnienia.

Na podstawie danych

Podstawowa idea metauczenia opartego na metrykach jest podobna do algorytmów najbliższych sąsiadów , których waga jest generowana przez funkcję jądra. Ma na celu poznanie funkcji metryki lub odległości nad obiektami. Pojęcie dobrej metryki zależy od problemu. Powinien reprezentować relacje między danymi wejściowymi w przestrzeni zadań i ułatwiać rozwiązywanie problemów.

Konwolucyjna syjamska sieć neuronowa

Syjamska sieć neuronowa składa się z dwóch bliźniaczych sieci, których dane wyjściowe są wspólnie trenowane. Powyżej znajduje się funkcja, która umożliwia poznanie relacji między parami próbek danych wejściowych. Obie sieci są takie same, mają tę samą wagę i parametry sieci.

Dopasowane sieci

Matching Networks uczą się sieci, która mapuje mały oznaczony zestaw wsparcia i nieoznaczony przykład do swojej etykiety, eliminując potrzebę dostrajania w celu dostosowania się do nowych typów klas.

Sieć relacji

Sieć relacji (RN) jest szkolona od początku do końca. Podczas metauczenia się uczy się metryki głębokiej odległości, aby porównywać niewielką liczbę obrazów w odcinkach, z których każdy ma symulować ustawienie kilku zdjęć.

Sieci prototypowe

Sieci prototypowe uczą się przestrzeni metrycznej, w której klasyfikację można przeprowadzić, obliczając odległości do prototypowych reprezentacji każdej klasy. W porównaniu z najnowszymi podejściami do uczenia się za pomocą kilku strzałów odzwierciedlają one prostsze nastawienie indukcyjne, które jest korzystne w tym reżimie ograniczonej ilości danych i zapewniają satysfakcjonujące wyniki.

Oparte na optymalizacji

Algorytmy metauczenia oparte na optymalizacji mają na celu dostosowanie algorytmu optymalizacji tak, aby model był dobry w uczeniu się na kilku przykładach.

Meta-uczeń LSTM

Meta-uczący się oparty na LSTM ma nauczyć się dokładnego algorytmu optymalizacji używanego do trenowania innego klasyfikatora sieci neuronowej uczącego się w trybie kilku strzałów. Parametryzacja pozwala mu nauczyć się odpowiednich aktualizacji parametrów specjalnie dla scenariusza, w którym zostanie dokonana określona liczba aktualizacji, jednocześnie ucząc się ogólnej inicjalizacji sieci uczącego się (klasyfikatora), która pozwala na szybką konwergencję szkolenia.

Czasowa dyskrecja

MAML, skrót od Model-Agnostic Meta-Learning, jest dość ogólnym algorytmem optymalizacji , kompatybilnym z każdym modelem, który uczy się poprzez opadanie gradientu.

Gad

Reptile jest niezwykle prostym algorytmem optymalizacji meta-uczenia, biorąc pod uwagę, że oba jego komponenty opierają się na metaoptymalizacji poprzez gradient gradientu i oba są niezależne od modelu.

Przykłady

Niektóre podejścia, które były postrzegane jako przykłady metauczenia się:

  • Rekurencyjne sieci neuronowe (RNN) to uniwersalne komputery. W 1993 r. Jürgen Schmidhuber pokazał, jak „autoreferencyjne” RNN mogą w zasadzie uczyć się poprzez wsteczną propagację, aby uruchomić własny algorytm zmiany wagi, który może być zupełnie inny niż wsteczna propagacja. W 2001 roku Sepp Hochreiter i AS Younger i PR Conwell zbudowali skuteczną nadzorowaną metauczącą się w oparciu o RNN pamięci krótkotrwałej. Dzięki wstecznej propagacji błędów nauczył się algorytmu uczenia się funkcji kwadratowych, który jest znacznie szybszy niż wsteczna propagacja. Naukowcy z Deepmind (Marcin Andrychowicz i in.) rozszerzyli to podejście na optymalizację w 2017 roku.
  • W latach 90. w grupie badawczej Schmidhubera osiągnięto Meta Reinforcement Learning lub Meta RL poprzez samomodyfikujące się polityki napisane w uniwersalnym języku programowania, który zawiera specjalne instrukcje dotyczące zmiany samej polityki. Jest jedna próba na całe życie. Celem agenta RL jest maksymalizacja nagrody. Uczy się przyspieszać przyjmowanie nagród poprzez ciągłe doskonalenie własnego algorytmu uczenia się, który jest częścią polityki „autoreferencyjności”.
  • Ekstremalny rodzaj uczenia się przez meta wzmocnienie jest ucieleśniony przez maszynę Gödla , konstrukt teoretyczny, który może sprawdzać i modyfikować dowolną część własnego oprogramowania, które zawiera również ogólne dowodzenie twierdzeń . Może osiągnąć rekurencyjne samodoskonalenie się w sposób optymalny do udowodnienia.
  • Model-Agnostic Meta-Learning (MAML) został wprowadzony w 2017 roku przez Chelsea Finn i in. Biorąc pod uwagę sekwencję zadań, parametry danego modelu są szkolone w taki sposób, że kilka iteracji gradientu z niewielką liczbą danych uczących z nowego zadania prowadzi do dobrej wydajności uogólniania tego zadania. MAML „uczy model, aby był łatwy do dostrojenia”. MAML został z powodzeniem zastosowany w kilkukrotnych testach porównawczych klasyfikacji obrazów oraz w uczeniu wzmacniania opartym na zasadach gradientu.
  • Odkrywanie meta-wiedzy działa poprzez indukowanie wiedzy (np. zasad), która wyraża, jak każda metoda uczenia się sprawdzi w różnych problemach związanych z uczeniem się. Metadane są tworzone przez charakterystykę danych (ogólnych, statystycznych, informacyjno-teoretycznych,...) w problemie uczenia się oraz charakterystykę algorytmu uczenia (typ, ustawienia parametrów, miary wydajności,...). Następnie inny algorytm uczący się uczy się, w jaki sposób cechy danych odnoszą się do cech algorytmu. Biorąc pod uwagę nowy problem uczenia się, mierzy się charakterystykę danych i przewiduje się wydajność różnych algorytmów uczenia się. Dzięki temu można przewidzieć algorytmy najlepiej dopasowane do nowego problemu.
  • Uogólnienie skumulowane działa poprzez łączenie wielu (różnych) algorytmów uczenia. Metadane są tworzone przez przewidywania tych różnych algorytmów. Inny algorytm uczący się uczy się na podstawie tych metadanych, aby przewidzieć, które kombinacje algorytmów dają ogólnie dobre wyniki. Biorąc pod uwagę nowy problem uczenia się, przewidywania wybranego zestawu algorytmów są łączone (np. przez głosowanie (ważone)), aby uzyskać ostateczną prognozę. Ponieważ uważa się, że każdy algorytm działa na podzbiorze problemów, mamy nadzieję, że kombinacja będzie bardziej elastyczna i zdolna do tworzenia dobrych prognoz.
  • Wzmacnianie jest związane z uogólnieniem stosowym, ale wykorzystuje wielokrotnie ten sam algorytm, w którym przykłady w danych treningowych mają różne wagi w każdym biegu. Daje to różne prognozy, z których każda koncentruje się na prawidłowym przewidywaniu podzbioru danych, a połączenie tych prognoz prowadzi do lepszych (ale droższych) wyników.
  • Dynamiczny wybór obciążenia działa poprzez zmianę obciążenia indukcyjnego algorytmu uczącego się, aby dopasować go do danego problemu. Odbywa się to poprzez zmianę kluczowych aspektów algorytmu uczenia, takich jak reprezentacja hipotezy, formuły heurystyczne lub parametry. Istnieje wiele różnych podejść.
  • Transfer indukcyjny bada, w jaki sposób proces uczenia się można z czasem ulepszyć. Metadane składają się z wiedzy o poprzednich epizodach uczenia się i służą do efektywnego opracowania skutecznej hipotezy dla nowego zadania. Pokrewnym podejściem jest tzw. nauka uczenia się , którego celem jest wykorzystanie wiedzy zdobytej w jednej dziedzinie do pomocy w nauce w innych dziedzinach.
  • Inne podejścia wykorzystujące metadane do poprawy automatycznego uczenia się to uczenie się systemów klasyfikatorów , wnioskowanie oparte na przypadkach i spełnianie ograniczeń .
  • Rozpoczęto pewne wstępne, teoretyczne prace nad wykorzystaniem stosowanej analizy behawioralnej jako podstawy do meta-uczenia za pośrednictwem agenta o działaniach ludzi uczących się i dostosowania kursu instruktażowego sztucznego agenta.
  • AutoML, taki jak projekt Google Brain „AI building AI”, który według Google na krótko przekroczył istniejące benchmarki ImageNet w 2017 roku.

Bibliografia

Zewnętrzne linki