Reprezentacja wiedzy i rozumowanie - Knowledge representation and reasoning

Reprezentacja wiedzy i wnioskowanie ( KRR , KR&R , KR² ) to dziedzina sztucznej inteligencji (AI) dedykowana do przedstawiania informacji o świecie w formie, którą system komputerowy może wykorzystać do rozwiązywania złożonych zadań, takich jak diagnozowanie stanu chorobowego lub prowadzenie dialogu w języku naturalnym . Reprezentacja wiedzy obejmuje odkrycia psychologii dotyczące tego, jak ludzie rozwiązują problemy i reprezentują wiedzę w celu projektowania formalizmów, które ułatwią projektowanie i budowanie złożonych systemów. Reprezentacja wiedzy i rozumowanie obejmuje również wnioski z logiki w celu zautomatyzowania różnych rodzajówrozumowanie , takie jak stosowanie reguł lub relacje zbiorów i podzbiorów .

Przykłady formalizmów reprezentacji wiedzy obejmują sieci semantyczne , architekturę systemów , ramy , reguły i ontologie . Przykłady automatycznych silników wnioskowania obejmują silniki wnioskowania , dowodzenia twierdzeń i klasyfikatory.

Historia

Najwcześniejsze prace nad skomputeryzowaną reprezentacją wiedzy koncentrowały się na ogólnych rozwiązaniach problemów, takich jak system ogólnego rozwiązywania problemów (GPS) opracowany przez Allena Newella i Herberta A. Simona w 1959 roku. Systemy te zawierały struktury danych do planowania i dekompozycji. System zaczynałby się od celu. Następnie rozkładałby ten cel na cele podrzędne, a następnie przystępował do konstruowania strategii, które mogłyby osiągnąć każdy cel podrzędny.

We wczesnych dniach sztucznej inteligencji opracowano również ogólne algorytmy wyszukiwania, takie jak A* . Jednak definicje problemów amorficznych dla systemów takich jak GPS oznaczały, że działały one tylko dla bardzo ograniczonych domen zabawek (np. „ świata klocków ”). Aby rozwiązać problemy niezwiązane z zabawkami, badacze sztucznej inteligencji, tacy jak Ed Feigenbaum i Frederick Hayes-Roth, zdali sobie sprawę, że konieczne jest skoncentrowanie systemów na bardziej ograniczonych problemach.

Wysiłki te doprowadziły do rewolucji kognitywnej w psychologii i do fazy sztucznej inteligencji skupionej na reprezentacji wiedzy, która zaowocowała systemami eksperckimi w latach 70. i 80., systemami produkcyjnymi , językami ramek itp. Zamiast ogólnych rozwiązań problemów, sztuczna inteligencja zmieniła swój punkt widzenia na ekspercką. systemy, które mogłyby odpowiadać kompetencjom człowieka w konkretnym zadaniu, takim jak diagnoza medyczna.

Systemy eksperckie dały nam terminologię stosowaną do dziś, gdzie systemy AI są podzielone na bazę wiedzy , z faktami o świecie i regułach oraz silnik wnioskowania , który stosuje reguły do bazy wiedzy w celu odpowiedzi na pytania i rozwiązywania problemów. W tych wczesnych systemach baza wiedzy miała tendencję do bycia dość płaską strukturą, zasadniczo twierdzeniami o wartościach zmiennych wykorzystywanych przez reguły.

Oprócz systemów eksperckich, w połowie lat 80. inni badacze opracowali koncepcję języków opartych na ramkach . Rama jest podobna do klasy obiektu: jest abstrakcyjnym opisem kategorii opisującej rzeczy w świecie, problemy i potencjalne rozwiązania. Ramki były pierwotnie używane w systemach nastawionych na interakcję z człowiekiem, np. rozumienie języka naturalnego i kontekstów społecznych, w których różne domyślne oczekiwania, takie jak zamawianie jedzenia w restauracji, zawężają przestrzeń wyszukiwania i pozwalają systemowi wybrać odpowiednie reakcje na dynamiczne sytuacje.

Nie minęło dużo czasu, zanim społeczności ramowe i badacze działający w oparciu o zasady zdali sobie sprawę, że istnieje synergia między ich podejściami. Ramki były dobre do reprezentowania świata rzeczywistego, opisanego jako klasy, podklasy, sloty (wartości danych) z różnymi ograniczeniami dotyczącymi możliwych wartości. Reguły były dobre do przedstawiania i wykorzystywania złożonej logiki, takiej jak proces stawiania diagnozy medycznej. Opracowano zintegrowane systemy, które łączyły ramy i zasady. Jednym z najpotężniejszych i najbardziej znanych było środowisko inżynierii wiedzy z 1983 roku (KEE) firmy Intellicorp . KEE posiadał kompletny silnik reguł z łańcuchem do przodu i do tyłu . Posiadał również kompletną bazę wiedzy opartą na ramkach z wyzwalaczami, slotami (wartościami danych), dziedziczeniem i przekazywaniem komunikatów. Chociaż przekazywanie wiadomości pochodzi ze społeczności zorientowanej obiektowo, a nie ze sztucznej inteligencji, zostało szybko przyjęte przez badaczy sztucznej inteligencji, a także w środowiskach takich jak KEE oraz w systemach operacyjnych dla maszyn Lisp od Symbolics , Xerox i Texas Instruments .

Integracja ram, reguł i programowania obiektowego była w znacznym stopniu napędzana przez komercyjne przedsięwzięcia, takie jak KEE i Symbolics, wydzielone z różnych projektów badawczych. W tym samym czasie, gdy to się działo, pojawił się inny nurt badań, który był mniej skoncentrowany na komercjale i był napędzany logiką matematyczną i zautomatyzowanym dowodzeniem twierdzeń. Jednym z najbardziej wpływowych języków w tych badaniach był język KL-ONE z połowy lat 80-tych. KL-ONE był językiem ramowym, który miał rygorystyczną semantykę, formalne definicje takich pojęć, jak relacja Is-A . KL-ONE i języki, na które miał on wpływ, takie jak Loom, miały zautomatyzowany silnik wnioskowania oparty na logice formalnej, a nie na regułach IF-THEN. Ten mechanizm rozumowania nazywa się klasyfikatorem. Klasyfikator może analizować zestaw deklaracji i wywnioskować nowe twierdzenia, na przykład przedefiniować klasę jako podklasę lub nadklasę innej klasy, która nie została formalnie określona. W ten sposób klasyfikator może działać jako silnik wnioskowania, dedukując nowe fakty z istniejącej bazy wiedzy. Klasyfikator może również zapewnić sprawdzanie spójności w bazie wiedzy (która w przypadku języków KL-ONE jest również określana jako Ontologia).

Innym obszarem badań nad reprezentacją wiedzy był problem rozumowania zdroworozsądkowego . Jednym z pierwszych wniosków, których nauczyłem się próbując stworzyć oprogramowanie, które może działać z ludzkim językiem naturalnym, było to, że ludzie regularnie czerpią z rozległej wiedzy o rzeczywistym świecie, którą po prostu przyjmujemy za pewnik, ale nie jest to wcale oczywiste dla sztucznego agenta . Podstawowe zasady fizyki zdroworozsądkowej, przyczynowość, intencje itp. Przykładem jest problem ramowy , że w logice sterowanej zdarzeniami muszą istnieć aksjomaty, które stwierdzają, że rzeczy utrzymują pozycję z chwili na chwilę, chyba że są poruszane przez jakąś siłę zewnętrzną . Aby stworzyć prawdziwego agenta sztucznej inteligencji, który potrafi rozmawiać z ludźmi za pomocą języka naturalnego i przetwarzać podstawowe stwierdzenia i pytania dotyczące świata, konieczne jest reprezentowanie tego rodzaju wiedzy. Jednym z najbardziej ambitnych programów do rozwiązania tego problemu był projekt Cyc Douga Lenata . Cyc stworzył własny język ramek i wielu analityków dokumentowało różne obszary zdroworozsądkowego rozumowania w tym języku. Wiedza zapisana w Cyc obejmowała zdroworozsądkowe modele czasu, przyczynowość, fizykę, intencje i wiele innych.

Punktem wyjścia dla reprezentacji wiedzy jest hipoteza reprezentacji wiedzy po raz pierwszy sformalizowana przez Briana C. Smitha w 1985 roku:

Każdy mechanicznie ucieleśniony inteligentny proces będzie składał się ze składników strukturalnych, które a) my, jako zewnętrzni obserwatorzy, w naturalny sposób przyjmujemy jako zdanie na temat wiedzy, jaką wykazuje cały proces, oraz b) niezależnie od takiej zewnętrznej atrybucji semantycznej, odgrywają one formalną, ale przyczynową i istotną rolę w wywoływaniu zachowania, które manifestuje tę wiedzę.

Obecnie jednym z najbardziej aktywnych obszarów badań nad reprezentacją wiedzy są projekty związane z Siecią Semantyczną . Sieć semantyczna dąży do dodania warstwy semantycznej (znaczenia) do obecnego Internetu. Zamiast indeksować witryny i strony internetowe za pomocą słów kluczowych, Sieć Semantyczna tworzy duże ontologie pojęć. Wyszukiwanie pojęcia będzie skuteczniejsze niż tradycyjne wyszukiwanie wyłącznie tekstowe. Języki ramek i automatyczna klasyfikacja odgrywają dużą rolę w wizji przyszłej sieci semantycznej. Automatyczna klasyfikacja daje programistom technologię do porządkowania stale rozwijającej się sieci wiedzy. Definiowanie ontologii, które są statyczne i nie mogą ewoluować w locie, byłoby bardzo ograniczające dla systemów internetowych. Technologia klasyfikatora zapewnia możliwość radzenia sobie z dynamicznym środowiskiem Internetu.

Ostatnie projekty finansowane głównie przez Agencję Zaawansowanych Projektów Badawczych Obrony (DARPA) zintegrowały języki ramek i klasyfikatory z językami znaczników opartymi na XML. Resource Description Framework (RDF) zapewnia podstawową zdolność do zdefiniowania klasy, podklasy i właściwości obiektów. Język Ontologii Sieciowej (OWL) zapewnia dodatkowe poziomy semantyki i umożliwia integrację z silnikami klasyfikacyjnych.

Przegląd

Reprezentacja wiedzy to dziedzina sztucznej inteligencji, która koncentruje się na projektowaniu reprezentacji komputerowych, które przechwytują informacje o świecie, które można wykorzystać do rozwiązywania złożonych problemów.

Uzasadnieniem reprezentacji wiedzy jest to, że konwencjonalny kod proceduralny nie jest najlepszym formalizmem do zastosowania do rozwiązywania złożonych problemów. Reprezentacja wiedzy sprawia, że ​​złożone oprogramowanie jest łatwiejsze do zdefiniowania i utrzymania niż kod proceduralny i może być używane w systemach eksperckich .

Na przykład rozmowa z ekspertami w zakresie reguł biznesowych, a nie kodu, zmniejsza semantyczną lukę między użytkownikami a programistami i sprawia, że ​​tworzenie złożonych systemów jest bardziej praktyczne.

Reprezentacja wiedzy idzie w parze z automatycznym wnioskowaniem, ponieważ jednym z głównych celów jawnego przedstawiania wiedzy jest możliwość wnioskowania o tej wiedzy, wyciągania wniosków, potwierdzania nowej wiedzy itp. Praktycznie wszystkie języki reprezentacji wiedzy mają mechanizm rozumowania lub wnioskowania jako część systemu.

Kluczowym kompromisem w projektowaniu formalizmu reprezentacji wiedzy jest kompromis między ekspresywnością a praktycznością. Ostatecznym formalizmem reprezentacji wiedzy pod względem siły wyrazu i zwartości jest logika pierwszego rzędu (FOL). Nie ma silniejszego formalizmu niż ten, którego używają matematycy do definiowania ogólnych twierdzeń o świecie. FOL ma jednak dwie wady jako formalizm reprezentacji wiedzy: łatwość użycia i praktyczność implementacji. Logika pierwszego rzędu może być onieśmielająca nawet dla wielu programistów. Języki, które nie mają pełnej mocy formalnej FOL, mogą nadal zapewniać zbliżoną moc ekspresji dzięki interfejsowi użytkownika, który jest bardziej praktyczny do zrozumienia dla przeciętnego programisty. Kwestia praktyczności implementacji polega na tym, że FOL pod pewnymi względami jest zbyt wyrazisty. Dzięki FOL możliwe jest tworzenie instrukcji (np. kwantyfikacja na zbiorach nieskończonych), które spowodowałyby, że system nigdy by się nie zakończył, gdyby próbował je zweryfikować.

W ten sposób podzbiór FOL może być zarówno łatwiejszy w użyciu, jak i bardziej praktyczny w implementacji. To była motywacja dla systemów eksperckich opartych na zasadach. Reguły IF-THEN zapewniają podzbiór FOL, ale bardzo przydatny, który jest również bardzo intuicyjny. Historia większości wczesnych formalizmów reprezentacji wiedzy AI; od baz danych, przez sieci semantyczne, po sprawdzanie twierdzeń i systemy produkcyjne, można postrzegać jako różne decyzje projektowe dotyczące tego, czy należy położyć nacisk na moc ekspresyjną, czy na obliczalność i wydajność.

W kluczowym artykule z 1993 roku na ten temat Randall Davis z MIT nakreślił pięć różnych ról w analizie ram reprezentacji wiedzy:

  • Reprezentacja wiedzy (KR) jest przede wszystkim surogatem, substytutem samej rzeczy, używanym do umożliwienia jednostce określania konsekwencji poprzez myślenie, a nie działanie, tj. poprzez rozumowanie o świecie, a nie podejmowanie w nim działań.
  • Jest to zbiór zobowiązań ontologicznych, czyli odpowiedź na pytanie: W jakich kategoriach mam myśleć o świecie?
  • Jest to fragmentaryczna teoria inteligentnego rozumowania, wyrażona w trzech elementach: (i) fundamentalna koncepcja inteligentnego rozumowania reprezentacji; (ii) zbiór wniosków dotyczących sankcji reprezentacyjnych; oraz (iii) zestaw wniosków, które zaleca.
  • Jest to medium dla pragmatycznie wydajnych obliczeń, tj. środowisko obliczeniowe, w którym dokonuje się myślenie. Jednym z wkładów w tę pragmatyczną skuteczność są wytyczne, jakie zapewnia reprezentacja, dotyczące organizowania informacji, tak aby ułatwić wyciąganie zalecanych wniosków.
  • Jest to medium ludzkiej ekspresji, czyli język, w którym mówimy o świecie.

Reprezentacja wiedzy i rozumowanie są kluczowymi technologiami umożliwiającymi korzystanie z sieci semantycznej . Języki oparte na modelu Frame z automatyczną klasyfikacją zapewniają warstwę semantyczną nad istniejącym Internetem. Zamiast wyszukiwać za pomocą ciągów tekstowych, jak to jest obecnie typowe, możliwe będzie definiowanie zapytań logicznych i znajdowanie stron, które mapują do tych zapytań. Zautomatyzowanym komponentem wnioskowania w tych systemach jest silnik znany jako klasyfikator. Klasyfikatory skupiają się na relacjach subsumpcji w bazie wiedzy, a nie na regułach. Klasyfikator może wywnioskować nowe klasy i dynamicznie zmieniać ontologię w miarę pojawiania się nowych informacji. Ta funkcja jest idealna dla ciągle zmieniającej się i ewoluującej przestrzeni informacyjnej w Internecie.

Sieć semantyczna integruje koncepcje z reprezentacji wiedzy i rozumowania z językami znaczników opartymi na XML. Resource Description Framework (RDF) zapewnia podstawowe funkcje do definiowania obiektów opartych na wiedzy w Internecie z podstawowych funkcji, takich jak stosunki is-a i właściwości obiektów. Język Ontologii Sieciowej (OWL) dodaje dodatkowe semantykę i integruje się z automatycznymi wnioskowania klasyfikacyjnych.

Charakterystyka

W 1985 r. Ron Brachman skategoryzował podstawowe zagadnienia związane z reprezentacją wiedzy w następujący sposób:

  • Prymitywy. Jakie są podstawowe ramy wykorzystywane do reprezentowania wiedzy? Sieci semantyczne były jednym z pierwszych prymitywów reprezentacji wiedzy. Ponadto struktury danych i algorytmy do ogólnego szybkiego wyszukiwania. W tej dziedzinie badania nad strukturami danych i algorytmami w informatyce mocno pokrywają się. We wczesnych systemach język programowania Lisp, wzorowany na rachunku lambda , był często używany jako forma funkcjonalnej reprezentacji wiedzy. Ramy i reguły były kolejnym rodzajem prymitywu. Języki ramek mają różne mechanizmy wyrażania i egzekwowania ograniczeń danych ramek. Wszystkie dane w ramkach są przechowywane w slotach. Szczeliny są analogiczne do relacji w modelowaniu relacji encji oraz do właściwości obiektów w modelowaniu obiektowym. Inną techniką dla prymitywów jest definiowanie języków modelowanych na podstawie logiki pierwszego rzędu (FOL). Najbardziej znanym przykładem jest Prolog, ale istnieje również wiele środowisk dowodzenia twierdzeń specjalnego przeznaczenia. Środowiska te mogą sprawdzać modele logiczne i wyprowadzać nowe teorie z istniejących modeli. Zasadniczo automatyzują proces, przez który przechodziłby logik analizując model. Technologia dowodzenia twierdzeń miała pewne konkretne praktyczne zastosowania w obszarach inżynierii oprogramowania. Na przykład możliwe jest udowodnienie, że oprogramowanie sztywno przestrzega formalnej specyfikacji logicznej.
  • Metareprezentacja. Jest to również znane jako problem refleksji w informatyce. Odnosi się do zdolności formalizmu do dostępu do informacji o własnym stanie. Przykładem może być protokół meta-obiektu w Smalltalk i CLOS, który daje programistom dostęp do obiektów klas w czasie wykonywania i umożliwia im dynamiczne przedefiniowanie struktury bazy wiedzy nawet w czasie wykonywania. Meta-reprezentacja oznacza, że ​​język reprezentacji wiedzy jest wyrażony w tym języku. Na przykład w większości środowisk opartych na ramkach wszystkie ramki byłyby instancjami klasy ramki. Ten obiekt klasy można sprawdzić w czasie wykonywania, dzięki czemu obiekt może zrozumieć, a nawet zmienić swoją wewnętrzną strukturę lub strukturę innych części modelu. W środowiskach opartych na regułach reguły były również zwykle instancjami klas reguł. Częścią metaprotokołu reguł były meta reguły, które nadawały priorytet uruchamianiu reguł.
  • Niekompletność . Tradycyjna logika wymaga dodatkowych aksjomatów i ograniczeń, aby radzić sobie ze światem rzeczywistym, w przeciwieństwie do świata matematyki. Często przydaje się też skojarzenie ze stwierdzeniem stopni pewności. To znaczy nie po prostu mów „Sokrates jest człowiekiem”, ale raczej „Sokrates jest człowiekiem z ufnością 50%”. Była to jedna z wczesnych innowacji w badaniach nad systemami eksperckimi, która przeniosła się na niektóre narzędzia komercyjne, czyli możliwość powiązania czynników pewności z regułami i wnioskami. Późniejsze badania w tej dziedzinie znane są jako logika rozmyta .
  • Definicje i uniwersalia a fakty i braki. Uniwersały to ogólne stwierdzenia dotyczące świata, takie jak „Wszyscy ludzie są śmiertelni”. Fakty są konkretnymi przykładami uniwersaliów, takich jak „Sokrates jest człowiekiem, a zatem śmiertelnikiem”. W kategoriach logicznych definicje i uniwersalia dotyczą uniwersalnej kwantyfikacji, podczas gdy fakty i błędy dotyczą kwantyfikacji egzystencjalnych . Wszystkie formy reprezentacji wiedzy muszą zajmować się tym aspektem, a większość robi to z jakimś wariantem teorii mnogości, modelując uniwersalia jako zbiory i podzbiory oraz definicje jako elementy w tych zbiorach.
  • Rozumowanie niemonotoniczne . Rozumowanie niemonotoniczne pozwala na różne rodzaje rozumowania hipotetycznego. System kojarzy stwierdzone fakty z regułami i faktami użytymi do ich uzasadnienia, a wraz ze zmianą tych faktów aktualizuje również wiedzę zależną. W systemach opartych na regułach ta zdolność jest znana jako system utrzymania prawdy .
  • Adekwatność ekspresyjna . Standardem używanym przez Brachmana i większość badaczy AI do pomiaru adekwatności ekspresji jest zwykle logika pierwszego rzędu (FOL). Teoretyczne ograniczenia powodują, że pełna implementacja FOL nie jest praktyczna. Badacze powinni mieć jasność co do tego, jak ekspresyjna (jak duża jest pełna moc ekspresji FOL) zamierzają mieć swoją reprezentację.
  • Efektywność rozumowania. Odnosi się to do wydajności czasu pracy systemu. Zdolność do aktualizowania bazy wiedzy oraz zdolność rozumowania do wyciągania nowych wniosków w rozsądnym czasie. W pewnym sensie jest to druga strona adekwatności ekspresji. Ogólnie rzecz biorąc, im silniejsza reprezentacja, tym bardziej ma wyrazistą adekwatność, tym mniej wydajny będzie jej automatyczny silnik wnioskowania . Wydajność była często problemem, zwłaszcza we wczesnych zastosowaniach technologii reprezentacji wiedzy. Były one zwykle implementowane w interpretowanych środowiskach, takich jak Lisp, które były powolne w porównaniu z bardziej tradycyjnymi platformami tamtych czasów.

Inżynieria ontologii

We wczesnych latach systemów opartych na wiedzy bazy wiedzy były dość małe. Bazy wiedzy, które miały faktycznie rozwiązywać rzeczywiste problemy, a nie demonstrować słuszność koncepcji, wymagały skupienia się na dobrze zdefiniowanych problemach. Na przykład nie tylko diagnostyka medyczna jako cały temat, ale diagnostyka medyczna niektórych rodzajów chorób.

Wraz z rozwojem technologii opartej na wiedzy, pojawiła się potrzeba większych baz wiedzy i modułowych baz wiedzy, które mogłyby się ze sobą komunikować i integrować. Dało to początek dyscyplinie inżynierii ontologicznej, projektowaniu i budowaniu dużych baz wiedzy, które mogą być wykorzystywane w wielu projektach. Jednym z wiodących projektów badawczych w tym obszarze był projekt Cyc . Cyc był próbą zbudowania ogromnej encyklopedycznej bazy wiedzy, która zawierałaby nie tylko wiedzę ekspercką, ale i zdroworozsądkową. Projektując agenta sztucznej inteligencji, szybko zdano sobie sprawę, że reprezentowanie wiedzy zdroworozsądkowej, którą ludzie po prostu przyjmują za pewnik, jest niezbędne do stworzenia sztucznej inteligencji, która mogłaby wchodzić w interakcje z ludźmi za pomocą języka naturalnego. Cyc miał rozwiązać ten problem. Zdefiniowany przez nich język był znany jako CycL .

Po CycL powstało wiele języków ontologii . Większość z nich to języki deklaratywne , które są albo językami ramek , albo są oparte na logice pierwszego rzędu . Modułowość – zdolność do definiowania granic wokół określonych domen i przestrzeni problemowych – jest niezbędna dla tych języków, ponieważ, jak stwierdził Tom Gruber , „Każda ontologia jest traktatem – porozumieniem społecznym między ludźmi o wspólnym motywie dzielenia się”. Zawsze istnieje wiele sprzecznych i różniących się poglądów, które uniemożliwiają jakąkolwiek ontologię ogólnego przeznaczenia. Ontologia ogólnego przeznaczenia musiałaby mieć zastosowanie w dowolnej dziedzinie, a różne obszary wiedzy musiałyby zostać ujednolicone.

Istnieje długa historia prac nad próbami zbudowania ontologii dla różnych dziedzin zadań, np. ontologii dla cieczy, modelu elementów skupionych szeroko stosowanego w reprezentowaniu obwodów elektronicznych (np.), jak również ontologii dla czasu, przekonań i nawet samo programowanie. Każdy z nich oferuje sposób na zobaczenie jakiejś części świata.

Na przykład model elementów skupionych sugeruje, że myślimy o obwodach w kategoriach elementów z połączeniami między nimi, z sygnałami płynącymi natychmiast wzdłuż połączeń. To przydatny widok, ale nie jedyny możliwy. Jeśli musimy zająć się elektrodynamiką w urządzeniu, pojawia się inna ontologia: tutaj sygnały rozchodzą się ze skończoną prędkością i może teraz trzeba pomyśleć o obiekcie (takim jak rezystor), który wcześniej był postrzegany jako pojedynczy komponent z zachowaniem we/wy jako rozszerzony ośrodek, przez który przepływa fala elektromagnetyczna.

Ontologie mogą oczywiście być zapisane w wielu różnych językach i notacjach (np. logika, LISP, itp.); istotną informacją nie jest forma tego języka, ale treść, czyli zbiór pojęć oferowanych jako sposób myślenia o świecie. Mówiąc najprościej, ważną częścią są pojęcia takie jak połączenia i komponenty, a nie wybór między zapisywaniem ich jako predykatów lub konstrukcji LISP.

Zobowiązanie podjęte przy wyborze takiej lub innej ontologii może wytworzyć zupełnie inny pogląd na dane zadanie. Rozważ różnicę, która pojawia się przy wyborze widoku elementu skupionego obwodu, a nie widoku elektrodynamicznego tego samego urządzenia. Jako drugi przykład, diagnoza medyczna rozpatrywana w kategoriach reguł (np. MYCIN ) wygląda zasadniczo inaczej niż to samo zadanie rozpatrywane w kategoriach ram (np. INTERNISTA). Tam, gdzie MYCIN postrzega świat medyczny jako złożony z empirycznych skojarzeń łączących objawy z chorobą, INTERNIST widzi zestaw prototypów, w szczególności prototypowych chorób, które należy dopasować do rozpatrywanego przypadku.

Zobacz też

Bibliografia

Dalsza lektura

Zewnętrzne linki