Językoznawstwo komputerowe - Computational linguistics

Lingwistyka komputerowa jest interdyscyplinarna zaniepokojenie z pola obliczeniowego modelowania w języku naturalnym , jak również badania odpowiednich obliczeniowych podejść do kwestii językowych. Ogólnie rzecz biorąc, językoznawstwo komputerowe czerpie między innymi z językoznawstwa , informatyki , sztucznej inteligencji , matematyki , logiki , filozofii , kognitywistyki , psychologii kognitywnej , psycholingwistyki , antropologii i neuronauki .

Poddziedziny i obszary pokrewne

Tradycyjnie lingwistyka komputerowa pojawiła się jako obszar sztucznej inteligencji wykonywanej przez informatyków, którzy specjalizowali się w zastosowaniu komputerów do przetwarzania języka naturalnego . Wraz z utworzeniem Association for Computational Linguistics (ACL) i ustanowieniem niezależnych serii konferencji, dziedzina ta skonsolidowała się w latach 70. i 80. XX wieku.

Association for Computational Linguistics definiuje lingwistykę komputerową jako:

...naukowe badanie języka z perspektywy obliczeniowej. Lingwiści komputerowi są zainteresowani dostarczaniem modeli obliczeniowych różnych rodzajów zjawisk językowych.

Termin „lingwistyka obliczeniowa” jest obecnie (2020) uważany za prawie synonim przetwarzania języka naturalnego (NLP) i technologii języka (ludzkiego) . Terminy te kładą większy nacisk na aspekty zastosowań praktycznych, a nie teoretyczne badania i od 2000 roku. W praktyce w dużej mierze zastąpiły termin „lingwistyka komputerowa” w społeczności NLP/ACL, chociaż odnoszą się konkretnie tylko do poddziedziny lingwistyki komputerowej stosowanej.

Językoznawstwo komputerowe ma zarówno elementy teoretyczne, jak i stosowane. Teoretyczna językoznawstwo obliczeniowe koncentruje się na zagadnieniach językoznawstwa teoretycznego i kognitywistyki. Stosowana lingwistyka komputerowa koncentruje się na praktycznych wynikach modelowania użycia języka ludzkiego.

Teoretyczna lingwistyka komputerowa obejmuje rozwój formalnych teorii gramatyki ( parsowania ) i semantyki , często opartych na logice formalnej i podejściach symbolicznych ( opartych na wiedzy ). Obszary badań, które są badane przez teoretyczną językoznawstwo obliczeniowe obejmują:

Stosowana lingwistyka komputerowa jest zdominowana przez uczenie maszynowe , tradycyjnie wykorzystujące metody statystyczne , od połowy 2010 roku przez sieci neuronowe : Socher et al. (2012) był wczesnym samouczkiem Deep Learning na ACL 2012 i spotkał się zarówno z zainteresowaniem, jak i (w tamtym czasie) sceptycyzmem większości uczestników. Do tego czasu uczenie neuronowe było zasadniczo odrzucane z powodu braku możliwości interpretacji statystycznej. Do 2015 r. uczenie głębokie przekształciło się w główne ramy NLP. Jeśli chodzi o zadania, którymi zajmuje się stosowana lingwistyka obliczeniowa, zobacz artykuł Przetwarzanie języka naturalnego . Obejmuje to klasyczne problemy, takie jak projektowanie tagerów POS (tagerów części mowy) , parserów dla języków naturalnych lub zadań, takich jak tłumaczenie maszynowe (MT), poddział lingwistyki komputerowej zajmujący się tłumaczeniem komputerów między językami . Jako jedno z najwcześniejszych i najtrudniejszych zastosowań językoznawstwa komputerowego, MT czerpie z wielu poddziedzin i aspektów zarówno teoretycznych, jak i stosowanych. Tradycyjnie automatyczne tłumaczenie językowe było uważane za bardzo trudną gałąź lingwistyki komputerowej.

Oprócz dychotomii między lingwistyką obliczeniową teoretyczną i stosowaną, istnieją inne podziały informatyki na główne obszary według różnych kryteriów, w tym:

  • medium przetwarzanego języka, czy to mówionego, czy tekstowego: rozpoznawanie mowy i synteza mowy zajmują się tym, jak język mówiony może być rozumiany lub tworzony za pomocą komputerów.
  • wykonywane zadanie , np. czy analizuje język (rozpoznawanie) czy syntetyzuje język (generowanie) : Parsowanie i generowanie to poddziały lingwistyki komputerowej zajmujące się odpowiednio demontażem języka i składaniem go.

Tradycyjnie zastosowania komputerów do rozwiązywania problemów badawczych w innych gałęziach językoznawstwa określano jako zadania w ramach językoznawstwa komputerowego. Obejmuje to między innymi

Początki

Językoznawstwo komputerowe jest często zgrupowane w dziedzinie sztucznej inteligencji, ale było obecne przed rozwojem sztucznej inteligencji. Językoznawstwo komputerowe narodziło się w Stanach Zjednoczonych w latach pięćdziesiątych XX wieku w celu wykorzystania komputerów do automatycznego tłumaczenia tekstów z języków obcych, zwłaszcza rosyjskich czasopism naukowych, na język angielski. Ponieważ komputery mogą wykonywać obliczenia arytmetyczne (systematyczne) znacznie szybciej i dokładniej niż ludzie, uważano, że to tylko kwestia czasu, zanim będą mogły zacząć przetwarzać język. Metody obliczeniowe i ilościowe są również wykorzystywane historycznie w próbach rekonstrukcji wcześniejszych form języków nowożytnych i grupowaniu języków współczesnych w rodziny językowe. Wcześniejsze metody, takie jak leksykostatystyka i glottochronologia , okazały się przedwczesne i niedokładne. Jednak ostatnie badania interdyscyplinarne, które zapożyczają koncepcje z badań biologicznych, zwłaszcza mapowania genów , okazały się dostarczać bardziej wyrafinowanych narzędzi analitycznych i bardziej wiarygodnych wyników.

Gdy tłumaczenie maszynowe (znane również jako tłumaczenie mechaniczne) nie dało od razu dokładnych tłumaczeń, automatyczne przetwarzanie ludzkich języków uznano za znacznie bardziej złożone, niż początkowo zakładano. Lingwistyka komputerowa narodziła się jako nazwa nowej dziedziny badań poświęconej opracowywaniu algorytmów i oprogramowania do inteligentnego przetwarzania danych językowych. Sam termin „lingwistyka komputerowa” został po raz pierwszy ukuty przez Davida Haysa , członka założyciela Stowarzyszenia Lingwistyki Komputerowej (ACL) i Międzynarodowego Komitetu Lingwistyki Komputerowej (ICCL).

Aby przetłumaczyć jeden język na drugi, zauważono, że trzeba rozumieć gramatykę obu języków, w tym zarówno morfologię (gramatykę form wyrazowych), jak i składnię (gramatykę budowy zdania). Aby zrozumieć składnię, trzeba było również zrozumieć semantykę i leksykon (lub „słownictwo”), a nawet trochę pragmatyki używania języka. Tak więc to, co zaczęło się jako próba tłumaczenia między językami, przekształciło się w całą dyscyplinę poświęconą zrozumieniu, jak reprezentować i przetwarzać języki naturalne za pomocą komputerów.

Obecnie badania z zakresu językoznawstwa komputerowego prowadzone są na wydziałach językoznawstwa komputerowego , laboratoriach językoznawstwa komputerowego, na wydziałach informatyki i na wydziałach językoznawstwa. Niektóre badania w dziedzinie lingwistyki komputerowej mają na celu stworzenie działających systemów przetwarzania mowy lub tekstu, podczas gdy inne mają na celu stworzenie systemu umożliwiającego interakcję człowiek-maszyna. Programy przeznaczone do komunikacji człowiek-maszyna nazywane są agentami konwersacyjnymi .

Podejścia

Tak jak językoznawstwo komputerowe może być wykonywane przez ekspertów z różnych dziedzin i za pośrednictwem szerokiego asortymentu wydziałów, tak samo dziedziny badawcze mogą obejmować różnorodny zakres tematów. W poniższych sekcjach omówiono część literatury dostępnej w całej dziedzinie podzielonej na cztery główne obszary dyskursu: językoznawstwo rozwojowe, językoznawstwo strukturalne, produkcja językowa i rozumienie językowe.

Podejścia rozwojowe

Język to umiejętność poznawcza, która rozwija się przez całe życie jednostki. Ten proces rozwojowy został zbadany przy użyciu kilku technik, a jedną z nich jest podejście obliczeniowe. Rozwój języka ludzkiego stwarza pewne ograniczenia, które utrudniają zastosowanie metody obliczeniowej do jej zrozumienia. Na przykład, podczas przyswajania języka , ludzkie dzieci są w dużej mierze narażone tylko na pozytywne dowody. Oznacza to, że podczas rozwoju językowego jednostki dostarczany jest jedyny dowód na to, co jest poprawną formą, a nie na to, co jest niepoprawne. To niewystarczające informacje dla prostej procedury testowania hipotez dla informacji tak złożonych jak język, a zatem wyznacza pewne granice dla podejścia obliczeniowego do modelowania rozwoju i przyswajania języka przez jednostkę.

Podjęto próby modelowania procesu rozwojowego przyswajania języka u dzieci pod kątem obliczeniowym, prowadząc zarówno do gramatyk statystycznych, jak i modeli koneksjonistycznych . Praca w tej dziedzinie została również zaproponowana jako metoda wyjaśnienia ewolucji języka na przestrzeni historii. Za pomocą modeli wykazano, że języków można uczyć się za pomocą kombinacji prostych danych wejściowych prezentowanych stopniowo, w miarę jak dziecko rozwija lepszą pamięć i dłuższą koncentrację uwagi. Stanowiło to jednocześnie powód długiego okresu rozwojowego ludzkich dzieci. Oba wnioski wyciągnięto ze względu na siłę sztucznej sieci neuronowej, którą stworzył projekt.

Zdolność niemowląt do rozwijania języka była również modelowana za pomocą robotów w celu testowania teorii językowych. Umożliwiono naukę jak dzieci, stworzono model oparty na modelu afordancji, w którym tworzono mapowania między działaniami, percepcjami i efektami oraz łączono je z mówionymi słowami. Co najważniejsze, roboty te były w stanie uzyskać funkcjonujące odwzorowania od słów do znaczenia bez konieczności stosowania struktury gramatycznej, znacznie upraszczając proces uczenia się i rzucając światło na informacje, które pogłębiają obecne zrozumienie rozwoju językowego. Należy zauważyć, że te informacje mogły zostać przetestowane jedynie empirycznie przy użyciu podejścia obliczeniowego.

Ponieważ nasze rozumienie rozwoju językowego jednostki w ciągu życia jest stale ulepszane dzięki sieciom neuronowym i uczeniu się systemów robotycznych , należy również pamiętać, że same języki zmieniają się i rozwijają w czasie. Podejścia obliczeniowe do zrozumienia tego zjawiska dostarczyły bardzo interesujących informacji. Korzystając z równania Price i dynamiki urn Pólya , naukowcy stworzyli system, który nie tylko przewiduje przyszłą ewolucję językową, ale także daje wgląd w historię ewolucyjną współczesnych języków. Dzięki lingwistyce obliczeniowej udało się osiągnąć ten wysiłek w zakresie modelowania, co w innym przypadku byłoby niemożliwe.

Oczywiste jest, że zrozumienie rozwoju lingwistycznego u ludzi, a także przez cały czas ewolucyjny, zostało fantastycznie poprawione dzięki postępowi w lingwistyce komputerowej. Możliwość dowolnego modelowania i modyfikowania systemów daje nauce etyczną metodę testowania hipotez, które w innym przypadku byłyby niewykonalne.

Podejścia strukturalne

Aby stworzyć lepsze modele obliczeniowe języka, kluczowe jest zrozumienie struktury języka. W tym celu język angielski został skrupulatnie zbadany przy użyciu metod obliczeniowych, aby lepiej zrozumieć, jak język działa na poziomie strukturalnym. Jednym z najważniejszych elementów umożliwiających badanie struktury językowej jest dostępność dużych korpusów językowych lub próbek. Daje to lingwistom obliczeniowym surowe dane niezbędne do uruchomienia ich modeli i lepszego zrozumienia podstawowych struktur obecnych w ogromnej ilości danych zawartych w dowolnym pojedynczym języku. Jednym z najczęściej cytowanych angielskich korpusów językowych jest Penn Treebank . Pochodzący z różnych źródeł, takich jak podręczniki komputerowe IBM i transkrybowane rozmowy telefoniczne, zbiór ten zawiera ponad 4,5 miliona słów amerykańskiego angielskiego. Korpus ten został głównie opatrzony adnotacjami przy użyciu znakowania części mowy i nawiasów składniowych i przyniósł istotne obserwacje empiryczne związane ze strukturą języka.

Opracowano również teoretyczne podejścia do struktury języków. Prace te pozwalają językoznawstwu komputerowemu na stworzenie ram, w ramach których można opracowywać hipotezy, które pogłębią zrozumienie języka na niezliczone sposoby. Jedna z oryginalnych tez teoretycznych dotyczących internalizacji gramatyki i struktury języka proponowała dwa typy modeli. W tych modelach poznane zasady lub wzorce stają się silniejsze wraz z częstotliwością ich spotkań. Praca stworzyła również pytanie, na które lingwiści komputerowi mają odpowiedzieć: w jaki sposób niemowlę uczy się określonej i nienormalnej gramatyki ( forma normalna Chomsky'ego ) bez uczenia się nadmiernie uogólnionej wersji i utknięcia? Wysiłki teoretyczne, takie jak te, wyznaczają kierunek badań na wczesnym etapie życia dziedziny studiów i mają kluczowe znaczenie dla rozwoju tej dziedziny.

Informacje strukturalne o językach pozwalają na odkrycie i wdrożenie rozpoznawania podobieństwa między parami wypowiedzi tekstowych. Na przykład niedawno udowodniono, że na podstawie informacji strukturalnych obecnych we wzorcach ludzkiego dyskursu, konceptualne wykresy rekurencyjne mogą być wykorzystywane do modelowania i wizualizacji trendów w danych oraz tworzenia wiarygodnych miar podobieństwa między naturalnymi wypowiedziami tekstowymi. Technika ta jest silnym narzędziem do dalszego badania struktury ludzkiego dyskursu . Bez obliczeniowego podejścia do tego pytania, niezwykle złożone informacje obecne w danych dyskursu pozostałyby niedostępne dla naukowców.

Informacje dotyczące danych strukturalnych języka są dostępne zarówno dla języka angielskiego, jak i innych języków, takich jak japoński . Za pomocą metod obliczeniowych przeanalizowano japońskie korpusy zdań i znaleziono wzorzec logarytmicznej normalności w odniesieniu do długości zdania. Chociaż dokładna przyczyna tej lognormalności pozostaje nieznana, to właśnie ten rodzaj informacji ma odkryć lingwistyka obliczeniowa. Informacje te mogą prowadzić do dalszych ważnych odkryć dotyczących podstawowej struktury języka japońskiego i mogą mieć dowolny wpływ na rozumienie japońskiego jako języka. Językoznawstwo komputerowe pozwala na szybkie wprowadzanie bardzo ekscytujących uzupełnień do bazy wiedzy naukowej i bardzo mało miejsca na wątpliwości.

Bez obliczeniowego podejścia do struktury danych językowych większość dostępnych obecnie informacji nadal byłaby ukryta pod ogromem danych w dowolnym języku. Językoznawstwo komputerowe pozwala naukowcom analizować ogromne ilości danych niezawodnie i wydajnie, stwarzając możliwość odkryć niepodobnych do wszystkich innych podejść.

Podejścia produkcyjne

Produkcja języka jest równie skomplikowany z powodu przekazywanych informacji i niezbędnych umiejętności, które płynnie producent musi mieć. Oznacza to, że zrozumienie to tylko połowa problemu komunikacji. Druga połowa to sposób, w jaki system wytwarza język, a lingwistyka komputerowa dokonała interesujących odkryć w tej dziedzinie.

Alan Turing : informatyk i imiennik twórca testu Turinga jako metody pomiaru inteligencji maszyny

W słynnym obecnie artykule opublikowanym w 1950 r. Alan Turing zaproponował możliwość, że pewnego dnia maszyny będą miały zdolność „myślenia”. Jako eksperyment myślowy dla tego, co może zdefiniować pojęcie myślenia w maszynach, zaproponował „test imitacji”, w którym człowiek prowadzi dwie rozmowy tylko tekstowe, jedną z drugim człowiekiem, a drugą z maszyną, która próbuje reagować jak człowiek. . Turing proponuje, że jeśli podmiot nie potrafi odróżnić człowieka od maszyny, można wywnioskować, że maszyna jest zdolna do myślenia. Dziś test ten znany jest jako test Turinga i pozostaje wpływowym pomysłem w dziedzinie sztucznej inteligencji.

Joseph Weizenbaum : były profesor MIT i informatyk , który opracował ELIZA , prymitywny program komputerowy wykorzystujący przetwarzanie języka naturalnego .

Jednym z najwcześniejszych i najbardziej znanych przykładów programu komputerowego zaprojektowanego do naturalnej konwersacji z ludźmi jest program ELIZA opracowany przez Josepha Weizenbauma w MIT w 1966 roku. Program naśladował psychoterapeutę Rogeria podczas odpowiadania na pisemne wypowiedzi i pytania zadawane przez użytkownika. Wydawało się, że jest w stanie zrozumieć, co zostało do niego powiedziane i inteligentnie zareagować, ale w rzeczywistości po prostu podążał za rutyną dopasowywania wzorców, która polegała na zrozumieniu tylko kilku słów kluczowych w każdym zdaniu. Jego odpowiedzi zostały wygenerowane przez ponowne połączenie nieznanych części zdania z odpowiednio przetłumaczonymi wersjami znanych słów. Na przykład w wyrażeniu „Wydaje się, że mnie nienawidzisz” ELIZA rozumie „ty” i „mnie”, co pasuje do ogólnego wzorca „ty [niektóre słowa] ja”, pozwalając ELIZA zaktualizować słowa „ty” i „ja” do „ja” i „ty” i odpowiedzi „Co sprawia, że ​​myślisz, że cię nienawidzę?”. W tym przykładzie ELIZA nie rozumie słowa „nienawiść”, ale nie jest to wymagane do logicznej odpowiedzi w kontekście tego rodzaju psychoterapii.

Niektóre projekty wciąż próbują rozwiązać problem, który jako pierwszy zapoczątkował lingwistykę komputerową jako swoją dziedzinę. Jednak metody stały się bardziej wyrafinowane, a co za tym idzie, wyniki generowane przez lingwistów komputerowych stały się bardziej pouczające. Aby ulepszyć tłumaczenie komputerowe , porównano kilka modeli, w tym ukryte modele Markowa , techniki wygładzania i specyficzne udoskonalenia tych, które można zastosować do tłumaczenia czasowników. Stwierdzono, że model, który daje najbardziej naturalne tłumaczenia słów niemieckich i francuskich, był udoskonalonym modelem dopasowania z zależnością pierwszego rzędu i modelem płodności. Zapewniają również wydajne algorytmy szkoleniowe dla prezentowanych modeli, które mogą dać innym naukowcom możliwość dalszej poprawy ich wyników. Ten rodzaj pracy jest specyficzny dla lingwistyki komputerowej i ma zastosowania, które mogą znacznie poprawić zrozumienie, w jaki sposób język jest wytwarzany i rozumiany przez komputery.

Wykonano również prace nad tym, aby komputery tworzyły język w bardziej naturalistyczny sposób. Wykorzystując wkład językowy od ludzi, skonstruowano algorytmy, które są w stanie zmodyfikować styl produkcji systemu w oparciu o taki czynnik, jak wkład językowy człowieka lub bardziej abstrakcyjne czynniki, takie jak uprzejmość lub dowolny z pięciu głównych wymiarów osobowości . Ta praca opiera się na podejściu obliczeniowym za pomocą modeli estymacji parametrów , aby kategoryzować szeroką gamę stylów językowych, które widzimy u osób, i uprościć je, aby komputer działał w ten sam sposób, dzięki czemu interakcja człowiek-komputer jest znacznie bardziej naturalna.

Interaktywne podejście oparte na tekście

Wiele najwcześniejszych i najprostszych modeli interakcji człowiek-komputer, takich jak na przykład ELIZA, wykorzystuje tekstowe dane wejściowe od użytkownika w celu wygenerowania odpowiedzi z komputera. Dzięki tej metodzie słowa wpisane przez użytkownika powodują, że komputer rozpoznaje określone wzorce i odpowiednio odpowiada w procesie znanym jako wykrywanie słów kluczowych .

Interaktywne podejście oparte na mowie

Najnowsze technologie kładą większy nacisk na systemy interaktywne oparte na mowie. Systemy te, takie jak Siri w systemie operacyjnym iOS , działają na podobnej technice rozpoznawania wzorców, co systemy tekstowe, ale w przypadku tych pierwszych wprowadzanie danych przez użytkownika odbywa się za pomocą rozpoznawania mowy . Ta gałąź lingwistyki obejmuje przetwarzanie mowy użytkownika jako fal dźwiękowych oraz interpretację akustyki i wzorców językowych, aby komputer rozpoznał dane wejściowe.

Podejścia do zrozumienia

Współczesna lingwistyka komputerowa skupia się w dużej mierze na zrozumieniu. Wraz z rozprzestrzenianiem się Internetu i obfitością łatwo dostępnego języka pisanego, możliwość stworzenia programu zdolnego do zrozumienia ludzkiego języka miałaby wiele szerokich i ekscytujących możliwości, w tym ulepszone wyszukiwarki, zautomatyzowaną obsługę klienta i edukację online.

Wczesne prace nad zrozumieniem obejmowały zastosowanie statystyk bayesowskich do zadania optycznego rozpoznawania znaków, jak zilustrowali Bledsoe i Browing w 1959, w których duży słownik możliwych liter został wygenerowany przez „uczenie się” z przykładowych liter, a następnie prawdopodobieństwo, że którykolwiek z nich poznane przykłady dopasowane do nowych danych wejściowych zostały połączone w celu podjęcia ostatecznej decyzji. Inne próby zastosowania statystyk bayesowskich do analizy językowej obejmowały pracę Mostellera i Wallace'a (1963), w której zastosowano analizę słów użytych w The Federalist Papers w celu ustalenia ich autorstwa (wnioskując, że Madison najprawdopodobniej jest autorem większości dokumenty tożsamości).

W 1971 Terry Winograd opracował wczesny silnik przetwarzania języka naturalnego , zdolny do interpretowania naturalnie pisanych poleceń w prostym, rządzonym przez reguły środowisku. Podstawowym programem parsującym język w tym projekcie był SHRDLU , który był w stanie przeprowadzić nieco naturalną rozmowę z użytkownikiem wydając polecenia, ale tylko w zakresie środowiska zabawkowego zaprojektowanego do zadania. To środowisko składało się z bloków o różnych kształtach i kolorach, a SHRDLU było w stanie zinterpretować polecenia, takie jak „Znajdź blok, który jest wyższy niż ten, który trzymasz i włóż go do pudełka”. i zadawanie pytań typu „Nie rozumiem, o którą piramidę chodzi”. w odpowiedzi na dane wprowadzone przez użytkownika. Choć imponujący, ten rodzaj przetwarzania języka naturalnego okazał się znacznie trudniejszy poza ograniczonym zakresem środowiska zabawek. Podobnie projekt opracowany przez NASA o nazwie LUNAR miał na celu dostarczenie odpowiedzi na naturalnie napisane pytania dotyczące analizy geologicznej skał księżycowych zwróconych przez misje Apollo. Tego rodzaju problemy określa się mianem odpowiadania na pytania .

Pierwsze próby zrozumienia języka mówionego opierały się na pracach przeprowadzonych w latach 60. i 70. XX wieku w modelowaniu sygnałów, gdzie nieznany sygnał jest analizowany w celu poszukiwania wzorców i przewidywania na podstawie jego historii. Wstępne i nieco udane podejście do zastosowania tego rodzaju modelowania sygnałów w języku zostało osiągnięte przy użyciu ukrytych modeli Markowa, jak opisał Rabiner w 1989 roku. Podejście to ma na celu określenie prawdopodobieństw dla dowolnej liczby modeli, które mogą być użyte do generowania mowy, a także modelowanie prawdopodobieństw dla różnych słów generowanych z każdego z tych możliwych modeli. Podobne podejście zastosowano we wczesnych próbach rozpoznawania mowy, które rozpoczęły się w późnych latach 70. w IBM, wykorzystując prawdopodobieństwa pary słowo/część mowy.

Ostatnio tego rodzaju podejścia statystyczne zostały zastosowane do trudniejszych zadań, takich jak identyfikacja tematów przy użyciu estymacji parametrów bayesowskich w celu wywnioskowania prawdopodobieństw tematów w dokumentach tekstowych.

Aplikacje

Stosowana lingwistyka komputerowa jest w dużej mierze równoważna z przetwarzaniem języka naturalnego . Przykładowe aplikacje dla użytkowników końcowych obejmują oprogramowanie do rozpoznawania mowy, takie jak funkcja Siri firmy Apple, narzędzia do sprawdzania pisowni, programy do syntezy mowy , które są często używane do demonstrowania wymowy lub pomocy osobom niepełnosprawnym, oraz programy do tłumaczenia maszynowego i witryny internetowe, takie jak Tłumacz Google.

Językoznawstwo komputerowe jest również pomocne w sytuacjach związanych z mediami społecznościowymi i Internetem , np. przy udostępnianiu filtrów treści na czatach lub w wyszukiwarkach internetowych, grupowaniu i porządkowaniu treści poprzez eksplorację mediów społecznościowych , wyszukiwanie dokumentów i klastrowanie. Na przykład, jeśli ktoś wyszukuje „czerwony, duży, czterokołowy pojazd”, aby znaleźć zdjęcia czerwonej ciężarówki, wyszukiwarka nadal znajdzie żądane informacje, dopasowując słowa, takie jak „czterokołowy” do „samochodu”.

Podejścia obliczeniowe są również ważne dla wspierania badań lingwistycznych, np. w zakresie językoznawstwa korpusowego lub językoznawstwa historycznego . Jeśli chodzi o badanie zmian w czasie, metody obliczeniowe mogą przyczynić się do modelowania i identyfikacji rodzin językowych (patrz dalsze ilościowe lingwistyka porównawcza lub filogenetyka ), a także do modelowania zmian brzmienia i znaczenia.

Spuścizna

Temat językoznawstwa komputerowego odbił się w kulturze popularnej:

Zobacz też

Bibliografia

Dalsza lektura

Zewnętrzne linki