Frequentystyczne prawdopodobieństwo - Frequentist probability

John Venn , który w swojej książce The Logic of Chance (1866) przedstawił dokładną ekspozycję prawdopodobieństwa częstości

Frequentist prawdopodobieństwo lub częstizm jest interpretacją prawdopodobieństwa ; definiuje prawdopodobieństwo zdarzenia jako granicę jego względnej częstości w wielu próbach. Prawdopodobieństwa można znaleźć (w zasadzie) w powtarzalnym, obiektywnym procesie (a zatem idealnie pozbawione są opinii). Ta interpretacja wspiera potrzeby statystyczne wielu naukowców doświadczalnych i ankieterów. Nie zaspokaja jednak wszystkich potrzeb; hazardziści zazwyczaj wymagają oszacowania szans bez eksperymentów.

Rozwój relacji częstolistycznej był motywowany problemami i paradoksami dominującego wcześniej punktu widzenia, klasycznej interpretacji . W interpretacji klasycznej prawdopodobieństwo definiowano w kategoriach zasady obojętności , opartej na naturalnej symetrii problemu, a więc np . prawdopodobieństwa gry w kości wynikają z naturalnej symetrycznej sześcioboczności sześcianu. Ta klasyczna interpretacja natknęła się na każdy problem statystyczny, który nie ma naturalnej symetrii rozumowania.

Definicja

W interpretacji częstystycznej prawdopodobieństwa są omawiane tylko w przypadku dobrze zdefiniowanych eksperymentów losowych. Zbiór wszystkich możliwych wyników eksperymentu losowego nazywamy przestrzenią próbną eksperymentu. Zdarzenie jest definiowane jako określony podzbiór przestrzeni próbki, który należy wziąć pod uwagę. Dla danego zdarzenia może mieć miejsce tylko jedna z dwóch możliwości: ma miejsce lub nie. Względna częstotliwość występowania zdarzenia, obserwowana w kilku powtórzeniach eksperymentu, jest miarą prawdopodobieństwa tego zdarzenia. Jest to podstawowa koncepcja prawdopodobieństwa w interpretacji częstolistycznej.

Twierdzenie o podejściu częstościowym jest takie, że wraz ze wzrostem liczby prób zmiana względnej częstotliwości będzie się zmniejszać. Stąd prawdopodobieństwo można postrzegać jako wartość graniczną odpowiednich częstotliwości względnych.

Zakres

Interpretacja częstolistyczna to filozoficzne podejście do definicji i wykorzystania prawdopodobieństw; jest to jedno z kilku takich podejść. Nie stara się uchwycić wszystkich konotacji pojęcia „prawdopodobne” w mowie potocznej języków naturalnych.

Interpretując, nie jest to sprzeczne z matematyczną aksjomatyzacją teorii prawdopodobieństwa; raczej dostarcza wskazówek, jak zastosować matematyczną teorię prawdopodobieństwa w rzeczywistych sytuacjach. Oferuje wyraźne wskazówki dotyczące konstruowania i projektowania praktycznych eksperymentów, zwłaszcza w zestawieniu z interpretacją bayesowską . Kwestia, czy te wskazówki są przydatne, czy też podatne na błędną interpretację, jest źródłem kontrowersji. Zwłaszcza wtedy, gdy błędnie zakłada się, że częstotliwościowa interpretacja prawdopodobieństwa jest jedyną możliwą podstawą wnioskowania o częstościowości . Tak więc, na przykład, lista błędnych interpretacji znaczenia wartości p towarzyszy artykułowi o wartościach p; kontrowersje są szczegółowo opisane w artykule na temat testowania hipotez statystycznych . W paradox Jeffreys-Lindley pokazuje, jak różne interpretacje, stosowane do tego samego zestawu danych, może prowadzić do różnych wniosków o „istotności statystycznej” z wyniku.

Jak zauważył William Feller :

W naszym systemie nie ma miejsca na spekulacje dotyczące prawdopodobieństwa wschodu słońca jutro . Zanim zaczniemy o tym mówić, musimy uzgodnić model (wyidealizowany), który przypuszczalnie przebiegałby wzdłuż linii „z nieskończenie wielu światów wybiera się na chybił trafił…”. zarówno nieciekawe, jak i bezsensowne.

Komentarz Fellera był krytyką Pierre-Simona Laplace'a , który opublikował rozwiązanie problemu wschodu słońca przy użyciu alternatywnej interpretacji prawdopodobieństwa. Pomimo wyraźnego i natychmiastowego zastrzeżenia Laplace'a w źródle, opartego na wiedzy astronomicznej i prawdopodobieństwie, nastąpiły dwa stulecia krytyki.

Historia

Pogląd częsty mógł być zapowiedzią Arystotelesa w Retoryce , kiedy pisał:

prawdopodobne jest to, co w większości się dzieje

Poisson wyraźnie rozróżnił prawdopodobieństwa obiektywne i subiektywne w 1837 r. Wkrótce potem pojawiła się lawina niemal równoczesnych publikacji Milla , Ellisa („O podstawach teorii prawdopodobieństwa” i „Uwagi na temat fundamentalnych zasad teorii prawdopodobieństwa”), Cournot ( Exposition de la théorie des opportunities et des probabilités ) i Fries wprowadzili pogląd częsty. Venn przedstawił obszerną ekspozycję ( Logika przypadku: esej o podstawach i prowincji teorii prawdopodobieństwa (wyd. opublikowane w 1866, 1876, 1888)) dwie dekady później. Zostały one dodatkowo poparte publikacjami Boole'a i Bertranda . Pod koniec XIX wieku interpretacja częstolistyczna była dobrze ugruntowana i być może dominowała w naukach. Następne pokolenie ustanowiło narzędzia klasycznej statystyki wnioskowania (testowanie istotności, testowanie hipotez i przedziały ufności) oparte na prawdopodobieństwie częstościowym.

Alternatywnie, Jacob Bernoulli (AKA James lub Jacques) rozumiał pojęcie prawdopodobieństwa częstościowego i pośmiertnie opublikował krytyczny dowód (słabe prawo wielkich liczb) w 1713 roku . Przypisuje mu się również uznanie dla subiektywnego prawdopodobieństwa (przed i bez twierdzenia Bayesa). Gauss i Laplace używali częstościowego (i innych) prawdopodobieństwa w wyprowadzeniu metody najmniejszych kwadratów sto lat później, pokolenie przed Poissonem. Laplace rozważał prawdopodobieństwa zeznań, tabel śmiertelności, wyroków trybunałów itp., które są mało prawdopodobnymi kandydatami do prawdopodobieństwa klasycznego. W tym ujęciu wkład Poissona polegał na jego ostrej krytyce alternatywnej „odwrotnej” (subiektywnej, bayesowskiej) interpretacji prawdopodobieństwa. Wszelka krytyka Gaussa i Laplace'a była wyciszona i dorozumiana. (Ich późniejsze wyprowadzenia nie używały prawdopodobieństwa odwrotnego).

Głównymi współtwórcami „klasycznych” statystyk na początku XX wieku byli Fisher , Neyman i Pearson . Fisher przyczynił się do powstania większości statystyk i uczynił testowanie istotności rdzeniem nauk eksperymentalnych, chociaż był krytyczny wobec częstostycznej koncepcji „powtórnego pobierania próbek z tej samej populacji” ( Rubin, 2020 ); Neyman sformułował przedziały ufności i wniósł duży wkład w teorię próbkowania; Neyman i Pearson połączyli siły, tworząc testowanie hipotez. Wszyscy cenili obiektywność, więc najlepszą dostępną dla nich interpretacją prawdopodobieństwa była częsta. Wszyscy byli podejrzliwi wobec „odwrotnego prawdopodobieństwa” (dostępnej alternatywy) z wcześniejszymi prawdopodobieństwami wybranymi przy użyciu zasady obojętności. Fisher powiedział: „... teoria odwrotnego prawdopodobieństwa opiera się na błędzie [odnosząc się do twierdzenia Bayesa] i musi zostać całkowicie odrzucona”. (z jego Metody statystyczne dla pracowników naukowych). Podczas gdy Neyman był czystym częstym bywalcem, poglądy Fishera na prawdopodobieństwo były wyjątkowe; Obaj mieli zniuansowany pogląd na prawdopodobieństwo. von Mises zaoferował połączenie matematycznego i filozoficznego wsparcia dla częstości w epoce.

Etymologia

Według Oxford English Dictionary , termin „frequentist” został po raz pierwszy użyty przez MG Kendalla w 1949 roku, w przeciwieństwie do Bayesa , którego nazwał „non-frequentist”. Zaobserwował

3.... możemy ogólnie rozróżnić dwie główne postawy. Jeden przyjmuje prawdopodobieństwo jako „stopień racjonalnego przekonania” lub podobną ideę… drugi definiuje prawdopodobieństwo w kategoriach częstotliwości występowania zdarzeń lub względnych proporcji w „populacjach” lub „zbiorach”; (str. 101)
...
12. Można by sądzić, że różnice między częstymi i nieczęstymi (jeśli mogę ich tak nazwać) wynikają w dużej mierze z różnic w dziedzinach, które rzekomo obejmują. (str. 104)
...
Twierdzę, że tak nie jest ... Zasadniczym rozróżnieniem między częstymi i nie-częstymi jest, jak sądzę, to, że ci pierwsi, starając się uniknąć czegokolwiek pachnącego kwestiami opinii, dążą do zdefiniowania prawdopodobieństwa w kategoriach obiektywne właściwości populacji, rzeczywiste lub hipotetyczne, podczas gdy te ostatnie nie. [podkreślenie w oryginale]

„Teoria prawdopodobieństwa częstotliwości” została wykorzystana o pokolenie wcześniej jako tytuł rozdziału w Keynes (1921).

Sekwencja historyczna: wprowadzono koncepcje prawdopodobieństwa i wyprowadzono znaczną część matematyki prawdopodobieństwa (przed XX wiekiem), opracowano klasyczne metody wnioskowania statystycznego, utrwalono matematyczne podstawy prawdopodobieństwa i wprowadzono obecną terminologię (wszystkie w XX wieku). Pierwotne źródła historyczne w rachunku prawdopodobieństwa i statystyki nie wykorzystywały aktualnej terminologii prawdopodobieństwa klasycznego, subiektywnego (bayesowskiego) i częstszego.

Alternatywne poglądy

Teoria prawdopodobieństwa to gałąź matematyki. Chociaż jej korzenie sięgają wieków w przeszłość, osiągnęła dojrzałość dzięki aksjomatom Andrieja Kołmogorowa w 1933 roku. Teoria ta skupia się na prawidłowych operacjach na wartościach prawdopodobieństwa, a nie na początkowym przypisaniu wartości; matematyka jest w dużej mierze niezależna od jakiejkolwiek interpretacji prawdopodobieństwa.

Zastosowania i interpretacje prawdopodobieństwa są rozważane przez filozofię, nauki ścisłe i statystykę. Wszystkich interesuje wydobywanie wiedzy z obserwacji — rozumowanie indukcyjne . Istnieje wiele konkurencyjnych interpretacji; Wszyscy mają problemy. Interpretacja częstolistyczna rozwiązuje trudności z interpretacją klasyczną, takie jak każdy problem, w którym naturalna symetria wyników nie jest znana. Nie porusza innych kwestii, takich jak książka holenderska .

  • Klasyczne prawdopodobieństwo przypisuje prawdopodobieństwa oparte na wyidealizowanej fizycznej symetrii (kostki, monety, karty). Klasyczna definicja jest zagrożona kołowością; Prawdopodobieństwa definiuje się zakładając równość prawdopodobieństw. W przypadku braku symetrii użyteczność definicji jest ograniczona.
  • Subiektywne (bayesowskie) prawdopodobieństwo (rodzina konkurencyjnych interpretacji) uwzględnia stopnie wiary. Wszystkie praktyczne „subiektywne” interpretacje prawdopodobieństwa są tak ograniczone do racjonalności, że unikają większości subiektywności. Rzeczywista subiektywność odpycha niektóre definicje nauki, które dążą do wyników niezależnych od obserwatora i analityka. Inne zastosowania bayesowskie w nauce (np. logiczny bayesianizm) obejmują wrodzoną subiektywność wielu badań i obiektów naukowych oraz wykorzystują rozumowanie bayesowskie do umieszczania granic i kontekstu na wpływ podmiotowości na wszelkie analizy. Historyczne korzenie tej koncepcji rozciągały się na takie nieliczbowe zastosowania, jak dowody prawne.
  • Prawdopodobieństwo skłonności postrzega prawdopodobieństwo jako zjawisko przyczynowe, a nie czysto opisowe lub subiektywne.

Uwagi

Bibliografia

  • PW Bridgman, Logika fizyki współczesnej , 1927
  • Kościół Alonzo, Pojęcie przypadkowej sekwencji , 1940
  • Harald Cramér, Matematyczne metody statystyki , 1946
  • William Feller, Wprowadzenie do teorii prawdopodobieństwa i jej zastosowań , 1957
  • P Martin-Löf, O koncepcji ciągu losowego , 1966
  • Richard von Mises, Probability, Statistics, and Truth , 1939 (niemiecki oryginał 1928)
  • Jerzy Neyman, Pierwszy kurs prawdopodobieństwa i statystyki , 1950
  • Hans Reichenbach, Teoria prawdopodobieństwa , 1949 (oryginał niemiecki 1935)
  • Bertrand Russell, Wiedza ludzka , 1948
  • Friedman, C. (1999). „Interpretacja częstotliwości w prawdopodobieństwie” . Postępy w matematyce stosowanej . 23 (3): 234–254. doi : 10.1006/aama.1999.0653 . PS