Analiza czynnikiem potwierdzającym - Confirmatory factor analysis

W statystykach , analiza czynnik potwierdzający ( CFA ) jest specjalną formą analizy czynnikowej , najczęściej stosowanych w badaniach społecznych. Służy do sprawdzenia, czy miary konstruktu są zgodne z rozumieniem przez badacza natury tego konstruktu (lub czynnika). Jako taki, celem konfirmacyjnej analizy czynnikowej jest sprawdzenie, czy dane pasują do hipotetycznego modelu pomiaru. Ten hipotetyczny model oparty jest na teorii i/lub wcześniejszych badaniach analitycznych. CFA został po raz pierwszy opracowany przez Jöreskoga (1969) i zbudował i zastąpił starsze metody analizy trafności konstruktów, takie jak macierz MTMM opisana w Campbell i Fiske (1959).

W konfirmacyjnej analizie czynnikowej badacz najpierw opracowuje hipotezę dotyczącą tego, jakie czynniki jego zdaniem leżą u podstaw zastosowanych miar (np. „ Depresja ” jest czynnikiem leżącym u podstaw Inwentarza Depresji Becka i Skali Oceny Depresji Hamiltona ) i może nałożyć ograniczenia na model na podstawie tych a priori hipotez. Nakładając te ograniczenia, badacz wymusza spójność modelu z ich teorią. Na przykład, jeśli założymy, że istnieją dwa czynniki odpowiedzialne za kowariancję w miarach i że czynniki te nie są ze sobą powiązane, badacz może stworzyć model, w którym korelacja między czynnikiem A i czynnikiem B jest ograniczona do zera. Następnie można uzyskać miary dopasowania modelu, aby ocenić, jak dobrze proponowany model uchwycił kowariancję między wszystkimi pozycjami lub miarami w modelu. Jeżeli ograniczenia nałożone przez badacza na model są niezgodne z danymi z próby, to wyniki testów statystycznych dopasowania modelu wskażą słabe dopasowanie, a model zostanie odrzucony. Jeśli dopasowanie jest słabe, przyczyną może być to, że niektóre elementy mierzą wiele czynników. Może się również zdarzyć, że niektóre pozycje w ramach czynnika są ze sobą bardziej powiązane niż inne.

W niektórych zastosowaniach wymóg „obciążeń zerowych” (dla wskaźników, które nie mają obciążać określonego czynnika) został uznany za zbyt rygorystyczny. Nowo opracowana metoda analizy, „eksploracyjne modelowanie równań strukturalnych”, określa hipotezy dotyczące związku między obserwowanymi wskaźnikami a ich domniemanymi pierwotnymi czynnikami latentnymi, umożliwiając jednocześnie szacowanie ładunków innymi czynnikami latentnymi.

Model statystyczny

W konfirmacyjnej analizie czynnikowej badacze zazwyczaj są zainteresowani badaniem stopnia, w jakim odpowiedzi na wektor p x 1 obserwowalnych zmiennych losowych można wykorzystać do przypisania wartości jednej lub większej liczbie nieobserwowanych zmiennych η . Badanie jest w dużej mierze realizowane poprzez oszacowanie i ocenę obciążenia każdego elementu użytego do zbadania aspektów nieobserwowanej zmiennej latentnej. Oznacza to, że y[i] jest wektorem obserwowanych odpowiedzi przewidywanych przez nieobserwowaną zmienną latentną , która jest zdefiniowana jako:

,

gdzie jest wektorem p x 1 obserwowanych zmiennych losowych, są nieobserwowanymi zmiennymi latentnymi i jest macierzą p x k , gdzie k jest równe liczbie zmiennych latentnych. Ponieważ są niedoskonałymi miarami , model również składa się z błędu, . Szacunki w przypadku największego prawdopodobieństwa (ML) generowane przez iteracyjne minimalizowanie funkcji dopasowania,

gdzie jest macierzą wariancji-kowariancji implikowaną przez proponowany model analizy czynnikowej i jest obserwowaną macierzą wariancji-kowariancji. Oznacza to, że wartości są znajdowane dla dowolnych parametrów modelu, które minimalizują różnicę między macierzą wariancji-kowariancji implikowanej przez model a macierzą wariancji-kowariancji obserwowanej.

Alternatywne strategie szacowania

Chociaż do szacowania modeli CFA zastosowano wiele algorytmów, zasadą estymacji pozostaje największe prawdopodobieństwo (ML). To powiedziawszy, modele CFA są często stosowane do warunków danych, które odbiegają od normalnych wymagań teorii dla prawidłowego oszacowania ML. Na przykład, socjolodzy często szacują modele CFA z nienormalnymi danymi i wskaźnikami skalowanymi przy użyciu dyskretnych uporządkowanych kategorii. W związku z tym opracowano alternatywne algorytmy, które uwzględniają różne warunki danych, z jakimi spotykają się badacze. Alternatywne estymatory zostały scharakteryzowane na dwa ogólne typy: (1) rzetelny i (2) estymator o ograniczonej informacji.

Kiedy ML jest wdrażany z danymi, które odbiegają od założeń normalnej teorii, modele CFA mogą generować tendencyjne szacunki parametrów i mylące wnioski. Dokładna estymacja zazwyczaj próbuje rozwiązać problem, dostosowując model teorii normalnej χ 2 i błędy standardowe. Na przykład Satorra i Bentler (1994) zalecili stosowanie estymacji ML w zwykły sposób, a następnie podzielenie modelu χ 2 przez miarę stopnia wielowymiarowej kurtozy. Dodatkową zaletą solidnych estymatorów ML jest ich dostępność w powszechnym oprogramowaniu SEM (np. LAVAAN).

Niestety, niezawodne estymatory ML mogą stać się nie do utrzymania w typowych warunkach danych. W szczególności, gdy wskaźniki są skalowane przy użyciu kilku kategorii odpowiedzi (np. nie zgadzam się , neutralnie , zgadzam się ), solidne estymatory ML mają tendencję do słabych wyników. Ograniczone estymatory informacji, takie jak najmniejsze kwadraty ważone (WLS), są prawdopodobnie lepszym wyborem, gdy wskaźniki jawne przyjmują formę porządkową. Ogólnie rzecz biorąc, ograniczone estymatory informacji zajmują się wskaźnikami porządkowymi, stosując korelacje polichoryczne w celu dopasowania modeli CFA. Korelacje polichoryczne wychwytują kowariancję między dwiema zmiennymi latentnymi, gdy obserwuje się tylko ich skategoryzowaną formę, co jest osiągane w dużej mierze poprzez estymację parametrów progowych.

Eksploracyjna analiza czynnikowa

Zarówno eksploracyjna analiza czynnikowa (EFA), jak i konfirmacyjna analiza czynnikowa (CFA) są wykorzystywane do zrozumienia wspólnej wariancji mierzonych zmiennych, która, jak się uważa, można przypisać czynnikowi lub utajonemu konstruktowi. Jednak pomimo tego podobieństwa EFA i CFA są koncepcyjnie i statystycznie odrębnymi analizami.

Celem EFA jest identyfikacja czynników na podstawie danych i maksymalizacja wyjaśnionej wariancji. Od badacza nie wymaga się postawienia żadnych konkretnych hipotez na temat tego, ile czynników się pojawi i jakie elementy lub zmienne będą składać się z tych czynników. Jeśli te hipotezy istnieją, nie są one uwzględniane i nie mają wpływu na wyniki analiz statystycznych. Natomiast CFA ocenia hipotezy a priori i jest w dużej mierze napędzane teorią. Analizy CFA wymagają od badacza z góry postawienia hipotezy na temat liczby czynników, tego, czy są one skorelowane, oraz które pozycje/miary ładują się i odzwierciedlają, które czynniki. Jako taka, w przeciwieństwie do eksploracyjnej analizy czynnikowej , gdzie wszystkie ładunki mogą się zmieniać, CFA pozwala na wyraźne ograniczenie pewnych ładunków na zero.

EFA jest często uważany za bardziej odpowiedni niż CFA na wczesnych etapach rozwoju skali, ponieważ CFA nie pokazuje, jak dobrze twoje pozycje ładują się na niehipotetyczne czynniki. Innym mocnym argumentem przemawiającym za początkowym zastosowaniem EFA jest to, że błędna specyfikacja liczby czynników na wczesnym etapie rozwoju skali zazwyczaj nie zostanie wykryta przez konfirmacyjną analizę czynnikową. Na późniejszych etapach rozwoju skali techniki konfirmacyjne mogą dostarczyć więcej informacji poprzez wyraźny kontrast konkurujących struktur czynnikowych.

EFA jest czasami zgłaszane w badaniach, gdy CFA byłoby lepszym podejściem statystycznym. Argumentowano, że CFA może być restrykcyjne i nieodpowiednie, gdy jest używane w sposób eksploracyjny. Jednak pomysł, że CFA jest wyłącznie analizą „potwierdzającą” może czasami wprowadzać w błąd, ponieważ indeksy modyfikacji stosowane w CFA mają nieco eksploracyjny charakter. Wskaźniki modyfikacji pokazują poprawę dopasowania modelu w przypadku braku ograniczeń określonego współczynnika. Podobnie EFA i CFA nie muszą być analizami wzajemnie się wykluczającymi; Argumentowano, że EFA jest rozsądną kontynuacją słabo dopasowanego modelu CFA.

Modelowanie równań strukturalnych

Oprogramowanie do modelowania równań strukturalnych jest zwykle używane do przeprowadzania konfirmacyjnej analizy czynnikowej. LISREL , EQS, AMOS, Mplus i pakiet lavaan w R to popularne programy. CFA jest również często używany jako pierwszy krok do oceny proponowanego modelu pomiarowego w modelu równania strukturalnego. Wiele zasad interpretacji dotyczących oceny dopasowania modelu i modyfikacji modelu w modelowaniu równań strukturalnych dotyczy w równym stopniu CFA. CFA różni się od modelowania równań strukturalnych tym, że w CFA nie ma strzałek skierowanych między czynnikami utajonymi . Innymi słowy, podczas gdy w CFA nie zakłada się, że czynniki bezpośrednio powodują siebie nawzajem, SEM często określa poszczególne czynniki i zmienne jako przyczynowe. W kontekście SEM CFA jest często nazywany „modelem pomiarowym”, natomiast relacje między zmiennymi latentnymi (ze strzałkami skierowanymi) nazywane są „modelem strukturalnym”.

Ocena dopasowania modelu

W CFA stosuje się kilka testów statystycznych, aby określić, jak dobrze model pasuje do danych. Należy zauważyć, że dobre dopasowanie między modelem a danymi nie oznacza, że ​​model jest „poprawny”, ani nawet, że wyjaśnia dużą część kowariancji. „Dobre dopasowanie modelu” wskazuje jedynie, że model jest wiarygodny. Przy zgłaszaniu wyników konfirmacyjnej analizy czynnikowej zachęca się do zgłaszania: a) proponowanych modeli, b) wszelkich dokonanych modyfikacji, c) jakie miary identyfikują każdą utajoną zmienną, d) korelacji między ukrytymi zmiennymi, e) wszelkich innych istotnych informacji , na przykład czy są używane ograniczenia. Jeśli chodzi o wybór statystyk dopasowania modelu do raportu, nie należy po prostu raportować statystyk, które szacują najlepsze dopasowanie, chociaż może to być kuszące. Chociaż istnieje kilka różnych opinii, Kline (2010) zaleca raportowanie testu chi-kwadrat, pierwiastka błędu średniokwadratowego aproksymacji (RMSEA), porównawczego wskaźnika dopasowania (CFI) oraz standaryzowanej średniej kwadratowej reszty (SRMR).

Wskaźniki bezwzględnego dopasowania

Wskaźniki dopasowania bezwzględnego określają, jak dobrze model a priori pasuje lub odtwarza dane. Wskaźniki bezwzględnego dopasowania obejmują między innymi test Chi-kwadrat, RMSEA, GFI, AGFI, RMR i SRMR.

Test chi-kwadrat

Test chi-kwadrat wskazuje różnicę między obserwowanymi a oczekiwanymi macierzami kowariancji . Wartości bliższe zeru wskazują na lepsze dopasowanie; mniejsza różnica między macierzami kowariancji oczekiwanych i obserwowanych. Statystyki chi-kwadrat mogą być również używane do bezpośredniego porównywania dopasowania modeli zagnieżdżonych do danych. Jedną z trudności w teście chi-kwadrat dopasowania modelu jest to, że badacze mogą nie odrzucić niewłaściwego modelu w małych próbach i odrzucić odpowiedni model w dużych próbach. W rezultacie opracowano inne miary dopasowania.

Pierwiastek błędu średniokwadratowego aproksymacji

Pierwiastek błędu średniokwadratowego aproksymacji (RMSEA) pozwala uniknąć problemów z wielkością próby poprzez analizę rozbieżności między hipotetycznym modelem, z optymalnie dobranymi oszacowaniami parametrów, a macierzą kowariancji populacji. RMSEA waha się od 0 do 1, przy czym mniejsze wartości wskazują na lepsze dopasowanie modelu. Wartość 0.06 lub mniej wskazuje na akceptowalne dopasowanie modelu.

Pierwiastkowa średnia kwadratowa reszty i standaryzowane pierwiastkowa średnia kwadratowa reszty

Średnia kwadratowa reszty (RMR) i standaryzowana średnia kwadratowa reszty (SRMR) to pierwiastek kwadratowy z rozbieżności między macierzą kowariancji próbki a macierzą kowariancji modelu. RMR może być jednak nieco trudny do zinterpretowania, ponieważ jego zakres opiera się na skalach wskaźników w modelu (jest to trudne, gdy masz wiele wskaźników o różnych skalach; np. dwa kwestionariusze, jeden na skali 0-10 , drugi w skali 1-3). Standaryzacja średniej kwadratowej reszty usuwa tę trudność w interpretacji i mieści się w zakresie od 0 do 1, przy czym wartość 0,08 lub mniej wskazuje na akceptowalny model.

Wskaźnik dobroci dopasowania i skorygowany wskaźnik dobroci dopasowania

Wskaźnik dobroci dopasowania (GFI) jest miarą dopasowania między hipotetycznym modelem a obserwowaną macierzą kowariancji. Skorygowany wskaźnik dobroci dopasowania (AGFI) koryguje GFI, na który wpływa liczba wskaźników każdej zmiennej latentnej. GFI i AGFI mieszczą się w zakresie od 0 do 1, przy czym wartość powyżej 0,9 ogólnie wskazuje na akceptowalne dopasowanie modelu.

Względne wskaźniki dopasowania

Względne wskaźniki dopasowania (nazywane również „inkrementalnymi wskaźnikami dopasowania” i „porównawczymi wskaźnikami dopasowania”) porównują chi-kwadrat dla modelu będącego hipotezą do jednego z modelu „zerowego” lub „bazowego”. Ten model zerowy prawie zawsze zawiera model, w którym wszystkie zmienne są nieskorelowane, w wyniku czego ma bardzo duży chi-kwadrat (wskazujący na słabe dopasowanie). Względne wskaźniki dopasowania obejmują znormalizowany wskaźnik dopasowania i porównawczy wskaźnik dopasowania.

Znormalizowany wskaźnik dopasowania i nieznormalizowany wskaźnik dopasowania

Znormalizowany wskaźnik dopasowania (NFI) analizuje rozbieżność między wartością chi-kwadrat hipotetycznego modelu a wartością chi-kwadrat modelu zerowego. Jednak NFI ma tendencję do negatywnego nastawienia. Nieznormalizowany indeks dopasowania (NNFI; znany również jako indeks Tuckera-Lewisa, ponieważ został zbudowany na podstawie indeksu utworzonego przez Tuckera i Lewisa w 1973 r.) rozwiązuje niektóre problemy z negatywnym nastawieniem, chociaż wartości NNFI mogą czasami wykraczać poza zakres od 0 do 1. Wartości zarówno dla NFI, jak i NNFI powinny mieścić się w zakresie od 0 do 1, z wartością odcięcia 0,95 lub wyższą wskazującą na dobre dopasowanie modelu.

Porównawczy wskaźnik dopasowania

Porównawczy wskaźnik dopasowania (CFI) analizuje dopasowanie modelu, badając rozbieżność między danymi a modelem hipotetycznym, jednocześnie korygując kwestie wielkości próby nieodłącznie związane z testem chi-kwadrat dopasowania modelu oraz znormalizowanym wskaźnikiem dopasowania. Wartości CFI mieszczą się w zakresie od 0 do 1, przy czym większe wartości wskazują na lepsze dopasowanie. Wcześniej uważano, że wartość CFI wynosząca 0,90 lub większa wskazuje na akceptowalne dopasowanie modelu. Jednak ostatnie badania wykazały, że potrzebna jest wartość większa niż 0,90, aby zapewnić, że błędnie określone modele nie zostaną uznane za akceptowalne. Tak więc wartość CFI wynosząca 0,95 lub wyższa jest obecnie akceptowana jako wskaźnik dobrego dopasowania.

Identyfikacja i niedoidentyfikacja

Aby oszacować parametry modelu, model musi być właściwie zidentyfikowany. Oznacza to, że liczba szacowanych (nieznanych) parametrów ( q ) musi być mniejsza lub równa liczbie unikalnych wariancji i kowariancji między mierzonymi zmiennymi; p ( p + 1)/2. To równanie jest znane jako „reguła t”. Jeśli dostępnych jest zbyt mało informacji, na których można oprzeć oszacowania parametrów, wówczas mówi się, że model jest niedostatecznie zidentyfikowany, a parametry modelu nie mogą być odpowiednio oszacowane.

Zobacz też

Bibliografia

Dalsza lektura

  • Brown, TA (2006). Konfirmacyjna analiza czynnikowa dla badań stosowanych . Nowy Jork: Guilford.
  • DiStefano, C. i Hess, B. (2005). Wykorzystanie konfirmacyjnej analizy czynnikowej do walidacji konstruktu: przegląd empiryczny. Dziennik oceny psychoedukacyjnej , 23 , 225-241.
  • Harrington, D. (2009). Analiza czynnikiem potwierdzającym. Nowy Jork: Oxford University Press.
  • Maruyama, dyrektor generalny (1998). Podstawy modelowania równań strukturalnych . Thousand Oaks, Kalifornia: Sage.

Linki zewnętrzne