Analiza czynnikiem potwierdzającym

W statystyce konfirmacyjna analiza czynnikowa ( CFA ) jest specjalną formą analizy czynnikowej , najczęściej stosowaną w badaniach nauk społecznych. Służy do sprawdzenia, czy miary konstruktu zgodne ze zrozumieniem przez badacza natury tego konstruktu (lub czynnika). W związku z tym celem potwierdzającej analizy czynnikowej jest sprawdzenie, czy dane pasują do hipotetycznego modelu pomiaru. Ten hipotetyczny model jest oparty na teorii i/lub wcześniejszych badaniach analitycznych. CFA został po raz pierwszy opracowany przez Jöreskoga (1969) i opierał się na starszych metodach analizy trafności konstruktu , takich jak macierz MTMM , jak opisano w Campbell i Fiske (1959), i zastąpił je.

W potwierdzającej analizie czynnikowej badacz najpierw opracowuje hipotezę dotyczącą czynników, które jego zdaniem leżą u podstaw zastosowanych miar (np. „ depresja ” jest czynnikiem leżącym u podstaw Inwentarza Depresji Becka i Skali Depresji Hamiltona ) i może nałożyć ograniczenia na model w oparciu o te hipotezy a priori . Nakładając te ograniczenia, badacz wymusza zgodność modelu z ich teorią. Na przykład, jeśli założy się, że istnieją dwa czynniki odpowiadające za kowariancję miar i że czynniki te nie są ze sobą powiązane, badacz może stworzyć model, w którym korelacja między czynnikiem A i czynnikiem B jest ograniczona do zera. Następnie można uzyskać miary dopasowania modelu, aby ocenić, jak dobrze proponowany model uchwycił kowariancję między wszystkimi pozycjami lub miarami w modelu. Jeśli ograniczenia nałożone przez badacza na model są niezgodne z danymi z próby, to wyniki testów statystycznych dopasowania modelu wskażą słabe dopasowanie i model zostanie odrzucony. Jeśli dopasowanie jest słabe, może to być spowodowane tym, że niektóre elementy mierzą wiele czynników. Może się również zdarzyć, że niektóre elementy w ramach czynnika są bardziej ze sobą powiązane niż inne.

W przypadku niektórych zastosowań wymóg „zerowego obciążenia” (dla wskaźników, które nie powinny ładować się na określony czynnik) został uznany za zbyt surowy. Nowo opracowana metoda analizy, „eksploracyjne modelowanie równań strukturalnych”, określa hipotezy dotyczące związku między obserwowanymi wskaźnikami a ich przypuszczalnymi pierwotnymi czynnikami utajonymi , jednocześnie umożliwiając oszacowanie ładunków z innymi czynnikami utajonymi.

Model statystyczny

W konfirmacyjnej analizie czynnikowej badacze są zwykle zainteresowani badaniem stopnia, w jakim odpowiedzi na wektorze p x 1 obserwowalnych zmiennych losowych można wykorzystać do przypisania wartości jednej lub większej liczbie nieobserwowalnych zmiennych η . Badanie jest w dużej mierze realizowane poprzez oszacowanie i ocenę ładunku każdego elementu użytego do dotknięcia aspektów nieobserwowanej zmiennej ukrytej. Oznacza to, że y [i] jest wektorem obserwowanych odpowiedzi przewidywanych przez nieobserwowaną zmienną latentną, która jest zdefiniowana jako:

,

gdzie jest wektorem p x 1 obserwowanych zmiennych losowych, i jest macierzą p x z k równym liczbie ukrytych zmiennych. Ponieważ miarami model zawiera Szacunki w przypadku największej wiarygodności (ML) generowane przez iteracyjne minimalizowanie funkcji dopasowania,

gdzie _ macierz wariancji-kowariancji przez proponowany model analizy czynnikowej i obserwowaną macierzą wariancji-kowariancji. Oznacza to, że dla dowolnych parametrów modelu znajdują się wartości, które minimalizują różnicę między implikowaną w modelu macierzą wariancji-kowariancji a obserwowaną macierzą wariancji-kowariancji.

Alternatywne strategie szacowania

Chociaż do oszacowania modeli CFA zastosowano wiele algorytmów, podstawową procedurą szacowania pozostaje maksymalne prawdopodobieństwo (ML). Biorąc to pod uwagę, modele CFA są często stosowane do warunków danych, które odbiegają od normalnych wymagań teorii dotyczących prawidłowego oszacowania ML. Na przykład naukowcy społeczni często szacują modele CFA z nienormalnymi danymi i wskaźnikami skalowanymi przy użyciu dyskretnych uporządkowanych kategorii. W związku z tym opracowano alternatywne algorytmy, które zajmują się różnymi warunkami danych, z którymi spotykają się badacze. Alternatywne estymatory zostały scharakteryzowane na dwa ogólne typy: (1) odporny i (2) estymator o ograniczonej informacji.

Kiedy uczenie maszynowe jest wdrażane z danymi, które odbiegają od założeń teorii normalnej, modele CFA mogą generować tendencyjne oszacowania parametrów i wprowadzające w błąd wnioski. Odporne oszacowanie zazwyczaj próbuje rozwiązać problem poprzez dostosowanie modelu teorii normalnej χ 2 i błędów standardowych. Na przykład Satorra i Bentler (1994) zalecali stosowanie estymacji ML w zwykły sposób, a następnie podzielenie modelu χ 2 przez miarę stopnia wielowymiarowej kurtozy. Dodatkową zaletą solidnych estymatorów ML jest ich dostępność w powszechnym oprogramowaniu SEM (np. LAVAAN).

Niestety solidne estymatory ML mogą stać się nie do utrzymania w typowych warunkach danych. W szczególności, gdy wskaźniki są skalowane przy użyciu kilku kategorii odpowiedzi (np. nie zgadzam się , neutralny , zgadzam się ), solidne estymatory ML zwykle działają słabo. Ograniczone estymatory informacji, takie jak ważone najmniejsze kwadraty (WLS), są prawdopodobnie lepszym wyborem, gdy oczywiste wskaźniki przybierają formę porządkową. Ogólnie rzecz biorąc, estymatorzy informacji o ograniczonej liczbie zajmują się wskaźnikami porządkowymi za pomocą korelacji polichorycznych w celu dopasowania modeli CFA. Korelacje polichoryczne wychwytują kowariancję między dwiema zmiennymi ukrytymi, gdy obserwuje się tylko ich skategoryzowaną postać, co osiąga się głównie poprzez oszacowanie parametrów progowych.

Eksploracyjna analiza czynnikowa

Zarówno eksploracyjna analiza czynnikowa (EFA), jak i potwierdzająca analiza czynnikowa (CFA) są wykorzystywane do zrozumienia wspólnej wariancji mierzonych zmiennych, którą uważa się za przypisaną czynnikowi lub ukrytemu konstruktowi. Jednak pomimo tego podobieństwa, EFA i CFA są koncepcyjnie i statystycznie odrębnymi analizami.

Celem EFA jest identyfikacja czynników na podstawie danych i maksymalizacja ilości wyjaśnionych wariancji. Od badacza nie wymaga się żadnych konkretnych hipotez dotyczących tego, ile czynników się pojawi i jakie elementy lub zmienne będą się na nie składać. Jeśli takie hipotezy istnieją, nie są one uwzględniane i nie wpływają na wyniki analiz statystycznych. Natomiast CFA ocenia a priori i jest w dużej mierze napędzany teorią. Analizy CFA wymagają od badacza wcześniejszego postawienia hipotezy dotyczącej liczby czynników, tego, czy te czynniki są skorelowane, czy też nie, oraz które elementy / miary obciążają i odzwierciedlają które czynniki. Jako taka, w przeciwieństwie do eksploracyjnej analizy czynnikowej , w której wszystkie ładunki mogą się zmieniać, CFA pozwala na wyraźne ograniczenie niektórych ładunków na zero.

EFA jest często uważana za bardziej odpowiednią niż CFA na wczesnych etapach rozwoju skali, ponieważ CFA nie pokazuje, jak dobrze twoje pozycje ładują się na niehipotetycznych czynnikach. Innym silnym argumentem za początkowym zastosowaniem EFA jest to, że błędna specyfikacja liczby czynników na wczesnym etapie rozwoju skali zazwyczaj nie zostanie wykryta przez potwierdzającą analizę czynnikową. Na późniejszych etapach rozwoju skali techniki potwierdzające mogą dostarczyć więcej informacji dzięki wyraźnemu kontrastowi konkurencyjnych struktur czynnikowych.

EFA jest czasami zgłaszane w badaniach, gdy CFA byłoby lepszym podejściem statystycznym. Argumentowano, że CFA może być restrykcyjne i nieodpowiednie, gdy jest używane w eksploracyjny sposób. Jednak pomysł, że CFA jest wyłącznie analizą „potwierdzającą”, może czasami być mylący, ponieważ wskaźniki modyfikacji stosowane w CFA mają charakter nieco eksploracyjny. Wskaźniki modyfikacji pokazują poprawę dopasowania modelu, jeśli określony współczynnik stałby się nieograniczony. Podobnie EFA i CFA nie muszą być wzajemnie wykluczającymi się analizami; Argumentowano, że EFA jest rozsądną kontynuacją źle dopasowanego modelu CFA.

Modelowanie równań strukturalnych

do modelowania równań strukturalnych jest zwykle używane do przeprowadzania potwierdzającej analizy czynnikowej. LISREL , EQS, AMOS, Mplus i pakiet lavaan w R to popularne programy. Istnieje również pakiet Pythona semopy 2. CFA jest również często używany jako pierwszy krok do oceny proponowanego modelu pomiarowego w modelu równań strukturalnych. Wiele zasad interpretacji dotyczących oceny dopasowania i modyfikacji modelu w modelowaniu równań strukturalnych stosuje się w równym stopniu do CFA. CFA różni się od modelowania równań strukturalnych tym, że w CFA nie ma skierowanych strzałek między czynnikami latentnymi . Innymi słowy, podczas gdy w CFA nie zakłada się, że czynniki bezpośrednio powodują się nawzajem, SEM często określa określone czynniki i zmienne jako przyczynowe z natury. W kontekście SEM CFA jest często nazywany „modelem pomiarowym”, podczas gdy relacje między zmiennymi ukrytymi (z ukierunkowanymi strzałkami) nazywane są „modelem strukturalnym”.

Ocena dopasowania modelu

W CFA stosuje się kilka testów statystycznych w celu określenia, jak dobrze model pasuje do danych. Należy zauważyć, że dobre dopasowanie między modelem a danymi nie oznacza, że ​​model jest „poprawny”, ani nawet, że wyjaśnia dużą część kowariancji. „Dobre dopasowanie modelu” wskazuje jedynie, że model jest wiarygodny. Podając wyniki konfirmacyjnej analizy czynnikowej, należy podać: a) proponowane modele, b) wszelkie dokonane modyfikacje, c) które miary identyfikują każdą zmienną latentną, d) korelacje między zmiennymi latentnymi, e) wszelkie inne istotne informacje , np. czy stosowane są ograniczenia. Jeśli chodzi o wybór statystyk dopasowania modelu do raportu, nie należy po prostu zgłaszać statystyk, które szacują najlepsze dopasowanie, chociaż może to być kuszące. Chociaż istnieje kilka różnych opinii, Kline (2010) zaleca zgłaszanie testu chi-kwadrat, pierwiastka średniokwadratowego błędu aproksymacji (RMSEA), wskaźnika dopasowania porównawczego ( CFI) i standaryzowanej reszty średniokwadratowej (SRMR).

Wskaźniki dopasowania bezwzględnego

Wskaźniki dopasowania bezwzględnego określają, jak dobrze model a priori pasuje lub odtwarza dane. Wskaźniki dopasowania bezwzględnego obejmują między innymi test Chi-Squared, RMSEA, GFI, AGFI, RMR i SRMR.

Test chi-kwadrat

Test chi-kwadrat wskazuje różnicę między obserwowanymi i oczekiwanymi macierzami kowariancji . Wartości bliższe zeru wskazują na lepsze dopasowanie; mniejsza różnica między oczekiwanymi i obserwowanymi macierzami kowariancji. Statystyki chi-kwadrat można również wykorzystać do bezpośredniego porównania dopasowania zagnieżdżonych modeli do danych. Jedną z trudności związanych z testem chi-kwadrat dopasowania modelu jest jednak to, że badacze mogą nie odrzucić nieodpowiedniego modelu w małych próbach i odrzucić odpowiedni model w dużych próbach. W rezultacie opracowano inne miary dopasowania.

Średniokwadratowy błąd aproksymacji

Średniokwadratowy błąd aproksymacji (RMSEA) pozwala uniknąć problemów z wielkością próby, analizując rozbieżności między hipotetycznym modelem z optymalnie dobranymi oszacowaniami parametrów, a macierzą kowariancji populacji. RMSEA mieści się w zakresie od 0 do 1, przy czym mniejsze wartości wskazują na lepsze dopasowanie modelu. Wartość 0,06 lub mniejsza wskazuje na akceptowalne dopasowanie modelu.

Rezydualna średnia kwadratowa i standaryzowana reszta średniokwadratowa

Średniokwadratowa wartość resztkowa (RMR) i standaryzowana wartość resztkowa średniokwadratowa (SRMR) są pierwiastkami kwadratowymi z rozbieżności między macierzą kowariancji próbki a macierzą kowariancji modelu. RMR może być jednak nieco trudny do zinterpretowania, ponieważ jego zakres opiera się na skalach wskaźników w modelu (jest to trudne, gdy masz wiele wskaźników o różnych skalach; np. dwa kwestionariusze, jeden w skali od 0 do 10 , drugi w skali 1–3). Standaryzowana reszta średniokwadratowa eliminuje tę trudność w interpretacji i mieści się w zakresie od 0 do 1, przy czym wartość 0,08 lub mniejsza wskazuje na akceptowalny model.

Wskaźnik dobroci dopasowania i skorygowany wskaźnik dobroci dopasowania

Wskaźnik dobroci dopasowania (GFI) jest miarą dopasowania między hipotetycznym modelem a obserwowaną macierzą kowariancji. Skorygowany wskaźnik dobroci dopasowania (AGFI) koryguje GFI, na który wpływa liczba wskaźników każdej ukrytej zmiennej. GFI i AGFI mieszczą się w zakresie od 0 do 1, przy czym wartość powyżej 0,9 ogólnie wskazuje na akceptowalne dopasowanie modelu.

Względne wskaźniki dopasowania

Względne wskaźniki dopasowania (zwane także „wskaźnikami dopasowania przyrostowego” i „wskaźnikami dopasowania porównawczego”) porównują chi-kwadrat hipotetycznego modelu z modelem „zerowym” lub „liniowym”. Ten model zerowy prawie zawsze zawiera model, w którym wszystkie zmienne są nieskorelowane, w wyniku czego ma bardzo duże chi-kwadrat (co wskazuje na słabe dopasowanie). Względne wskaźniki dopasowania obejmują znormalizowany wskaźnik dopasowania i porównawczy wskaźnik dopasowania.

Znormalizowany wskaźnik dopasowania i nieunormowany wskaźnik dopasowania

Znormalizowany wskaźnik dopasowania (NFI) analizuje rozbieżność między wartością chi-kwadrat hipotetycznego modelu a wartością chi-kwadrat modelu zerowego. Jednak NFI ma tendencję do negatywnego nastawienia. Nieznormalizowany indeks dopasowania (NNFI; znany również jako indeks Tuckera-Lewisa, ponieważ został zbudowany na indeksie utworzonym przez Tuckera i Lewisa w 1973 r.) Rozwiązuje niektóre problemy negatywnego obciążenia, chociaż wartości NNFI mogą czasami wykraczać poza zakres od 0 do 1. Wartości zarówno NFI, jak i NNFI powinny mieścić się w przedziale od 0 do 1, z wartością odcięcia 0,95 lub większą, co wskazuje na dobre dopasowanie modelu.

Porównawczy wskaźnik dopasowania

Porównawczy wskaźnik dopasowania (CFI) analizuje dopasowanie modelu, badając rozbieżności między danymi a hipotetycznym modelem, dostosowując się do kwestii wielkości próby nieodłącznie związanych z testem chi-kwadrat dopasowania modelu i znormalizowanym wskaźnikiem dopasowania. Wartości CFI wahają się od 0 do 1, przy czym większe wartości wskazują na lepsze dopasowanie. Wcześniej wartość CFI wynosząca 0,90 lub większa była uznawana za akceptowalne dopasowanie modelu. Jednak ostatnie badania [ kiedy? ] wskazują, że potrzebna jest wartość większa niż 0,90, aby upewnić się, że błędnie określone modele nie zostaną uznane za akceptowalne. Zatem wartość CFI wynosząca 0,95 lub wyższa jest obecnie akceptowana jako wskaźnik dobrego dopasowania.

Identyfikacja i niedoidentyfikacja

Aby oszacować parametry modelu, model musi być odpowiednio zidentyfikowany. Oznacza to, że liczba oszacowanych (nieznanych) parametrów ( q ) musi być mniejsza lub równa liczbie unikalnych wariancji i kowariancji między mierzonymi zmiennymi; p ( p + 1)/2. To równanie jest znane jako „reguła t”. Jeśli dostępnych jest zbyt mało informacji, na których można oprzeć oszacowania parametrów, wówczas mówi się, że model jest niedostatecznie zidentyfikowany, a parametry modelu nie mogą być odpowiednio oszacowane.

Zobacz też

Dalsza lektura

  • Brązowy, TA (2006). Konfirmacyjna analiza czynnikowa dla badań stosowanych . Nowy Jork: Guilford.
  • DiStefano, C. i Hess, B. (2005). Wykorzystanie potwierdzającej analizy czynnikowej do walidacji konstruktu: przegląd empiryczny. Journal of Psychoeducation Assessment , 23 , 225-241.
  • Harrington, D. (2009). Analiza czynnikiem potwierdzającym. Nowy Jork: Oxford University Press.
  • Maruyama, GM (1998). Podstawy modelowania równań strukturalnych . Tysiąc Oaks, Kalifornia: Sage.

Linki zewnętrzne