Alfa Krippendorffa
Współczynnik alfa Krippendorffa , nazwany na cześć naukowca Klausa Krippendorffa , jest statystyczną miarą zgodności osiągniętej podczas kodowania zestawu jednostek analizy. Od lat siedemdziesiątych XX wieku alfa jest stosowana w analizie treści , w której jednostki tekstowe są kategoryzowane przez wyszkolonych czytelników, w doradztwie i badaniach ankietowych , w których eksperci kodują dane z otwartych wywiadów w możliwe do analizy terminy, w testach psychologicznych, w których należy przeprowadzić alternatywne testy tych samych zjawisk. porównywane lub w badaniach obserwacyjnych gdzie nieustrukturyzowane zdarzenia są rejestrowane do późniejszej analizy.
Alfa Krippendorffa uogólnia kilka znanych statystyk, często nazywanych miarami zgodności między koderami, rzetelności między oceniającymi , rzetelności kodowania danych zestawów jednostek (w odróżnieniu od unityzacji), ale także odróżnia się od statystyk, które są nazywane współczynnikami rzetelności, ale nie nadają się do szczegóły kodowania danych generowanych do późniejszej analizy.
Alfa Krippendorffa ma zastosowanie do dowolnej liczby koderów, z których każdy przypisuje jedną wartość do jednej jednostki analizy, do niekompletnych (brakujących) danych, do dowolnej liczby wartości dostępnych do kodowania zmiennej, do binarnych, nominalnych, porządkowych, interwałowych, ilorazowych, biegunowych i metryki kołowe (zwróć uwagę, że nie jest to metryka w sensie matematycznym, ale często kwadrat metryki matematycznej , zobacz poziomy pomiaru ) i dostosowuje się do małych rozmiarów próbek danych dotyczących niezawodności. Zaletą pojedynczego współczynnika z tymi odmianami jest to, że obliczone rzetelności są porównywalne dla dowolnej liczby koderów, wartości, różnych metryk i nierównych rozmiarów próbek.
Dostępne jest oprogramowanie do obliczania alfa Krippendorffa.
Dane dotyczące niezawodności
Dane wiarygodności są generowane w sytuacji, w której m ≥ 2 wspólnie poinstruowani (np. przez książkę kodową ), ale niezależnie pracujący koderzy przypisują dowolną jedną ze zbiorów wartości 1,..., V do wspólnego zbioru N jednostek analizy . W ich postaci kanonicznej, dane niezawodności są zestawiane w tabeli w m -x- N zawierającej N wartości vij które ci , koder przypisał jednostce uj . Zdefiniuj m j jako liczba wartości przypisanych do jednostki j we wszystkich koderach c . Gdy dane są niekompletne, m j może być mniejsze niż m . Dane dotyczące niezawodności wymagają, aby wartości można było sparować, tj. m jot ≥ 2. Całkowita liczba wartości, które można sparować, wynosi n ≤ mN .
Aby pomóc w wyjaśnieniu, oto jak wygląda forma kanoniczna w skrócie:
ty 1 | ty 2 | ty 3 | ... | u N | |
---|---|---|---|---|---|
c 1 | wer. 11 | w. 12 | w. 13 | ⋯ | w. 1 N |
c 2 | w. 21 | w. 22 | werset 23 | ⋯ | w. 2 N |
c 3 | w. 31 | w. 32 | w. 33 | ⋯ | w. 3 N |
⋮ | ⋮ | ⋮ | ⋮ | ⋱ | ⋮ |
do m | v m 1 | v m 2 | v m 3 | ⋯ | v mN |
Ogólna forma alfa
Oznaczamy przez może udzielić obserwator. Odpowiedzi wszystkich obserwatorów dla przykładu nazywamy jednostką (tworzy wielozbiór). Oznaczamy multiset z tymi jednostkami jako pozycjami, .
Alfa jest dana przez:
gdzie różnica zdań, a oczekiwana przez
gdzie jest funkcją (zauważ, że nie jest to metryka w sensie matematycznym, ale często kwadrat metryki matematycznej, patrz poniżej), całkowita liczba możliwych do sparowania δ { \ displaystyle \ delta} elementy, to liczba elementów w jednostce, liczba par w jednostce i jest funkcją . Zmieniając układ terminów, sumę można interpretować koncepcyjnie jako średnią ważoną niezgodności poszczególnych jednostek --- ważoną liczbą koderów przypisanych do jednostki j:
mi jest średnią liczb δ (tutaj i zdefiniuj elementy do sparowania). Zauważ, że w przypadku dla wszystkich , to tylko średnia wszystkich liczb z . Istnieje również interpretacja jako (ważona) średnia obserwowana odległość od przekątnej.
gdzie jest liczbą sposobów na utworzenie pary Można to postrzegać jako średnią odległość od przekątnej wszystkich możliwych par odpowiedzi, które można wyprowadzić z wielu zbiorów wszystkich obserwacji.
Powyższe jest równoważne zwykłej formie uproszczeniu algebraicznym
alfa Krippendorffa jest następująca:
- wskazuje na doskonałą niezawodność
- wskazuje na całkowity brak niezawodności. Jednostki i przypisane im wartości są statystycznie niepowiązane.
- , gdy nieporozumienia są systematyczne i wykraczają poza to, czego można się spodziewać przez przypadek.
W tej ogólnej formie niezgodności Do i De . mogą być koncepcyjnie przejrzyste, ale są nieefektywne obliczeniowo Można je uprościć algebraicznie, zwłaszcza gdy są wyrażone w postaci bardziej pouczającej wizualnie reprezentacji macierzy koincydencji danych niezawodności.
Macierze koincydencji
Macierz koincydencji zestawia n wartości możliwych do sparowania z postaci kanonicznej danych niezawodności do kwadratowej macierzy v -by- v , gdzie v jest liczbą wartości dostępnych w zmiennej. W przeciwieństwie do macierzy kontyngencji, znanych ze statystyk asocjacji i korelacji, które zestawiają pary wartości ( tabulacja krzyżowa ), macierz zbiegów okoliczności zawiera wszystkie wartości, które można sparować . Macierz koincydencji pomija odniesienia do koderów i jest symetryczna wokół swojej przekątnej, która zawiera wszystkie idealne dopasowania, v iu = v i'u dla dwóch koderów i oraz i' , we wszystkich jednostkach u . Macierz zaobserwowanych zbiegów okoliczności zawiera częstości:
pomijając wartości niesparowane, gdzie I (∘) = 1, jeśli ∘ jest prawdziwe, a 0 w przeciwnym razie.
Ponieważ macierz koincydencji zestawia w tabeli wszystkie wartości, które można sparować, a jej zawartość sumuje się do całkowitej n , gdy zaangażowanych jest czterech lub więcej koderów, o ck może być ułamkami.
Macierz oczekiwanych zbiegów okoliczności zawiera częstości:
które sumują się do tego samego n c , n k i n jak o ck . Pod względem tych zbiegów okoliczności alfa Krippendorffa staje się:
Funkcje różnicowe
Funkcje różnicowe między wartościami v i v ' właściwości metryczne ( poziomy pomiaru ) ich zmiennej.
Ogólnie:
W szczególności:
- Dla danych nominalnych ' służą jako nazwy .
- Dla danych porządkowych gdzie v i v ′ to szeregi.
- Dla danych interwałowych , gdzie v i v ′ to wartości skali interwałowej .
- Dla danych ilorazowych gdzie v i v ′ są wartościami bezwzględnymi.
- Dla danych biegunowych , gdzie v min i v max określają punkty końcowe skali biegunowej.
- Dla danych kołowych , gdzie funkcja sinus jest wyrażona w stopniach, a U to obwód lub zakres wartości w okręgu lub pętli przed ich powtórzeniem. W przypadku metryk kołowych o równych przedziałach, najmniejsze i największe wartości całkowite tej metryki sąsiadują ze sobą, a U = v największa – v najmniejsza + 1.
Znaczenie
Ponieważ matematyczne twierdzenia rozkładu statystycznego alfa są zawsze tylko przybliżeniami, lepiej jest uzyskać rozkład alfa przez ładowanie początkowe . Rozkład alfa daje początek dwóm wskaźnikom:
- Przedziały ufności obliczonej alfa na różnych poziomach istotności statystycznej
- Prawdopodobieństwo, że alfa nie osiągnie wybranego minimum, wymaganego do uznania danych za wystarczająco wiarygodne (test jednostronny). Indeks ten potwierdza, że hipoteza zerowa (o przypadkowej zgodności) jest tak daleko od zakresu odpowiednich alfa , że jej odrzucenie niewiele znaczyłoby, jeśli chodzi o wiarygodność danych. Aby dane zostały uznane za wiarygodne, nie mogą znacząco odbiegać od idealnej zgodności.
Minimalny akceptowalny współczynnik alfa powinien być wybrany w zależności od wagi wniosków, jakie należy wyciągnąć z niedoskonałych danych. Kiedy koszty błędnych wniosków są wysokie, minimalna alfa musi być również ustawiona wysoko. Wobec braku wiedzy o ryzyku wyciągania fałszywych wniosków z niewiarygodnych danych, socjologowie zwykle polegają na danych o wiarygodności α ≥ 0,800, rozważają dane o 0,800 > α ≥ 0,667 tylko w celu wyciągnięcia wstępnych wniosków i odrzucają dane, których zgodność mierzy α < 0,667.
Przykład obliczeniowy
Niech kanoniczna postać danych o niezawodności będzie macierzą jednostek 3-koder na 15 z 45 komórkami:
jednostki u: | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Koder A | * | * | * | * | * | 3 | 4 | 1 | 2 | 1 | 1 | 3 | 3 | * | 3 |
Koder B | 1 | * | 2 | 1 | 3 | 3 | 4 | 3 | * | * | * | * | * | * | * |
Koder C | * | * | 2 | 1 | 3 | 4 | 4 | * | 2 | 1 | 1 | 3 | 3 | * | 4 |
Załóżmy, że „*” oznacza domyślną kategorię, taką jak „nie można kodować”, „brak odpowiedzi” lub „brak obserwacji”. Następnie * nie dostarcza żadnych informacji na temat wiarygodności danych w czterech ważnych wartościach. Należy zauważyć, że jednostki 2 i 14 nie zawierają żadnych informacji, a jednostka 1 zawiera tylko jedną wartość, której nie można sparować w ramach tej jednostki. Tak więc te dane niezawodności składają się nie z mN = 45, ale z n = 26 wartości możliwych do sparowania, nie w N = 15, ale w 12 jednostkach kodowanych wielokrotnie.
Macierz koincydencji dla tych danych byłaby skonstruowana w następujący sposób:
- o 11 = {w u = 4}: {w u = 10}: {w u = 11}:
- o 13 = {w u = 8 }: o 31
- o 22 = {w u = 3}: {w u = 9}:
- o 33 = {w u = 5}: {w u = 6}: {w u = 12}: w u = 13}:
- o 34 = {w u = 6}: {w u =15}: o 43
- o 44 = {w u = 7}:
Wartości v lub v ′: | 1 | 2 | 3 | 4 | n w |
---|---|---|---|---|---|
Wartość 1 | 6 | 1 | 7 | ||
Wartość 2 | 4 | 4 | |||
Wartość 3 | 1 | 7 | 2 | 10 | |
Wartość 4 | 2 | 3 | 5 | ||
Częstotliwość n v' | 7 | 4 | 10 | 5 | 26 |
alfa Krippendorffa można obliczyć z:
Dla wygody, ponieważ produkty z i , tylko wpisy w jednym z trójkątów poza przekątną macierzy koincydencji są wymienione w następujący sposób:
Biorąc pod uwagę, że wszystkie kiedy dla danych nominalnych powyższe wyrażenie daje:
Z dla danych przedziałowych powyższe wyrażenie daje:
Tutaj ponieważ zdarza się, że niezgodności występują głównie między sąsiednimi wartościami, co jest wizualizowane przez występowanie bliżej przekątnej macierz koincydencji, warunek, , nie Gdy obserwowane częstotliwości o v ≠ v ′ są średnio proporcjonalne do oczekiwanych częstotliwości mi v ≠ v ' , .
Porównanie współczynników alfa dla różnych metryk może dostarczyć wskazówek, jak programiści konceptualizują metrykę zmiennej.
Uścisk Alpha innych statystyk
Alfa Krippendorffa łączy kilka znanych statystyk pod wspólnym parasolem, z których każda ma swoje własne ograniczenia, ale nie ma żadnych dodatkowych zalet.
-
Liczba pi Scotta jest współczynnikiem zgodności dla danych nominalnych i dwóch koderów.
-
Kappa Fleissa jest współczynnikiem zgodności dla danych nominalnych z bardzo dużymi rozmiarami próbek, gdzie zestaw koderów przypisał dokładnie m etykiet wszystkim N jednostkom bez wyjątku (ale zauważ, że może być więcej niż m koderów i tylko niektóre etykiety podzbioru każdego instancja). Fleiss twierdził, że rozszerzył kappa Cohena na trzech lub więcej oceniających lub programistów, ale zamiast tego uogólnił pi Scotta . To zamieszanie znajduje odzwierciedlenie w wyborze nazwy przez Fleissa, która została rozpoznana poprzez zmianę nazwy na K :
-
Współczynnik korelacji rang Spearmana rho mierzy zgodność między rankingami dwóch programistów tego samego zbioru N obiektów. W pierwotnej postaci:
- Współczynnik korelacji wewnątrzklasowej Pearsona r ii jest współczynnikiem zgodności dla danych interwałowych, dwóch koderów i bardzo dużych rozmiarów próbek. Aby to uzyskać, pierwotna sugestia Pearsona polegała na dwukrotnym wprowadzeniu obserwowanych par wartości do tabeli, raz jako c - k i raz jako k - c , do której następnie stosuje się tradycyjny współczynnik korelacji iloczynu Pearsona . Dwukrotne wprowadzenie par wartości powoduje, że wynikowa tabela staje się macierzą koincydencji bez odniesienia do dwóch koderów, zawiera n = 2 wartości N i jest symetryczny wokół przekątnej, tj. połączona linia regresji liniowej jest wciskana w linię 45°, a odniesienia do koderów są eliminowane. Stąd wewnątrzklasowej Pearsona szczególnym przypadkiem przedziału alfa dla dwóch koderów i dużych i .
- Wreszcie niezgodności w przedziale alfa , Du , . Doo i De są wariancjami właściwymi próby Wynika z tego, że rzetelność oceniana przez przedział alfa jest zgodna ze wszystkimi technikami analitycznymi opartymi na wariancji, takimi jak analiza wariancji . Ponadto, włączając funkcje różnicowe nie tylko dla danych przedziałowych, ale także dla danych nominalnych, porządkowych, ilorazowych, biegunowych i kołowych, alpha rozszerza pojęcie wariancji na metryki którymi rzadko zajmują się klasyczne techniki analityczne.
Alfa Krippendorffa jest bardziej ogólna niż którykolwiek z tych współczynników specjalnego przeznaczenia. Dostosowuje się do różnych wielkości próbek i umożliwia porównania szerokiej gamy danych dotyczących niezawodności, w większości ignorowanych przez znane miary.
Współczynniki niezgodne z alfa a rzetelność kodowania
Semantycznie niezawodność to zdolność polegania na czymś, tutaj na zakodowanych danych do późniejszej analizy. Kiedy wystarczająco duża liczba programistów zgadza się doskonale z tym, co przeczytali lub zaobserwowali, poleganie na ich opisach jest bezpiecznym wyborem. Oceny tego rodzaju zależą od liczby koderów powielających proces i tego, jak reprezentatywne są zakodowane jednostki dla populacji będącej przedmiotem zainteresowania. Problemy interpretacyjne pojawiają się, gdy zgodność nie jest doskonała, zwłaszcza gdy brakuje wiarygodności.
- Współczynniki korelacji i asocjacji. Na przykład współczynnik korelacji momentu iloczynu Pearsona r ij mierzy odchylenia od dowolnej linii regresji liniowej między współrzędnymi i i j . O ile ta linia regresji nie jest dokładnie 45° lub wyśrodkowana, r ij nie mierzy zgodności. Podobnie, chociaż doskonała zgodność między programistami oznacza również doskonałe powiązanie, statystyki powiązań zarejestrować dowolny powyżej przypadkowy wzór relacji między zmiennymi. Nie odróżniają zgodności od innych stowarzyszeń i dlatego nie nadają się jako miary wiarygodności.
- Współczynniki mierzące stopień, w jakim koderzy są statystycznie od siebie zależni. Gdy chodzi o wiarygodność zakodowanych danych, indywidualność koderów nie może mieć w tym miejsca. Kodery należy traktować jako wymienne. korelacja wewnątrzklasowa Alpha , pi Scotta i Pearsona osiąga to dzięki temu, że jest definiowalna jako funkcja zbiegów okoliczności, a nie tylko przypadkowości. W przeciwieństwie do bardziej znanych macierzy kontyngencji, które zestawiają N par wartości i utrzymują odniesienie do dwóch koderów, macierze koincydencji zestawiają n wartości możliwe do sparowania używane w kodowaniu, niezależnie od tego, kto je wniósł, w efekcie traktując koderów jako wymiennych. Z kolei kappa Cohena definiuje oczekiwaną zgodność w kategoriach przypadkowości, jako zgodność, której można by się spodziewać, gdyby programiści byli statystycznie od siebie niezależni. Koncepcja przypadku Cohena nie obejmuje rozbieżności między indywidualnymi upodobaniami programistów do poszczególnych kategorii, karze programistów, którzy zgadzają się na użycie kategorii i nagradza tych, którzy nie zgadzają się z wyższymi wartościami kappa . To jest przyczyną innych odnotowanych dziwactw kappa . Statystyczna niezależność koderów jest tylko marginalnie związana ze statystyczną niezależnością kodowanych jednostek i przypisywanych im wartości. Kappa Cohena , ignorując kluczowe nieporozumienia, może stać się zwodniczo duża, gdy ocenia się wiarygodność kodowanych danych.
- Współczynniki mierzące spójność ocen kodera. W literaturze psychometrycznej rzetelność jest zwykle definiowana jako spójność, z jaką kilka testów działa, gdy stosuje się je do wspólnego zestawu indywidualnych cech. alfa Cronbacha ma na celu ocenę stopnia, w jakim wiele testów daje skorelowane wyniki. Idealna zgodność jest oczywiście ideałem, ale alfa Cronbacha jest wysoka również wtedy, gdy wyniki testów systematycznie się zmieniają. Spójność osądów koderów nie zapewnia wymaganej gwarancji wiarygodności danych. Każde odstępstwo od identycznych osądów – systematyczne lub przypadkowe – musi być traktowane jako różnica zdań i zmniejszać mierzoną wiarygodność. Alfa Cronbacha nie jest przeznaczona do reagowania na różnice bezwzględne.
- Współczynniki z liniami bazowymi (warunki, w których mierzą 0), których nie można interpretować w kategoriach wiarygodności, tj. nie mają dedykowanej wartości wskazującej, kiedy jednostki i przypisane im wartości są statystycznie niepowiązane. Prosta procentowa zgodność mieści się w zakresie od 0 = skrajna niezgoda do 100 = doskonała zgodność z szansą nie mającą określonej wartości. Jak już wspomniano, kappa Cohena mieści się w tej kategorii, definiując brak rzetelności jako statystyczną niezależność między dwoma indywidualnymi koderami. Linia bazowa Bennetta, Alperta i Goldsteina S jest definiowany w kategoriach liczby wartości dostępnych do kodowania, co ma niewiele wspólnego z tym, jak wartości są faktycznie używane. Lambda r Goodmana i Kruskala jest zdefiniowana jako wahająca się między –1 a +1, pozostawiając 0 bez konkretnej interpretacji niezawodności. Współczynnik odtwarzalności lub zgodności Lina r c przyjmuje korelację momentu iloczynu Pearsona r ij jako miarę dokładności i dodaje do niej miarę dokładności C b , rzekomo w celu skorygowania r ij ' s wyżej wymienioną nieadekwatność. Waha się między –1 a +1, a interpretacja wiarygodności 0 jest niepewna. Istnieje więcej tak zwanych miar niezawodności, których interpretacje wiarygodności stają się wątpliwe, gdy tylko odbiegają od idealnej zgodności.
Nazwanie statystyki jako zgodności, odtwarzalności lub wiarygodności nie czyni z niej ważnego wskaźnika tego, czy można polegać na zakodowanych danych przy podejmowaniu kolejnych decyzji. Jego struktura matematyczna musi pasować do procesu kodowania jednostek w system analizowalnych terminów.
Notatki
- ^ Krippendorff, K. (2013) s. 221–250 opisuje matematykę alfa i jej zastosowanie w analizie treści od 1969 roku.
- ^ Hayes, AF & Krippendorff, K. (2007) opisują i dostarczają makra SPSS i SAS do obliczania alfa , jego granic ufności i prawdopodobieństwa nieosiągnięcia wybranego minimum.
- ^ Podręcznik referencyjny pakietu irr zawierający funkcję kripp.alpha() dla niezależnego od platformy pakietu statystyk R
- ^ Strona zasobów alfa.
- ^ Kod Matlab do obliczania alfa Krippendorffa.
- ^ Kod Pythona do obliczania alfa Krippendorffa.
- ^ Kod Pythona do szybkich obliczeń alfa Krippendorffa.
- ^ Dostępnych jest kilka napisanych przez użytkowników dodatków do komercyjnego oprogramowania Stata.
- ^ Implementacja Open Source Python obsługująca ramki danych
- ^ Honor, Dawidzie. „Zrozumienie alfa Krippendorffa” (PDF) .
- ^ Obliczanie niezawodności alfa Krippendorffa” http://repository.upenn.edu/asc_papers/43/
- ^ Krippendorff, K. (2004) s. 237–238
- ^ Hayes, AF & Krippendorff, K. (2007) Odpowiadając na wezwanie do standardowej miary niezawodności kodowania danych [1]
- ^ Krippendorff, K. (2004) s. 241–243
- Bibliografia _
- Bibliografia _
- Bibliografia _
- ^ Siegel, S. & Castellan, NJ (1988), s. 284–291.
- Bibliografia _
- ^ Pearson, K. (1901), Tildesley, ML (1921)
- ^ Krippendorff, K. (1970)
- Bibliografia _
- ^ Krippendorff, K. (1978) poruszył tę kwestię z Josephem Fleissem
- ^ Zwick, R. (1988), Brennan, RL i Prediger, DJ (1981), Krippendorff (1978, 2004).
- ^ Nunnally, JC & Bernstein, IH (1994)
- ^ Cronbach, LJ (1951)
- ^ Bennett, EM, Alpert, R. & Goldstein, AC (1954)
- ^ Goodman, LA & Kruskal, WH (1954) s. 758
- Bibliografia _
- K. Krippendorff, 2013, Analiza treści: wprowadzenie do jego metodologii, wyd. Thousand Oaks, Kalifornia, USA: Sage, PP. 221-250
- Bennett, Edward M., Alpert, R. i Goldstein, AC (1954). Komunikacja poprzez zadawanie pytań z ograniczoną odpowiedzią. Kwartalnik Opinii Publicznej, 18 , 303–308.
- Brennan, Robert L. i Prediger, Dale J. (1981). Współczynnik kappa: Niektóre zastosowania, nadużycia i alternatywy. Pomiar edukacyjny i psychologiczny, 41 , 687–699.
- Cohen, Jakub (1960). Współczynnik zgodności dla skal nominalnych. Pomiar edukacyjny i psychologiczny, 20 (1), 37–46.
- Cronbach, Lee, J. (1951). Współczynnik alfa i struktura wewnętrzna testów. Psychometria, 16 (3), 297–334.
- Fleiss, Joseph L. (1971). Pomiar zgodności skali nominalnej wśród wielu oceniających. Biuletyn psychologiczny, 76 , 378–382.
- Goodman, Leo A. & Kruskal, William H. (1954). Miary asocjacji dla klasyfikacji krzyżowych. Journal of American Statistical Association, 49 , 732-764.
- Hayes, Andrew F. i Krippendorff, Klaus (2007). Odpowiadając na wezwanie do standardowej miary niezawodności do kodowania danych. Metody i środki komunikacji, 1 , 77–89.
- Krippendorff, Klaus (2013). Analiza treści: wprowadzenie do metodologii, wydanie 3 . Tysiąc Oaks, Kalifornia: Sage.
- Krippendorff, Klaus (1978). Wiarygodność danych atrybutów binarnych. Biometria, 34 (1), 142–144.
- Krippendorff, Klaus (1970). Szacowanie wiarygodności, błędu systematycznego i błędu losowego danych interwałowych. Pomiar edukacyjny i psychologiczny, 30 (1), 61–70.
- Lin, Lawrence I. (1989). Współczynnik korelacji zgodności do oceny odtwarzalności. Biometria, 45 , 255–268.
- Nunnally, Jum C. & Bernstein, Ira H. (1994). Teoria psychometryczna, wyd . Nowy Jork: McGraw-Hill.
- Pearson, Karl i in. (1901). Matematyczny wkład w teorię ewolucji. IX: O zasadzie homotypozy i jej związku z dziedzicznością, zmiennością osobniczą i rasową. Część I: Homotypoza w królestwie roślin. Transakcje filozoficzne Towarzystwa Królewskiego (Londyn), Seria A, 197 , 285–379.
- Scott, William A. (1955). Rzetelność analizy treści: Przypadek kodowania skali nominalnej. Kwartalnik Opinii Publicznej, 19 , 321–325.
- Siegel, Sydney i Castella, N. John (1988). Statystyki nieparametryczne dla nauk behawioralnych, wyd . Boston: McGraw-Hill.
- Tildesley, ML (1921). Pierwsze badanie czaszki Birmy. Biometrica, 13 , 176–267.
- Włócznik, Charles E. (1904). Dowód i pomiar związku między dwiema rzeczami. American Journal of Psychology, 15 , 72–101.
- Zwick, Rebeka (1988). Jeszcze jedno spojrzenie na umowę międzyludzką. Biuletyn psychologiczny, 103 (3), 347–387.
Linki zewnętrzne
- Film na YouTube o alfie Krippendorffa przy użyciu SPSS i makra.
- Kalkulator niezawodności oblicza alfa Krippendorffa.
- Implementacja i biblioteka JavaScript Krippendorff Alpha
- Implementacja Pythona
- Implementacja i biblioteka Krippendorff Alpha Ruby Gem .
- Implementacja Simpledorff w języku Python, która działa z ramkami danych