W teorii informacji podwójna korelacja całkowita (Han 1978), przepływ informacji (Dubnov 2006), nadmiarowa entropia (Olbrich 2008) lub wiążąca informacja (Abdallah i Plumbley 2010) jest jednym z kilku znanych nieujemnych uogólnień wzajemnej informacji. Podczas gdy korelacja całkowita jest ograniczona sumą entropii n elementów, podwójna korelacja całkowita jest ograniczona łączną entropią n elementów . Chociaż dobrze wychowana, podwójna korelacja całkowita poświęcono znacznie mniej uwagi niż korelacja całkowita. Miara znana jako „złożoność TSE” definiuje kontinuum między całkowitą korelacją a podwójną całkowitą korelacją (Ay 2001).
Diagram Venna informacyjnych miar teoretycznych dla trzech zmiennych x, y i z. Podwójna całkowita korelacja jest reprezentowana przez połączenie trzech wzajemnych informacji i jest pokazana na diagramie przez obszary żółte, karmazynowe, cyjanowe i szare.
0,1] to po prostu podwójna całkowita korelacja podzielona ,
Miedza
Podwójna całkowita korelacja jest nieujemna i ograniczona powyżej wspólną entropią .
Po drugie, podwójna korelacja całkowita ma ścisły związek z korelacją całkowitą, do . W szczególności,
Historia
Han (1978) pierwotnie zdefiniował podwójną całkowitą korelację jako:
Jednak Abdallah i Plumbley (2010) wykazali jej równoważność z łatwiejszą do zrozumienia formą wspólnej entropii minus suma entropii warunkowych poprzez:
Abdallah, Samer A.; Plumley, Mark D. (2010). „Miara złożoności statystycznej oparta na informacjach predykcyjnych”. arXiv : 1012.1890v1 [ matematyka.ST ].
Nihat Ay, E. Olbrich, N. Bertschinger (2001). Unifikujące ramy miar złożoności systemów skończonych. Europejska konferencja na temat systemów złożonych. pdf .