Twierdzenie Sinkhorna

Twierdzenie Sinkhorna stwierdza, że ​​każdą macierz kwadratową z wpisami dodatnimi można zapisać w określonej postaci standardowej.

Twierdzenie

Jeśli A jest macierzą n × n ze ściśle dodatnimi elementami, to istnieją macierze diagonalne D 1 i D 2 ze ściśle dodatnimi elementami diagonalnymi, takie że D 1 AD 2 jest podwójnie stochastyczna . Macierze D 1 i D 2 są unikalne modulo mnożąc pierwszą macierz przez liczbę dodatnią i dzieląc drugą przez tę samą liczbę.

Algorytm Sinkhorna-Knoppa

Prostą iteracyjną metodą podejścia do podwójnej macierzy stochastycznej jest naprzemienne przeskalowanie wszystkich wierszy i wszystkich kolumn A w celu zsumowania do 1. Sinkhorn i Knopp przedstawili ten algorytm i przeanalizowali jego zbieżność. Zasadniczo jest to to samo, co iteracyjny algorytm dopasowywania proporcjonalnego , dobrze znany w statystykach ankietowych.

Analogi i rozszerzenia

Następująca analogia dla macierzy unitarnych jest również prawdziwa: dla każdej macierzy unitarnej U istnieją dwie diagonalne macierze unitarne L i R takie, że LUR ma sumę każdej kolumny i wiersza do 1.

Prawdziwe jest również następujące rozszerzenie odwzorowań między macierzami (patrz Twierdzenie 5, a także Twierdzenie 4.7): biorąc pod uwagę operator Krausa , który reprezentuje operację kwantową Φ odwzorowującą macierz gęstości na inną,

czyli zachowanie śladów,

a ponadto, którego zakres znajduje się we wnętrzu dodatnio określonego stożka (ścisła pozytywność), istnieją skalowania x j , dla j w {0,1}, które są dodatnio określone, tak że przeskalowany operator Krausa

jest podwójnie stochastyczny. Innymi słowy, jest tak, że zarówno

jak również dla sąsiednich,

gdzie I oznacza operatora tożsamości.

Aplikacje

W 2010 roku twierdzenie Sinkhorna zaczęto wykorzystywać do znajdowania rozwiązań problemów transportu optymalnego z regulacją entropii . Było to interesujące w uczeniu maszynowym , ponieważ takie „odległości Sinkhorn” można wykorzystać do oceny różnicy między rozkładami danych a permutacjami. Poprawia to szkolenie algorytmów uczenia maszynowego w sytuacjach, w których z maksymalnym prawdopodobieństwem może nie być najlepszą metodą.