Wspólna entropia kwantowa
Wspólna entropia kwantowa uogólnia klasyczną wspólną entropię w kontekście kwantowej teorii informacji . Intuicyjnie, biorąc pod uwagę dwa stany kwantowe , reprezentowane jako operatory gęstości , które są podczęściami układu kwantowego, entropia kwantowa jest miarą całkowitej niepewności lub entropii połączenia ρ {\ system. Pisze się lub , w zależności od notacji używanej dla entropii von Neumanna . Podobnie jak inne entropie, łączna entropia kwantowa jest mierzona w bitach , czyli logarytm jest przyjmowany w podstawie 2.
tym użyjemy
Tło
W teorii informacji dowolnej klasycznej zmiennej losowej klasyczna entropia Shannona jesteśmy co do wyniku . Na , jeśli punkcie, wynik pewny, a zatem jego entropia . Z drugiej strony, jeśli rozkładem prawdopodobieństwa z , intuicyjnie można by oczekiwać, jest związany z największą niepewnością Rzeczywiście, takie jednolite rozkłady prawdopodobieństwa mają maksymalną możliwą entropię. .
W kwantowej teorii informacji pojęcie entropii rozciąga się od rozkładów prawdopodobieństwa do stanów kwantowych lub macierzy gęstości . Dla stanu von Neumanna jest zdefiniowana przez
Stosując twierdzenie spektralne lub rachunek funkcjonalny Borela dla nieskończenie wymiarowych układów, widzimy, że uogólnia ono klasyczną entropię. Znaczenie fizyczne pozostaje takie samo. Stan maksymalnie mieszany, kwantowy analog jednolitego rozkładu prawdopodobieństwa, ma maksymalną entropię von Neumanna. Z drugiej strony stan czysty lub projekcja pierwszego rzędu będzie miała zerową entropię von Neumanna. Piszemy entropię von Neumanna (lub czasami .
Definicja
Biorąc pod uwagę system kwantowy z dwoma podsystemami A i B , termin wspólna entropia kwantowa odnosi się po prostu do entropii von Neumanna połączonego systemu. Ma to na celu odróżnienie od entropii podsystemów. W symbolach, jeśli połączony system jest w stanie , \
wtedy jest wspólna entropia kwantowa
Każdy podsystem ma swoją własną entropię. Stan podsystemów jest określony przez częściowego śledzenia .
Nieruchomości
Klasyczna łączna entropia jest zawsze co najmniej równa entropii każdego indywidualnego systemu. Nie dotyczy to wspólnej entropii kwantowej. Jeśli stan kwantowy kwantowe , to entropia każdego podsystemu może być większa niż wspólna Jest to równoważne z faktem, że warunkowa entropia kwantowa może być ujemna, podczas gdy klasyczna entropia warunkowa może nigdy nie być.
Rozważmy stan maksymalnie splątany, taki jak stan Bella . Jeśli jest stanem Bella, powiedzmy,
wtedy cały system jest stanem czystym, z entropią 0, podczas gdy każdy pojedynczy podsystem jest stanem maksymalnie mieszanym, z maksymalną entropią von Neumanna . Zatem łączna entropia połączonego systemu jest mniejsza niż entropia podsystemów. Dzieje się tak, ponieważ w przypadku stanów splątanych określonych stanów nie można przypisać do podsystemów, co skutkuje dodatnią entropią.
Zauważ, że powyższe zjawisko nie może wystąpić, jeśli stan jest separowalnym stanem czystym. W takim przypadku zredukowane stany podsystemów są również czyste. Dlatego wszystkie entropie są zerowe.
Relacje z innymi miarami entropii
Łączna entropia kwantowa może być użyta do zdefiniowania warunkowej entropii kwantowej :
oraz kwantowa informacja wzajemna :
Definicje te są równoległe do użycia klasycznej wspólnej entropii do zdefiniowania entropii warunkowej i wzajemnej informacji .
Zobacz też
- Nielsen, Michael A. i Isaac L. Chuang, Obliczenia kwantowe i informacje kwantowe . Cambridge University Press, 2000. ISBN 0-521-63235-8