Zasada Yao

W teorii złożoności obliczeniowej zasada Yao (zwana także zasadą minimaksu Yao lub lematem Yao ) jest sposobem na udowodnienie dolnych granic wydajności losowych algorytmów w najgorszym przypadku , porównując je z algorytmami deterministycznymi (nielosowymi). Stwierdza, że ​​dla dowolnego losowego algorytmu istnieje rozkład prawdopodobieństwa danych wejściowych algorytmu, tak że oczekiwany koszt losowego algorytmu na jego danych wejściowych w najgorszym przypadku jest co najmniej tak duży, jak koszt najlepszego algorytmu deterministycznego na losowe dane wejściowe z tej dystrybucji. Zatem, aby ustalić dolną granicę wydajności losowych algorytmów, wystarczy znaleźć odpowiedni rozkład trudnych danych wejściowych i udowodnić, że żaden algorytm deterministyczny nie może dobrze działać w stosunku do tego rozkładu. Zasada ta nosi imię Andrew Yao , który pierwszy to zaproponował.

Zasada Yao może być interpretowana w kategoriach teorii gier , poprzez dwuosobową grę o sumie zerowej , w której jeden gracz, Alicja , wybiera algorytm deterministyczny, drugi gracz, Bob, wybiera dane wejściowe, a wypłatą jest koszt wybranego algorytm na wybranym wejściu. Każdy losowy algorytm R może być interpretowany jako losowy wybór spośród algorytmów deterministycznych, a więc jako strategia mieszana dla Alicji. Podobnie, nielosowy algorytm może być traktowany jako czysta strategia dla Alicji. Przez von Neumanna twierdzenie o minimaksie , Bob ma losową strategię, która sprawdza się co najmniej tak samo dobrze w przypadku R , jak w przypadku najlepszej czystej strategii, którą mogła wybrać Alicja. Dane wejściowe najgorszego przypadku w porównaniu ze strategią Alicji kosztowały co najmniej tyle samo, co losowo wybrane dane wejściowe Boba w połączeniu ze strategią Alicji, co z kolei kosztowało co najmniej tyle samo, co losowo wybrane dane wejściowe Boba w połączeniu z jakąkolwiek czystą strategią.

Oświadczenie

Poniższe sformułowanie określa zasadę losowych algorytmów Las Vegas , tj. rozkładów po algorytmach deterministycznych, które są poprawne na każdym wejściu, ale mają różne koszty. Łatwo jest dostosować tę zasadę do algorytmów Monte Carlo , tj. rozkładów po algorytmach deterministycznych, które mają ograniczone koszty, ale mogą być niepoprawne na niektórych danych wejściowych.

Rozważ problem na wejściach niech będzie które poprawnie rozwiązują problem Dla dowolnego algorytmu i wejścia , niech będzie kosztem algorytmu uruchamiane na wejściu .

Niech rozkładem prawdopodobieństwa algorytmów niech algorytm wybrany zgodnie z . Niech wejściach i niech oznacza losowe dane wejściowe wybrane zgodnie z q Następnie,

, że oczekiwany koszt losowego algorytmu w najgorszym przypadku jest co najmniej oczekiwanym kosztem najlepszego algorytmu deterministycznego względem rozkładu danych .

Dowód

Niech do i re . Mamy

Jak wspomniano powyżej, twierdzenie to można również postrzegać jako bardzo szczególny przypadek twierdzenia Minimax .

Zobacz też

  •   Borodin, Allan ; El-Yaniv, Ran (2005), „8.3 Zasada Yao: technika uzyskiwania dolnych granic” , Online Computation and Competitive Analysis , Cambridge University Press, s. 115–120, ISBN 9780521619462
  • Yao, Andrew (1977), „Obliczenia probabilistyczne: w kierunku ujednoliconej miary złożoności”, Proceedings of the 18th IEEE Symposium on Foundations of Computer Science (FOCS) , s. 222–227, doi : 10.1109 / SFCS.1977.24

Linki zewnętrzne