Optymalizacja bayesowska
Optymalizacja bayesowska to strategia projektowania sekwencyjnego służąca do globalnej optymalizacji funkcji czarnej skrzynki , która nie przyjmuje żadnych form funkcjonalnych. Jest zwykle używany do optymalizacji kosztownych do oceny funkcji.
Historia
Termin ten jest generalnie przypisywany Jonasowi Mockusowi
i został ukuty w jego pracy z serii publikacji na temat optymalizacji globalnej z lat 70. i 80. XX wieku.Strategia
Optymalizacja bayesowska jest zwykle stosowana w przypadku problemów postaci , gdzie punktów, , które opierają się na mniej niż 20 wymiarach ( ) i których członkostwo można łatwo ocenić. Optymalizacja jest szczególnie korzystna w przypadku problemów, w których ocenić ze względu na koszt Funkcja celu , zwanej „czarną skrzynką”. Po jego ocenie obserwuje się tylko pochodne nie
Ponieważ funkcja celu jest nieznana, strategia bayesowska polega na traktowaniu jej jako funkcji losowej i nadaniu jej priorytetu . Prior oddaje przekonania na temat zachowania funkcji. Po zebraniu ocen funkcji, które są traktowane jako dane, a priori są aktualizowane w celu utworzenia rozkładu a posteriori w funkcji celu. Z kolei dystrybucja a posteriori jest wykorzystywana do konstruowania funkcji akwizycji (często określanej również jako kryteria próbkowania wypełnienia), która określa następny punkt zapytania.
Istnieje kilka metod używanych do definiowania rozkładu wcześniejszego / późniejszego w funkcji celu. Najpopularniejsze dwie metody wykorzystują procesy Gaussa w metodzie zwanej krigingiem . Inna tańsza metoda wykorzystuje estymator drzewa Parzena do skonstruowania dwóch rozkładów dla punktów „wysokich” i „niskich”, a następnie znajduje lokalizację, która maksymalizuje oczekiwaną poprawę.
Standardowa optymalizacja bayesowska polega na tym, że każdy do oceny, a problemy odbiegające od tego założenia są znane jako optymalizacji bayesowskiej . Problemy optymalizacyjne mogą stać się egzotyczne, jeśli wiadomo, że występuje szum, oceny są wykonywane równolegle, jakość ocen zależy od kompromisu między trudnością a dokładnością, obecnością losowych warunków środowiskowych lub jeśli ocena obejmuje pochodne.
Funkcje akwizycji
Przykłady funkcji akwizycji obejmują
- prawdopodobieństwo poprawy
- oczekiwana poprawa
- Bayesowskie straty oczekiwane
- górne granice ufności (UCB) lub dolne granice ufności
- Samplowanie Thompsona
i ich hybrydy. Wszyscy oni godzą się na eksplorację i eksploatację, aby zminimalizować liczbę zapytań funkcyjnych. W związku z tym optymalizacja bayesowska dobrze nadaje się do funkcji, których ocena jest kosztowna.
Metody rozwiązania
Maksimum funkcji akwizycji jest zwykle znajdowane przez zastosowanie dyskretyzacji lub za pomocą pomocniczego optymalizatora. Funkcje akwizycji są zazwyczaj dobrze zachowane [ potrzebne źródło ] i są maksymalizowane przy użyciu techniki optymalizacji numerycznej , takiej jak metoda Newtona lub metody quasi-Newtona, takie jak algorytm Broydena-Fletchera-Goldfarba-Shanno .
Aplikacje
Podejście to zostało zastosowane do rozwiązania szerokiego zakresu problemów, w tym uczenia się rangowania , grafiki komputerowej i projektowania wizualnego, robotyki , sieci czujników , automatycznej konfiguracji algorytmów , zestawów narzędzi automatycznego uczenia maszynowego , uczenia się przez wzmacnianie , planowania, uwagi wizualnej, konfiguracji architektury w głębokim uczenie się , statyczna analiza programów, eksperymentalna fizyka cząstek elementarnych , chemia, projektowanie materiałów i opracowywanie leków.