Pęt decyzyjny

Przykład pnia decyzyjnego, który rozróżnia dwie z trzech klas zbioru danych o kwiatach Iris : Iris versicolor i Iris virginica . Szerokość płatka jest w centymetrach. Ten konkretny kikut osiąga 94% dokładność w zbiorze danych tęczówki dla tych dwóch klas.

Stump decyzyjny to model uczenia maszynowego składający się z jednopoziomowego drzewa decyzyjnego . Oznacza to, że jest to drzewo decyzyjne z jednym wewnętrznym węzłem (korzeń), który jest bezpośrednio połączony z węzłami końcowymi (swoimi liśćmi). Kikut decyzyjny dokonuje prognozy na podstawie wartości tylko jednej cechy wejściowej. Czasami są one również nazywane 1-regułami .

W zależności od typu elementu wejściowego możliwych jest kilka wariantów. Dla cech nominalnych można zbudować pień, który zawiera liść dla każdej możliwej wartości cechy lub pień z dwoma liśćmi, z których jeden odpowiada jakiejś wybranej kategorii, a drugi liść wszystkim pozostałym kategoriom. Dla funkcji binarnych te dwa schematy są identyczne. Brakująca wartość może być traktowana jako kolejna kategoria.

Dla cech ciągłych zwykle wybiera się pewną wartość progową cechy, a pniak zawiera dwa liście — dla wartości poniżej i powyżej progu. Jednak rzadko można wybrać wiele progów, w związku z czym pień zawiera trzy lub więcej liści.

Pniaki decyzyjne są często używane jako komponenty (zwane „uczącymi się słabo” lub „uczącymi się podstawowymi”) w zespołowych technikach uczenia maszynowego, takich jak bagging i boosting . Na przykład Violi-Jones wykorzystuje AdaBoost z kikutami decyzyjnymi jako słabymi uczniami.

Termin „kikut decyzyjny” został ukuty w artykule ICML z 1992 roku autorstwa Wayne'a Iby i Pata Langleya.

Zobacz też