Jakie są metody zespołowe?

Metody zespołowe to techniki, których celem jest poprawa dokładności wyników w modelach poprzez łączenie wielu modeli zamiast korzystania z jednego modelu. Połączone modele znacznie zwiększają dokładność wyników. Zwiększyło to popularność metod zespołowych w uczeniu maszynowym.

Metody zespołowe

Szybkie podsumowanie

  • Metody zespołowe mają na celu poprawę przewidywalności modeli poprzez połączenie kilku modeli w jeden bardzo niezawodny model.
  • Najpopularniejsze metody zespołowe to zwiększanie, pakowanie i układanie w stosy.
  • Metody zespołowe są idealne do regresji i klasyfikacji, gdzie zmniejszają odchylenie i wariancję, aby zwiększyć dokładność modeli.

Kategorie metod zespołowych

Metody zespołowe dzielą się na dwie szerokie kategorie, tj. Techniki zespołowe sekwencyjne i techniki zespołowe równoległe. Techniki sekwencyjne generują podstawowych uczniów w sekwencji, np. Adaptive Boosting (AdaBoost). Sekwencyjne generowanie podstawowych uczniów sprzyja zależności między podstawowymi uczniami. Wydajność modelu jest następnie poprawiana poprzez przypisywanie wyższych wag wcześniej błędnie przedstawionym uczniom.

W przypadku równoległych technik zespołowych , podstawowi uczniowie są generowani w formacie równoległym, np. Losowy las Losowy las Losowy las jest techniką stosowaną w modelowaniu prognoz i analizie zachowań i jest oparta na drzewach decyzyjnych. Losowy las zawiera wiele drzew decyzyjnych. Metody równoległe wykorzystują równoległe generowanie podstawowych uczniów, aby zachęcić do niezależności między podstawowymi uczniami. Niezależność podstawowych uczniów znacznie zmniejsza błąd wynikający z zastosowania średnich.

Większość technik zespołowych stosuje jeden algorytm w uczeniu podstawowym, co skutkuje jednorodnością u wszystkich uczniów podstawowych. Jednorodni uczący się podstawowi to uczniowie podstawowi tego samego typu, o podobnych cechach. Inne metody wykorzystują heterogenicznych uczniów podstawowych, dając początek niejednorodnym zespołom. Podstawowi uczniowie heterogeniczni to uczniowie różnych typów.

Główne typy metod zespołowych

1. Pakowanie

Bagging, skrócona forma agregacji bootstrap, jest stosowana głównie w klasyfikacji i regresji. Analiza regresji Analiza regresji to zestaw metod statystycznych używanych do szacowania relacji między zmienną zależną a jedną lub większą liczbą zmiennych niezależnych. Można go wykorzystać do oceny siły związku między zmiennymi i do modelowania przyszłych relacji między nimi. . Zwiększa dokładność modeli poprzez wykorzystanie drzew decyzyjnych, co w dużym stopniu ogranicza wariancję. Zmniejszenie wariancji zwiększa dokładność, a tym samym eliminuje nadmierne dopasowanie, co jest wyzwaniem dla wielu modeli predykcyjnych.

Pakowanie dzieli się na dwa typy, tj. Ładowanie początkowe i agregację. Metoda ładowania początkowego to technika pobierania próbek, w której próbki pochodzą z całej populacji (zbioru) przy użyciu procedury zastępowania. Dobór próby metodą zastępczą pomaga w randomizacji procedury selekcji. Podstawowy algorytm uczenia jest uruchamiany na próbkach, aby zakończyć procedurę.

Agregacja w workach jest wykonywana w celu uwzględnienia wszystkich możliwych wyników prognozy i zrandomizowania wyniku. Bez agregacji prognozy nie będą dokładne, ponieważ nie uwzględnia się wszystkich wyników. Agregacja jest zatem oparta na procedurach ładowania prawdopodobieństwa lub na podstawie wszystkich wyników modeli predykcyjnych.

Pakowanie jest korzystne, ponieważ słabi uczący się na poziomie podstawowym są łączeni w jednego silnego ucznia, który jest bardziej stabilny niż pojedynczy uczeń. Eliminuje również wszelkie wariancje, zmniejszając w ten sposób nadmierne dopasowanie modeli. Jednym z ograniczeń pakowania jest to, że jest kosztowne obliczeniowo. W ten sposób może prowadzić do większego odchylenia w modelach, gdy zignoruje się właściwą procedurę pakowania w worki.

2. Wzmocnienie

Wzmocnienie to technika zespołowa, która uczy się na podstawie błędów poprzednich predyktorów, aby tworzyć lepsze przewidywania w przyszłości. Technika ta łączy kilku słabych uczniów, tworząc jednego silnego ucznia, co znacznie poprawia przewidywalność modeli. Wzmacnianie polega na układaniu słabych uczniów w sekwencji, tak że słabi uczniowie uczą się od następnego ucznia w sekwencji, aby stworzyć lepsze modele predykcyjne.

Zwiększanie przybiera różne formy, w tym zwiększanie gradientu, zwiększanie adaptacyjne (AdaBoost) i XGBoost (zwiększanie ekstremalnego gradientu). AdaBoost wykorzystuje słabe osoby uczące się, które są w postaci drzew decyzyjnych, które w większości obejmują jeden podział, popularnie zwany pniakami decyzji. Główny pniak decyzyjny AdaBoost obejmuje obserwacje o podobnej wadze.

Wzmocnienie gradientu Wzmocnienie gradientu Wzmocnienie gradientu to technika używana do tworzenia modeli do przewidywania. Technika ta jest najczęściej stosowana w procedurach regresji i klasyfikacji. dodaje predyktory sekwencyjnie do zbioru, gdzie predyktory poprzedzające korygują swoich następców, zwiększając w ten sposób dokładność modelu. Nowe predyktory są odpowiednie do przeciwdziałania skutkom błędów w poprzednich predyktorach. Gradient opadania pomaga wzmacniaczowi gradientu w identyfikowaniu problemów w przewidywaniach uczniów i odpowiednim przeciwdziałaniu im.

XGBoost korzysta z drzew decyzyjnych ze zwiększonym gradientem, zapewniając lepszą szybkość i wydajność. W dużej mierze zależy od szybkości obliczeniowej i wydajności modelu docelowego. Trenowanie modelu powinno przebiegać zgodnie z sekwencją, co spowalnia wdrażanie maszyn ze wzmocnieniem gradientowym.

3. Układanie w stosy

Stacking, inna metoda zespolona, ​​jest często nazywana stosową generalizacją. Ta technika działa, umożliwiając algorytmowi uczącemu zestawienie kilku innych podobnych przewidywań algorytmu uczenia się. Układanie stosów zostało pomyślnie wdrożone w regresji, szacowaniu gęstości, uczeniu się na odległość i klasyfikacjach. Może być również używany do pomiaru poziomu błędów występujących podczas pakowania.

Redukcja wariancji

Metody zespołowe są idealne do zmniejszania wariancji w modelach, zwiększając w ten sposób dokładność prognoz. Wariancja jest eliminowana, gdy wiele modeli jest połączonych w celu utworzenia jednej prognozy, która jest wybierana spośród wszystkich innych możliwych prognoz z połączonych modeli. Zbiór modeli to czynność polegająca na łączeniu różnych modeli w celu zapewnienia, że ​​wynikowa prognoza jest jak najlepsza, oparta na uwzględnieniu wszystkich prognoz.

Dodatkowe zasoby

Finance jest oficjalnym dostawcą globalnego certyfikatu Certified Banking & Credit Analyst (CBCA) ™ CBCA ™ Akredytacja Certified Banking & Credit Analyst (CBCA) ™ to globalny standard dla analityków kredytowych obejmujący finanse, księgowość, analizę kredytową, analizę przepływów pieniężnych , modelowanie warunków umowy, spłaty pożyczek i nie tylko. program certyfikacji, mający pomóc każdemu zostać światowej klasy analitykiem finansowym. Aby kontynuować karierę, przydatne będą poniższe dodatkowe zasoby finansowe:

  • Elastyczna siatka Elastyczna siatka Elastyczna siatka liniowo wykorzystuje kary z technik lasso i grzbietu do uregulowania modeli regresji. Technika łączy zarówno lasso, jak i
  • Overfitting Overfitting Overfitting to termin używany w statystykach, który odnosi się do błędu modelowania, który występuje, gdy funkcja zbyt blisko odpowiada określonemu zestawowi danych
  • Skalowalność Skalowalność Skalowalność może dotyczyć zarówno kontekstu finansowego, jak i strategii biznesowej. W obu przypadkach oznacza to zdolność jednostki do wytrzymania presji
  • Spoofing Spoofing Spoofing to destrukcyjna algorytmiczna praktyka handlowa, która polega na składaniu ofert kupna lub sprzedaży kontraktów futures i anulowaniu ofert przed zawarciem transakcji. Praktyka ma na celu stworzenie fałszywego obrazu popytu lub fałszywego pesymizmu na rynku.

Zalecane

Czy Crackstreams zostały zamknięte?
2022
Czy centrum dowodzenia MC jest bezpieczne?
2022
Czy Taliesin opuszcza kluczową rolę?
2022