Bewertung:

Derzeit gibt es keine Leserbewertungen. Die Bewertung basiert auf 3 Stimmen.
XGBoost. The Extreme Gradient Boosting for Mining Applications
Fachbericht aus dem Jahr 2017 im Fachbereich Informatik - Internet, Neue Technologien, Note: 8, Sprache: Deutsch, Abstract: Tree Boosting ist ein empirisch sehr effektiver und vielseitiger Ansatz zur Datenmodellierung: Englisch, Abstract: Tree Boosting hat sich empirisch als ein sehr effektiver und vielseitiger Ansatz für datengetriebene Modellierung erwiesen. Das Kernargument ist, dass Tree-Boosting adaptiv die lokalen Nachbarschaften des Modells bestimmen kann und dabei den Bias-Varianz-Trade-off während der Modellanpassung berücksichtigt.
In letzter Zeit hat eine Tree-Boosting-Methode namens XGBoost an Popularität gewonnen, da sie eine höhere Genauigkeit bietet. XGBoost führt darüber hinaus einige Verbesserungen ein, die es ihm ermöglichen, den Bias-Varianz-Kompromiss noch sorgfältiger zu berücksichtigen. In dieser Forschungsarbeit schlagen wir vor, die Verwendung eines adaptiven Verfahrens zu demonstrieren, d.
h.
Learned Loss (LL), um die Verlustfunktion während des Boosting-Prozesses zu aktualisieren. Die Genauigkeit des vorgeschlagenen Algorithmus, d.
h. XGBoost mit Learned-Loss-Boosting-Funktion, wird mit der Test/Train-Methode, der K-Fold-Cross-Validation und der Stratified-Cross-Validation-Methode evaluiert und mit dem Stand der Technik der Algorithmen XGBoost, AdaBoost, AdaBoost-NN, Lineare Regression (LR), Neuronales Netzwerk (NN), Entscheidungsbaum (DT), Support Vector Machine (SVM), Bagging-DT, Bagging-NN und Random Forest Algorithmen verglichen. Die bewerteten Parameter sind Genauigkeit, Fehler vom Typ 1 und Fehler vom Typ 2 (in Prozent).
In dieser Studie werden insgesamt zehn Jahre historischer Daten von Januar 2007 bis August 2017 von zwei Aktienmarktindizes (CNX Nifty und S&P BSE Sensex) verwendet, die sehr voluminös sind. Außerdem werden wir in dieser Forschungsarbeit untersuchen, wie sich XGBoost von den eher traditionellen Ensemble-Techniken unterscheidet. Darüber hinaus werden wir die Regularisierungstechniken, die diese Methoden bieten, und deren Auswirkungen auf die Modelle diskutieren.
Darüber hinaus werden wir versuchen, die Frage zu beantworten, warum XGBoost so viele Wettbewerbe zu gewinnen scheint. Dazu werden wir einige Argumente anführen, warum Tree Boosting, und insbesondere XGBoost, ein so hocheffektiver und vielseitiger Ansatz zu sein scheint.