Bewertung:

Derzeit gibt es keine Leserbewertungen. Die Bewertung basiert auf 2 Stimmen.
Entscheidungsbäume sind sehr beliebte überwachte Klassifizierer bei der Lösung von Mustererkennungsproblemen.
Bei der Konstruktion eines Entscheidungsbaums ist eine Bewertungsfunktion für die Auswahl der besten Teilungskandidaten zuständig. Jede Bewertungsfunktion zielt darauf ab, ausgewogene Bäume mit wenigen Ebenen zu erhalten und gleichzeitig möglichst reine Knoten zu erhalten.
In dieser wissenschaftlichen Arbeit wird der historische Hintergrund der Entwicklung von Methoden zur Entscheidungsbauminduktion und ihre Anwendung auf Trainingsmengen mit gemischten und unvollständigen Daten ermittelt. Darüber hinaus wird eine neue Methode zur Induktion von Entscheidungsbäumen auf der Grundlage von Cluster-Validierungsindizes vorgeschlagen, mit dem Ziel, jeden Knoten so zu bewerten, als wäre er ein Cluster. Bei der Konstruktion des Baums werden Haltekriterien hinzugefügt, um bessere Ergebnisse in Bezug auf Qualität und Effizienz des Klassifizierers zu erzielen.
Die vorgeschlagene Methode wurde mit der C4. 5 verglichen, und die Ergebnisse, die bei der Klassifizierung von 30 Datenbanken des Repository der University of California at Irvine (UCI) erzielt wurden, zeigen, dass die Effizienz der neuen vorgeschlagenen Methode besser ist.