Unterschied Decision Tree und RandomForest Tree?

1 Antwort

Bei einem Decision Tree handelt es sich um eine Baumstruktur, die unter Abfolge der einzelnen Knoten zu einem spezifischen Ergebnis für eine Frage kommt. Dabei startet man bei einem abstrakteren Merkmal und wird nach und nach konkreter.

Ein einfaches Beispiel:

Alter < 18 --- ja ---> Geschlecht --- männlich ---> Junge
  |                      |
  |                      --- weiblich ---> Mädchen
  |
  --- nein ---> ...

Er ist einfach verständlich und lässt sich natürlich schnell trainieren. Allerdings ist die Wahrscheinlichkeit, später ungenauere Ergebnisse zu bekommen, hoch. Du trainierst die Anwendung mit dieser Struktur ja nur auf deine starren Merkmale und lässt gegebenenfalls Ausreißer außer Acht.

Ein Random Forest ist ein Zusammenschluss (bzw. ein Ensemble) mehrerer Entscheidungsbäume, die mit unterschiedlichen Teilen deiner Testdaten trainiert werden. Um eine letztendliche Entscheidung zu fällen, kann dann statistisch nach einer Tendenz (oder einem Mittelwert) ausgewertet werden. Durch diese Komplexität ist es natürlich (im Vergleich zum einzelnen Decision Tree) schwerer, die Struktur und Auswertung nachzuvollziehen und die Berechnung dauert länger / fordert mehr Ressourcen, doch sie fällt genauer aus und ist weniger starr auf ein einzelnes Muster geeicht.

Zusätzlich zu meiner Kurzerklärung sind m.E. diese beiden Artikel hilfreich: