Frage von MrNacho, 63

Frage zur Multiplen Regressionsanalyse bezüglich des Rückwärtsverfahrens?

Hallo liebe Ratgeber,

das grundlegende Prinzip habe ich verstanden, man möchte zum Schluss ein aussagekräftiges Modell haben mit signifikanten Prädikatoren, indem man aus dem ersten Modell mit der ganzen Anzahl an Prädikatoren arbeitet und schrittweise nicht-siknifikante Prädikatoren "rauswirft".

Nach jedem Schritt haben sich durch das Rauswerfen die Werte der im Modell bleibenden Prädikatoren (also Beta, T-Wert und p-Wert) verändert.

Mir wurde daraufhin erklärt, dass die Änderung der Werte aufgrund der Wechselwirkungen geschieht …

Ich verstehe, dass es an sich Wechselwirkungen geben kann (Suppressionseffekte, Multikollinearität, …).

Aber wie kann es zu Wechselwirkungen im Modell kommen, wenn doch die Werte jedes einzelnen Prädikators (also Beta, T-Wert und p-Wert) unabhängig von anderen Prädikatoren errechnet werden?

Bitte um Hilfe!!!

Grüße, MrNacho

Hilfreichste Antwort - ausgezeichnet vom Fragesteller
von HWSteinberg, 27

Wie kommst Du darauf, dass die Prädiktoren unabhängig voneinander berechnet werden? Da musst Du irgendwas missverstanden haben. Im Gegenteil, wenn man an einem Hauptfaktor (odewr auch mehreren) interessiert ist, spricht man über die anderen von Störfaktoren, oder sagt auch, dass die Schätzung(en) nach den anderen Faktoren adjustiert ist (sind).

Kommentar von MrNacho ,

Danke für deine Antwort. Ich habe bisher in Statistik gelernt wie man bei der einfachen Regression einen Prädikator auf Signifikanz prüft, also manuell (…mathematisch) und nicht mit SPSS.

Und so habe ich das Konzept auf die Multiple Regression übertragen, indem auch jeder Prädikator für sich unabhängig berechnet wird und dann die Prädkatoren mit ihren entsprechenden Werten in einer Tabelle nebeneinander ausgeführt werden.

Kannst du mir sagen wie man den P-Wert (der Auskunft über Sig. gibt) für einen Prädikator berechnet, wenn er nicht unabhängig von den anderen errechnet wird ?

Kommentar von HWSteinberg ,

Du brauchst auf jeden Fall die Kovarianzmatrix der Einflussgroessen. Sollten die mal unabhängig sein, kannst Du es wohl für jede einzeln machen (vermutlich gilt das auch schon bei Unkorreliertheit). Aber das kommt praktisch nie vor. SAS schreibt dazu: http://support.sas.com/documentation/cdl/en/statug/68162/HTML/default/viewer.htm...

Antwort
von EHECK, 19

Hallo Mr Nacho,

... mathematisch kann ich dir das auch nicht genau erklären, aber wenn Du anderesherum vorgehst, also die Variablen reinwählst (anstatt wie bei Deiner backward elimination nacheinander rauszuwerfen), wobei jedes Mal, die Variable, welche das Modell am meisten verbessert, reingewählt wird (da heisst dann forward selection), kann tatsächlich ein ganz anderes Model mit anderen Prädiktoren rauskommen als bei der backward elimination......

viel Erfolg in der Statistik

EHECK

Antwort
von Rony2200, 42

Du schaust welche Faktoren linear mit deinem Ausgang Y zusammenhängen bzw. zu wieviel die Eingangsfaktoren dein Y erklären. 

Dazu gibts die statistischen Tests. Aber was ist wenn 2 Faktoren an sich so ähnlich sind, dass einer zur Erklärung ausreicht. (Autokorrelation zwischen Faktoren, Durbin Watson Test) Oder der andere Fall die Faktoren gar nicht zur Erklärung beitragen. (keine Korrelation mit Y).

Die rauswerfen fertig.

Kommentar von MrNacho ,

Danke für deine Antwort. Ich verstehe auch was du sagst, nur erklärt das leider nicht meine Frage :/

Kommentar von Rony2200 ,

egal, wenn du mal ein paar Regressionen geschoben hast, wirst du merken dass in der Praxis eh meist nur wenige Einflussfaktoren übrig bleiben..und die kann man sich auch meist mit Logik selbst erklären.

Kommentar von Rony2200 ,

evtl. bringt dich auch der Begriff Kovarianzmatrix (mit Varianzen auf der Diagonale), oder Korrelationsmatrix (normierte Kovarianzmatrix) im Zusammenhang mit deinem Begriff "Wechselwirkung" weiter.

Keine passende Antwort gefunden?

Fragen Sie die Community