Statistik --- Variablenwahl/-modifikation bei einer Regressionsanalyse

Neue Frage »

cetrix888 Auf diesen Beitrag antworten »
Statistik --- Variablenwahl/-modifikation bei einer Regressionsanalyse
Meine Frage:
Hallo liebes Forum,

ich schreib grad an meiner Bachelorarbeit, die Zeit drängt ein wenig, und ich komme seit geraumer Zeit nicht weiter. Ich hoffe ihr könnt mir ein wenig weiterhelfen. Hab meine Frage in der Form leider nicht im Forum gefunden.

Ich muss in meiner Arbeit eine Regressionsanalyse durchführen (mache dies mit STATA). Diese soll auf die bestehende Literatur aufbauen, und um eigene Variablen erweitert werden. Die Variablen der Literatur hab ich beschrieben, meine Hypothesen aufstellt und diesbezüglich eigene unabhängige Variablen hinzugefügt (Dummys und stetige Variablen).

Nachdem ich erstmal alle neue Variablen dem in der Literatur verwendeten Modell hinzugefügt und eine Regression durchgeführt habe, kommt keine der Variablen unter dem gewünschten Signifikanzniveau (P-Wert < 0,1). Nach meinem Verständnis kann ich also keine Aussage treffen... ist leider kein schönes Ergebnis einer Bachelorarbeit. Zumal bei bestimmten Variablen eigentlich auf jeden Fall ein Einfluss erwartet wird.


Nun zu meiner Frage: (ich mache zum ersten mal eine Regression, habt bitte erbarmen Big Laugh ):

1)Inwieweit kann man ein Modell jetzt modifizieren? Also ich kann jetzt bisschen mit den Variablen herumprobieren, bis gewünschte Variablen das Niveau erreicht haben. Aber dies ist ja sicherlich auch nicht Sinn einer wissenschaftlichen Arbeit. Bin mir auch nicht sicher ob ich die Variablen, welche ich als Basis nutze bzw. die Literatur verwendet hat, entfernen darf. (Es gibt ja die Rückwärtsselektion um Variablen zu entfernen)

2)Ist es überhaupt sinnvoll alle "meine" Variablen auf einen Schlag zu überprüfen? Oder wäre es besser schrittweise welche hinzuzufügen und dann mehrere Regressionen durchzuführen?


3 )Meine Idee war "stark" korrelierende Variablen erstmal zu entfernen. Mein Betreuer meinte aber, dass man Variablen nur wegen der Korreliertheit nicht aus einem Regressionsmodell entfernt. Weiß jetzt nicht nach welchen Kriterien ich neue Modelle finde..

4) Zur Interpretation: Wenn ich irgendwann in einem Modell eine Variable bekomme, die signifikanten Einfluss auf die abhängige Variable hat, in allen anderen Modellen jedoch nicht, kann ich dann trotzdem direkt die entsprechende Hypothese bestätigen?


Allgemein würde ich jetzt einfach verschiedene Modelle mit verschiedenen Variablen verwenden, und hoffe komme irgendwann zu einem signifikanten Ergebnis...
Ich hoffe das Problem ist einigermaßen verständlich formuliert....

Vielen Dank schonmal für jeden der sich die Mühe macht smile
Lieben Gruß


Meine Ideen:

Allgemein würde ich jetzt einfach verschiedene Modelle mit verschiedenen Variablen verwenden, und hoffe komme irgendwann zu einem signifikanten Ergebnis...
Clearly_wrong Auf diesen Beitrag antworten »

Ich kenne mich nicht besonders gut mit dem Thema aus, aber unter der Prämisse, dass du nun schon eine ganze Weile keine Antwort erhalten hast, wage ich mich mal vor. Ich kann nur zu einem deiner Punkte was sagen.

Wenn du von zwei stark (positiv) korrelierenden Regressoren einen entfernst, wirst du zwar einen höheren Einfluss der anderen messen, aber das ist kein Fortschritt, es handelt sich dabei um einen ommited variables bias, den man auf jeden Fall vermeiden möchte. Im Prinzip nimmst du freiwillig einen Fehler in Kauf, um das Ergebnis aussagekräftiger zu machen, ein Widerspruch in sich. Hast du stattdessen mal versucht, stark korreliernde Regressoren auf gemeinsame Signifikanz zu testen, etwa mit einem R- bzw. Wald-Test?
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »