Unterschied Suppression und Multikollinearität?

2 Antworten

Multikollinearität = Prädiktoren korrelieren miteinander. Es gibt dann einen Varianzanteil in der abhängigen Variable (= Kriterium), den im Prinzip MEHRERE Prädiktoren vorhersagen könnten. D.h. man kann diesen Varianzanteil nicht eindeutig einem Prädiktor zuordnen.

Beispiel: Du willst die Punkte in irgendeinem Leistungstest vorhersagen durch den IQ und durch die Motivation. Jetzt stellen wir aus irgendeinem Grund fest, dass IQ und Motivation korreliert sind. Dann kann es sein, dass ein bestimmter Anteil der Unterschiede im Leistungstest sowohl durch die Motivation als auch den IQ erklärt werden könnten, und du weißt dann nicht, welcher Prädiktor von den beiden jetzt diesen Varianzanteil erklärt.

Die Regressionsgewichte haben mit dem Varianzanteil zu tun, der NUR durch diesen Prädiktor aufgeklärt werden kann. Das heißt je höher der Varianzanteil, der durch beide Prädiktoren erklärt werden kann, umso kleiner ist der Varianzanteil, der nur durch Motivation oder nur durch den IQ erklärt werden kann. Wenn diese eigenen Varianzanteile klein werden, sinkt das Regressionsgewicht.

Suppression ist, wie du schon richtig sagst, ein Sonderfall der Multikollinearität, aber die Situation ist halt ganz anders. Bei der Suppression ist die Suppressorvariable praktisch gar nicht mit der abhängigen Variable korreliert. Es gibt also dieses Problem gar nicht, dass beide Prädiktoren denselben Varianzanteil in der abhängigen Variable erklären können.
Die Suppressorvariable korreliert aber mit dem anderen Prädiktor, und deswegen ist natürlich schon Multikollinearität gegeben. Dadurch dass sie aber nur mit dem anderen Prädiktor, kann sie quasi Varianz in dem Prädiktor "unterdrücken", die nichts mit dem Kriterium zu tun hat. Dadurch sieht es so aus, als würde der Anteil, den der andere Prädiktor mit Kriterium gemeinsam hat, größer werden (relativ zu dem Varianzanteil der nicht mit dem Kriterium zusammenhängt). Dadurch steigt das Regressionsgewicht.

Stell Dir das so vor:
Modell ohne Suppressionsvariable mit 1 Prädiktor: Prädiktor hat 30 % der Varianz mit dem Kriterium gemeinsam und 70 % Varianz für sich.
Modell mit Suppressorvariable und dem Prädiktor (also quasi zwei Prädiktoren): Von den 100% Varianz des Prädiktors wird jetzt 20 % durch die Suppressorvariable unterdrückt. Dadurch verbleiben 80%. Was vorher 30 % sind, ist jetzt 30/80 = 37.5 %

D.h. in dem neuen Modell hat der Prädiktor 37.5 % mit der abhängigen Variable gemeinsam, und er hat 62.5% Varianz für sich alleine. D.h. es sieht so aus, als könnte der Prädiktor jetzt mehr erklären, und es steigt dadurch das Regressionsgewicht.

Das kann man besser mit Kreisdiagrammen erklären (ich würde Dir empfehlen, die ein paar Videos zur Suppression auf YouTube anzuschauen).

Varianzaufklärung (erklärte und nicht erklärte Varianzanteile) ist ein wichtiges Konzept um das alles zu verstehen.


Huskita 
Beitragsersteller
 16.06.2021, 14:05

Lieben Dank dir! Hast du vielleicht einen Link für ein gutes Erklärungsvideo?

0

Wo stammt denn die Aussage her, die stimmt doch gar nicht.