Der "z-Wert" bezieht sich nur auf die Zellen, nicht auf die einzelnen Beobachtungen.

Es gibt in jeder Zelle der Kreuztabelle einen Unterschied zwischen der (unter der Nullhypothese) erwarteten Häufigkeit und der tatsächlich in der Stichprobe aufgetretenen Häufigkeit. Dieser Unterschied ist ein Residuum. Um die Betrachtung unabhängig von der Stichprobengröße bzw. der erwarteten Zellhäufigkeit zu machen und recht schnell erkennen zu können, ob es sich um eine vergleichsweise große oder kleine Abweichung handelt, wird die Differenz standardisiert:

"Die standardisierten Residuen sind der Quotient aus den Rohresiduen (der Differenz zwischen den beobachteten Anzahlen und den erwarteten Anzahlen) und der Quadratwurzel der erwarteten Anzahlen." https://support.minitab.com/de-de/minitab/help-and-how-to/statistics/tables/how-to/cross-tabulation-and-chi-square/interpret-the-results/all-statistics-and-graphs/tabulated-statistics/

...zur Antwort

"Lagebild zu häuslicher Gewalt erneut ohne Daten zu LSBTIQ* " https://www.lsvd.de/de/ct/9819-Lagebild-zu-haeuslicher-Gewalt-erneut-ohne-Daten-zu-LSBTIQ

"Wenn Männer Opfer ihrer Männer werden"
"...Eine 2018 durchgeführte Studie kanadischer und italienischer Forscherinnen und Forscher über Partnerschaftsgewalt in gleichgeschlechtlichen Beziehungen hat gezeigt, dass die Häufigkeit von Gewalt in gleichgeschlechtlichen Partnerschaften mit jener in heterosexuellen Paarbeziehungen vergleichbar ist. Und eine US-Studie kam zu dem Ergebnis, dass 46 Prozent aller homosexuellen Männer unter Partnerschaftsgewalt leiden." https://www.derstandard.de/story/3000000182393/wenn-maenner-opfer-ihrer-maenner-werden

(die US-Studie ist allerdings irreführend wiedergegeben; die 46% betreffen nicht physische Gewalt, sondern "intimate partner abuse", das schließt ein: körperliche und sexuelle Gewalt, seelischer Missbrauch, kontrollierendes Verhalten. Ein Blick in die originale Studie zeigt, dass "physical/sexual violenvce" in den letzten 12 Monaten von 9,6% berichtet wurde. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6131425/

...zur Antwort
Welche Auswertungsmethode und wie?

Vorneweg: Wenn ihr nur Ideen habt und nicht ganz sicher seid, bitte trotzdem die Ideen nennen. Ich bin ziemlich verzweifelt und habe gar keine Ahnung.

Hallöchen,

ich sollte ein eigenes Experiment in meinem Psychologie Studium erstellen zum Thema Ankereffekt. dabei sollte ich zwei Hypothesen formulieren und diese dann testen und auswerten.

Meine Hypothesen lauten:

Der Ankereffekt wirkt schwächer bei positiver Stimmung.

Der Ankereffekt wirkt stärker bei negativer Stimmung.

Der Anker soll hier die abhängige variable sein und die Stimmung die unabhängige.

Ich habe im Experiment einen Stimmungstest durchgeführt um zu schauen, ob meine Stimmungsbeeinflussung funktionierte.

Dann machte ich nach jeder Stimmungsbeeinflussung (positiv, neutral, negativ) direkt einen Ankertest, indem ich 4 Aufgaben mit Anker stellte und die Versuchspersonen eine Antwort geben sollten.

Das alles segnete die Dozentin als richtig ab.

Jetzt stehe ich mit der Auswertung da und habe einige Fragezeichen. Die Dozentin konnte mir keine wirkliche Antwort geben, welche Auswertungsmethode sie mir empfiehlt. Die letzte unsichere Antwort war eine Mehrfaktorielle Anova ohne Messwiederholungen.

Aber ich möchte ja einen Zusammenhang zwischen Stimmung und Anker finden?

Ein zusätzliches Problem ist, dass meine Stimmungswerte nominalskalliert sind (positiv,neutral,negativ) und der Ankereffekt intervallskalliert (Bsp.400/500=0.8), wenn ich das richtig verstehe?

Könnt ihr mir bitte helfen🙏

Welche auswertungsmethode muss ich jetzt nehmen und warum und wie mache ich das mit der Skalierung der Daten?

...zum Beitrag

Wenn es drei unabhängige Gruppen sind und - wie angegeben - eine intervallskalierte abhängige Variable vorliegt, ist wie empfohlen eine Varianzanalyse naheliegend. Leider fehlt die Angabe der Stichprobengröße.

Allerdings verstehe ich die Empfehlung "mehrfaktoriell" nicht. Gibt es einen weiteren Einflussfaktor außer Gruppenzugehörigkeit?

Wenn nicht, dann kommt bei ausreichender Stichprobengröße (n > 12 pro Gruppe wäre günstig) eine einfaktorielle Varianzanalyse mit anschließend paarweisen post-hoc-Tests in Betracht.

...zur Antwort

Ja richtig.

Das Ausmaß der Assoziation/Korrelation, sowas zeigt ein Streudiagramm (oder auch einfach der Korrelationskoeffizient).

Wie Du schon sagst, für sich genommen sagt das nichts über Kausalität.

Kausalität kann man versuchen zu bestimmen durch das Untersuchungsdesign (z.B. experimentelle Variation einer der beiden Variablen, um zu schauen, inwiefern sich dann die andere ändert) und/oder bis zu einem gewissen Grad durch Sach- und Fachwissen.

...zur Antwort

"Jeder, der will, kann sich ein Elektroauto leisten. Rabatte von bis zu 40 Prozent, günstige Leasingraten und niedrige Betriebskosten machen E-Autos unschlagbar preiswert – wenn man weiß, wie es geht."

Quelle: "Von wegen unbezahlbar: Die billigen E-Autos sind längst da". Wirtschaftswoche 14. Februar 2024

https://www.wiwo.de/my/unternehmen/auto/elektromobilitaet-von-wegen-unbezahlbar-die-billigen-e-autos-sind-laengst-da-/29645912.html (Bezahlschranke)

Ob's stimmt, weiß ich nicht, aber WiWo ist kein Käseblatt.

...zur Antwort

"2022 hatten schätzungsweise rund 13 Prozent aller Lehrer/innen an allgemeinbildenden Schulen einen Migrationshintergrund. Von ihnen hatten etwa 70 Prozent die deutsche Staatsangehörigkeit. Zum Vergleich: Unter den Schüler/innen an allgemeinbildenden Schulen hatten im selben Jahr 41 Prozent einen Migrationshintergrund." https://mediendienst-integration.de/integration/schule.html

Hamburg als Großstadt könnte einen höheren Anteil haben, damit wäre 13% die Untergrenze der Schätzung.

...zur Antwort

Eine nicht-Verwerfung zeigt nicht, dass H0 wahr ist. Es gibt ja auch den Fehler 2. Art (davon ab, machen statistische Signifikanztests ohnehin keine Aussagen über die Wahrscheinlichkeit oder Gültigkeit von Hypothesen, sondern über die Wahrscheinlichkeit von Daten; es ist ein Entscheidungsverfahren; aber das ist hier wohl nicht gemeint).

H0 können lauten "Parameter = X" oder "Parameter <= X", aber nicht "Parameter ungleich X".

Verwendet Ihr "kleiner" statt "kleiner-gleich"?

...zur Antwort

Deine Stichprobe scheint ziemlich klein zu sein. In dem Fall wäre "nicht signifikant" nicht sonderlich informativ. Kann an viel zu geringer statistischer power liegen, die für falsch-negative Ergebnisse sorgt, oder daran, dass tatsächlich keine Zusammenhänge existieren. Man weiß es dann halt nicht.

...zur Antwort

Mit 2 entspricht sie wohl in etwa einem "jungen Erwachsenen".

Ein Rechner, der die frühe Geschlechtsreife von Katzen berücksichtigt, plus Erklärung, findet sich z.B. hier https://www.blitzrechner.de/katzenjahre/

Als Tabellen:

https://www.deine-tierwelt.de/magazin/umrechnungstabelle-so-alt-ist-deine-katzen-in-menschenjahren/

https://herz-fuer-tiere.de/haustiere/katzen/katzenjahre-in-menschenjahren-umrechnen

...zur Antwort

Du kannst Dich doch an dem orientieren, was im ursprünglichen Fragebogen gemacht wurde? Wurde dort der Durchschnitt oder die Summe gebildet?

Mathematisch/statistisch sind Summe und Mittelwert vollkommen äquivalent, sofern keine fehlenden Werte vorliegen.

Die Prozedur MEAN hat jedoch den Vorteil, dass einzelne fehlende Werte den Gesamtwert nicht besonders verändern (der Mittelwert wird nur aus den gültigen Werten berechnet), während ein fehlender Wert bei SUM dazu führt, dass ein Proband einen niedrigeren Gesamtwert hat.

Man muss bei MEAN aber aufpassen, dass Gesamtscores eines Probanden nur gebildet werden, wenn ausreichend gültige Werte vorliegen. MEAN.6(var1 to var8) würde bedeuten "berechne den Mittelwert immer dann, wenn mindestens 6 gültige Werte vorliegen". Meiner persönlichen Erfahrung nach, werden in Auswertungsanweisungen bei nicht allzu kurzen Skalen ein bis zwei fehlende Werte toleriert.

Allerdings bedeutet MEAN implizit, dass fehlende Werte durch den Mittelwert der übrigen Items des Probanden ersetzt werden, was sub-optimal erscheint (wenn auch besser als die Verringerung des Gesamtscores in SUM, wenn etwas fehlt). Wenn stattdessen vor der Bildung des Gesamtscores fehlende Werte anhand einer geeigneten Prozedur ersetzt werden, dann hat man wiederum effektiv keinen Unterschied zwischen SUM und MEAN.

...zur Antwort

Zum Beispiel, weil sie dieselben Ausgangsdaten unterschiedlich behandeln. Mitunter ergeben sich Unterschiede, wenn man ein Verfahren wie einfaktorielle Varianzanalyse (intervallskalierte AV) und ein analoges Verfahren für Rangvariablen (Kruskal-Wallis H-Test) mit denselben Daten durchführt. Rangdaten enthalten weniger statistische Informationen, was die Wahrscheinlichkeit "signifikanter" Ergebnisse verringert, zugleich fallen aber einige Fehlerquellen der "parametrischen" Verfahren (Verletzung von Verteilungsvoraussetzungen) von vornherein weg. Es gibt noch andere Gründe für scheinbare Widersprüche. Letztlich musst Du schon konkret mitteilen, welche Tests Du meinst und unter welchen Umständen.

...zur Antwort
Statistik: Alternativen zum Chi-Quadrat-Test?

Hallo, ich möchte einen Chi-Quadrat-Test durchführen für meine Untersuchung mit einer Stichprobengröße von 48 und den Variabeln i= i1, i2, i3, i4 und j= j1, j2, j3. Die für den Test eigentlich zu geringe Stichprobengröße von mind. 50 konnte ich mit der Yates-Korrektur ausgleichen. In meiner 3x4-Kontingenztabelle ergaben sich jedoch einige Zellhäufungen von <5, was laut mehreren Quellen ein Ausschlusskriterium für die Durchführung des Chi-Quadrat-Tests ist. Mir wurde stattdessen der exakte Test nach Fisher empfohlen. Der wiederum ist für 2x2-Kontingenztabellen ausgelegt und für Zellhäufungen von ausschließlich <5. Auch hier sagen einige (jedoch nicht alle ...) Quellen, dass der Fisher-Text auch mit größeren Kreuztabellen möglich ist - jedoch nicht für Zellhäufungen >5. Die Quellenlage zu den Voraussetzungen beider Tests ist z.T. widersprüchlich, was die Situation weiter erschwert.

Etwas komplizierte Herleitung, aber hier nun mein Problem: Ich habe nun die Situation, dass meine Untersuchung weder die Voraussetzungen des Chi-Quadrat-Tests noch die Voraussetzungen des Ausweichtests (exakter Test nach Fisher) erfüllt. Ich habe den Chi-Quadrat-Test probehalber trotzdem durchgeführt und mit der Korrektur nach Yates weist er auch ein passendes Ergebnis auf. Da die Voraussetzungen des Tests aber streng genommen nicht erfüllt sind, denke ich nicht, dass der Test als repräsentativ gelten kann. Nur kann ich eigentlich nicht auf den Fisher-Test ausweichen, denn dafür müsste ich meine Daten auf eine 2x2-Tabelle komprimieren, was aus Kontext-Gründen keine Option ist.

Meine Frage ist also zweigeteilt: 1. Wie würdet ihr die Aussagekraft meines Chi-Quadrat-Tests beurteilen? Das Ergebnis ergibt Sinn, nur sind die Voraussetzungen eben nicht erfüllt. 2., Gibt es eine weitere Alternative außer dem exakten Test nach Fisher, um die Abhängigkeit der Variablen i und j prüfen zu können?

Danke im Voraus und ich hoffe, es ist verständlich erklärt. LG

Anm.: Im Bild ist die absolute Häufigkeitsverteilung angegeben. Zu erkennen ist die Stichprobenzahl 48 und die vielen Zellenwerte von <5. Beide widersprechen den Voraussetzungen des Chi-Quadrat-Tests.

...zum Beitrag

Beim Chi² geht es nicht um die empirische Zellbesetzung, sondern um die erwartete Zellbesetzung. Die sollte nicht unter 5 liegen.

Den Fisher-Test kann man immer machen, es gibt (je nach Software) auch entsprechende Erweiterungen für Tabellen größer als 2x2.

Grundsätzlich sollte man sich fragen, ob es sinnhaft ist, n=49 Fälle auf 12 Zellen aufzuteilen.

...zur Antwort

Beliebig und nur orientiert am R² die Regressionsgerade auszusuchen finde ich nicht überzeugend. Das sollte doch auch fachlich einen Sinn ergeben. Wäre vorher jemandem auf die Idee gekommen "ein Polynom 5. Gerades ist das, was man theoretisch durchaus erwarten darf"?

Eine logarithmische Beziehung leuchtet ein und ist auch oft passend, wenn Einkommen beteiligt sind. Wenn Du Einkommen logarithmierst, dann betrachtest Du nicht mehr den linearen Zuwachs ("Bei einer Steigerung des BIP/Kopf um 100 ergibt sich..."), der nicht immer passend zu sein scheint, weil man annehmen darf, dass dieselbe absolute Steigerung von 1.000 auf 1.500 etwas anderes bewirkt als von 10.000 auf 10.500. Stattdessen hättest Du den prozentualen Zuwachs ("bei einer Steigerung um 10% ergibt sich..."), was plausibel erscheint.

Ob die Beziehung zwischen einer Rate (also einem Quotienten, der nur Werte zwischen 0 und 1 annehmen kann) und einer anderen Größe typischerweise einen bestimmten Kurvenverlauf oder eine bestimmte Transformation nahelegt, weiß ich dabei nicht, vielleicht kann man sowas recherchieren.

...zur Antwort

Das sind die Ränge der Noten (hier: schlechtere Note = niedrigerer Rang).

4 ist der mittlere der Ränge zwischen 1,2 und 6, also die Mitte der Ränge 3 4 5 (verbundene Werte, da alle "befriedigend").

...zur Antwort

Falls Du nur die Kraftfahrzeugführenden meinst: es gibt rund 40 Millionen Führerscheininhaber und 2,3 Millionen polizeilich erfasste Verkehrsunfälle pro Jahr (dazu kommen natürlich noch die privat geregelten). Wenn man der Einfachheit halber von 2 Beteiligten pro Unfall ausgeht, und die Möglichkeit mehrerer Unfälle derselben Person im selben Jahr ausblendet, wäre die jährliche Wahrscheinlichkeit, KEINEN Unfall erlebt zu haben = (40 minus 4,6) / 40 = rund 88%.

Nehmen wir mal heroisch an, diese Rate ist über die Zeit konstant, und dass jede Person maximal 1 Unfall erlebt. Dann beträgt die kein-Unfall-Wahrscheinlichkeit wie gesagt nach einem Jahr 0,88, nach zwei Jahren 0,88*0,88; nach drei Jahren 0,88*0,88*0,88 usw.

Nach 5 Jahren wäre die Wahrscheinlichkeit, unfallfrei geblieben zu sein, laut dieser Rechnung 53%, nach 10 Jahren 27%, nach 20 Jahren 8%, nach 40 Jahren unter 1%.

Allerdings geht das (siehe oben) von der Voraussetzung aus, dass es jeden nur einmal trifft, aber natürlich gibt es einerseits Leute mit mehreren Unfällen und andererseits viele, die nie einen erleben.

...zur Antwort
Wie repräsentativ sind Umfragen mit nur 1000 befragten?

Bei Hochrechnungen zu Wahlen und anderen Themen suggerieren Pressemeldungen objektive Voraussagen, beispielweise: "die Party XYZ klettert bei Umfragen von 21% auf 26%". Im Kleingedruckten ist dann zu lesen, dass ingesamt 1005 Menschen befragt wurden, hier zum Beispiel "nach einem systematischen Zufallsverfahren ausgewählte Wahlberechtigte ab 18 Jahren in Berlin".

Quelle: https://www.morgenpost.de/berlin/article237558951/Umfrage-CDU-eine-Woche-vor-Wiederholungswahl-klar-vorne.html

26% von 1000 sind gerade mal 260 Leute. Die 12% (!) auf "Sonstige" wären immerhin noch 120 Menschen, mehr als doppelt so viel wie die 50, die dennoch als 5% FDP separat genannt werden. Ab wieviel Prozent zählt eine Partei wie die PARTEI, Volt oder die Klimaliste noch zu den "Sonstigen", ab wann wird sie eigens genannt? Oder zählt da nur das Ergebnis der vorigen Wahl? Methodisch mag das alles begründbar sein, aber mit dem gesunden Menschenverstand betrachtet, erscheint es mir wenig aussagekräftiger als Würfeln oder eine astrologische Vorhersage, wie ich hier mal provokativ in den Raum stelle.

Inwiefern kann ein Umfrageinstitut behaupten, die Stichprobe würde einigermaßen zuverlässig ein kommendes Wahlergebnis vorhersagen? Sicher schienen sich die Meinungsforschungsinstitute ja auch 2016, dass Trump niemals zum Präsident der USA gewählt wurde. Die Geschichte ging aber anders aus.

Ich hoffe auf ernsthafte Antworten von Statistikprofis, bitte gebt mir Vertrauen in Wissenschaft und Journalismus zurück!

...zum Beitrag

So schlecht waren die US-Institute gar nicht. Das Problem ist das Wahlsystem. Trump hat mehrere "Swing States" in knappen Rennen gewonnen und alle dortigen Wahlmännerstimmen bekommen. Ein paar Prozent Ungenauigkeit bei den vorhergesagten Stimmenanteilen hat sich daher in deutlichen Fehlern bei der Vorhersage der Wahlmännerstimmen niedergeschlagen.

Was die Repräsentativität angeht, es wird hier bereits in anderen Antworten darauf hingewiesen, dass allen Problemen zum Trotz die Umfrageinstitute unsere Wahlergebnisse recht genau vorhersagen. Die Hauptingredienzen ihrer Hexenküchen halten sie als Betriebsgeheimnis allerdings weitgehend geheim, nämlich wie die Befragungsergebnisse so gewichtet werden, dass die Resultate einigermaßen der Wählerschaft entsprechen (je nach z.B. Alter und Bildungsgrad, eventuell auch politischer Orientierung sind Leute bei Befragungen über- bzw. unterrepräsentiert; und wie Du schon bemerkst, hängt bei kleinen Parteien das Umfrageergebnis an nur wenigen Befragten). Wie gesagt, bisher klappt das augenscheinlich recht gut.

...zur Antwort
60 - 80 IQ

"Ich will einfach wissen wie viele schlaue Leute es gibt".

Der erweiterte Mittelebereich der Normstichprobe ist bei Verwendung der IQ-Skala 85 bis 115 (MIttelwert +/- einer Standardabweichung) und enthält gut zwei Drittel (68%) der Probanden. Ca. 16% liegen oberhalb des erweiterten mittleren Bereiches, einschließlich derjenigen mit IQ-Wert > 130 (2-3% der Normstichprobe), was z.B. für den Verein "Mensa" Indiz einer Hochbegabung ist.

...zur Antwort

Die Zahlen 1 bis 5 haben eine andere Bedeutung als gewöhnlich. Sie markieren lediglich, ob eine Stufe höher oder niedriger ist als eine andere, sind also keine reellen Zahlen wie sonst. Bei einer Ordinalskala kann man nicht annehmen, dass der Abstand zwischen Stufen 1 und 2 exakt derselbe wie der zwischen Stufen 2 und 3, oder wie der zwischen Stufen 4 und 5. Bei Schulnoten beispielsweise ist es nicht unbedingt anzunehmen, dass der Leistungsunterschied zwischen "(1) sehr gut" und "(2) gut" exakt derselbe Unterschied ist wie zwischen "(4) ausreichend" und "(5) mangelhaft". Die Gleichheit der Abstände ist aber Voraussetzung dafür, einen Mittelwert berechnen zu können.

In der Praxis wird man es allerdings oft finden, dass aus solchen Skalen Mittelwerte berechnet werde, einfach aus Bequemlichkeit oder auch, weil man bereit ist anzunehmen, dass die Abstände nicht exakt, aber Pi mal Daumen gleich sind. Z.B. begegnen wir ja allenthalben Durchschnittsnoten, statt mittleren (medianen) Schulnoten.

...zur Antwort

Der Rechner nimmt an, dass von je 100 Personen mit Deinem Profil deren 50 länger als 74 Jahre leben.

Ob diese Prognose auf stichhaltigen Daten und einem aussagekräftigen statistischen Modell beruht, kann man von hier aus nicht beurteilen.

...zur Antwort

Bei den n=160 gemeinsam aufgezogenen EEZ-Paaren betrug die Korrelation der Extraversionswerte 0,54.

Bei den n=99 getrennt aufgezogenen EEZ-Paaren betrug diese Korrelation 0,30.

Bei den zweieiigen, gemeinsam aufgewachsenen Zwillingen betrug die Korrelation 0,05.

Der Zusammenhang ist in dieser gesamten Stichprobe also enger, wenn es sich um identische Zwillinge handelt.

Angesichts der mäßigen Zuverlässigkeit (Reliabiltät) solcher Skalen und daher einem beachtlichem Fehlerrauschen, wäre r=0,54 eine recht hohe Korrelation. Aber man müsste die Umstände und Durchführungsweise der Studie(n) kennen, um es ordentlich einschätzen zu können.

...zur Antwort