E-Book, Deutsch, 1088 Seiten
Eid / Gollwitzer / Schmitt Statistik und Forschungsmethoden
Originalausgabe 2017
ISBN: 978-3-621-28622-0
Verlag: Julius Beltz GmbH
Format: PDF
Kopierschutz: 1 - PDF Watermark
Lehrbuch. Mit Online-Material
E-Book, Deutsch, 1088 Seiten
ISBN: 978-3-621-28622-0
Verlag: Julius Beltz GmbH
Format: PDF
Kopierschutz: 1 - PDF Watermark
Methodenlehre zählt nicht zu den beliebtesten Fächern in der Psychologie und die Statistik-Prüfung schreckt viele Studierende ab. Im Lehrbuch von Eid, Gollwitzer und Schmitt werden die Verfahren anschaulich und nachvollziehbar dargestellt. Die Formeln werden durch die ausführliche Schritt-für-Schritt-Anleitung der Rechenschritte nachvollziehbar. Beispiele und konkrete Anwendungen ergänzen die Erläuterungen. Dabei sind viele Formeln notwendig, Rechenschritte werden aber immer in einzelnen Schritten erläutert und durch Beispiele und konkrete Anwendungen ergänzt. So leuchtet den Lesern schnell ein, wie Statistik funktioniert - und wozu sie gut ist. Für Bachelor-/Master- und Diplomstudiengänge. Das erfolgreiche Lehrbuch »Statistik und Forschungsmethoden« wurde grundlegend überarbeitet und erweitert. Ergänzt wurden u.a. ein Kapitel zur Multivariaten Varianzanalyse (MANOVA), ein Abschnitt zur Replikation psychologischer Befunde und zur Veränderungsanalyse mit Mehrebenenmodellesowie ein Glossar mit über 200 Fachbegriffen zum Nachschlagen. Online-Materialien für Studierende: Kommentierte Links zu frei verfügbaren Computerprogrammen; Datensätze zum Selbst-Nachrechnen; Lösungen der Übungsaufgaben. Für die Lehre stehen alle Abbildungen und Tabellen des Werks zum Download zur Verfügung. Aus dem Inhalt: Forschungsmethoden • Messtheoretische und deskriptivstatistische Grundlagen • Wahrscheinlichkeitstheorie und inferenzstatistische Grundlagen • Methoden zum Vergleich von Gruppen • Zusammenhangs- und Regressionsanalyse • Modelle mit latenten Variablen • Glossar
Prof. Dr. Michael Eid, Lehrstuhl Methoden und Evaluation, FU Berlin.
Autoren/Hrsg.
Weitere Infos & Material
1;Inhaltsübersicht;6
2;Inhalt;8
3;Danksagung und Vorwort zur 4. Auflage;22
4;Wegweiser;24
5;I Forschungsmethoden;34
5.1;1 Was sind Methoden, und wozu sind sie gut?;36
5.1.1;1.1 Erkenntnismethoden und?Interventionsmethoden;36
5.1.2;1.2 Methoden der Datengewinnung und der Datenauswertung;37
5.1.3;1.3 Warum sind Methodenkenntnisse wichtig?;38
5.2;2 Struktur und Ablauf wissenschaftlicher Untersuchungen;40
5.2.1;2.1 Hypothesen, Ebenen wissenschaftlicher Aussagen und die Überbrückungsproblematik;40
5.2.1.1;2.1.1 Prüfbare und nicht-prüfbare Aussagen;40
5.2.1.2;2.1.2 Wissenschaftliche Hypothesen;41
5.2.1.3;2.1.3 Überbrückungsprobleme;42
5.2.2;2.2 Schritte im Forschungsprozess;43
5.2.2.1;2.2.1 Entstehung eines Erkenntnisinteresses;43
5.2.2.2;2.2.2 Sammlung verfügbaren Wissens;44
5.2.2.3;2.2.3 Entwicklung einer Fragestellung oder Hypothese;44
5.2.2.4;2.2.4 Planung einer Untersuchung;45
5.2.2.5;2.2.5 Durchführung der Untersuchung;47
5.2.2.6;2.2.6 Auswertung der Daten;48
5.2.2.7;2.2.7 Schlussfolgerungen aus der Untersuchung;49
5.2.2.8;2.2.8 Mitteilung der Untersuchung;49
5.3;3 Methoden der Datengewinnung;52
5.3.1;3.1 Kriterien für die Wahl einer Erhebungsmethode;52
5.3.2;3.2 Ordnungsmöglichkeiten;53
5.3.3;3.3 Darstellung einzelner Erhebungsmethoden;56
5.3.3.1;3.3.1 Verhaltensbeobachtung;56
5.3.3.2;3.3.2 Gespräch (?Interview, Exploration, Anamnese?);58
5.3.3.3;3.3.3 Schriftliche Befragung und Fragebogen;60
5.3.3.4;3.3.4 Textanalytische Methoden;63
5.3.3.5;3.3.5 Tests;64
5.3.3.6;3.3.6 Computerbasierte Verfahren;66
5.3.3.7;3.3.7 Apparative Verfahren zur Erfassung psychomotorischer Leistungen;68
5.3.3.8;3.3.8 Psychobiologische Verfahren;69
5.3.3.9;3.3.9 Nicht-reaktiv gewonnene Daten;71
5.3.3.10;3.3.10 Projektive Verfahren;72
5.3.3.11;3.3.11 Reaktionszeitgestützte Verfahren;73
5.3.4;3.4 Multimethodale Erfassung menschlichen Erlebens und Verhaltens;75
5.4;4 Forschungsansätze und -strategien in der Psychologie;82
5.4.1;4.1 Methodologische Grundbegriffe;83
5.4.1.1;4.1.1 Variablen und Konstanten;83
5.4.1.2;4.1.2 Merkmale und Merkmalsträger;83
5.4.1.3;4.1.3 Arten von Variablen in?der?Psychologie;83
5.4.2;4.2 Voraussetzungen für kausale Schlussfolgerungen;85
5.4.3;4.3 Experimenteller Ansatz;86
5.4.3.1;4.3.1 Systematische Störvariablen;87
5.4.3.2;4.3.2 Unsystematische Störvariablen;88
5.4.3.3;4.3.3 Kontrolle von Störvariablen;88
5.4.3.4;4.3.4 Externe Validität;91
5.4.4;4.4 Quasi-experimenteller Ansatz;93
5.4.5;4.5 Korrelativer Ansatz;95
5.4.6;4.6 Sekundär- und Metaanalysen;97
6;II Messtheoretische und deskriptivstatistische Grundlagen;102
6.1;5 Messtheoretische Grundlagen;104
6.1.1;5.1 Skalenniveau;104
6.1.1.1;5.1.1 Skalenniveaus im Überblick;105
6.1.1.2;5.1.2 Skalenniveau und andere Variablenarten;107
6.1.2;5.2 Messen in der Psychologie: Grundideen am Beispiel der Nominalskala;107
6.1.2.1;5.2.1 Relation;107
6.1.2.2;5.2.2 Relativ (?relationales System?);109
6.1.2.3;5.2.3 Homomorphismus;110
6.1.2.4;5.2.4 Grundlegende Fragen der Messtheorie;110
6.1.3;5.3 Definition der Nominalskala;111
6.1.3.1;5.3.1 Das empirische Relativ der?Nominalskala;111
6.1.3.2;5.3.2 Das numerische Relativ der?Nominalskala;112
6.1.3.3;5.3.3 Nominalskala und Nominalskalenmodell;113
6.1.3.4;5.3.4 Zulässige Transformationen und?Eindeutigkeit;113
6.1.3.5;5.3.5 Bedeutsamkeit;114
6.1.3.6;5.3.6 Anwendung von Nominalskalen;114
6.1.3.7;5.3.7 Das Wesentliche zum Nominalskalenmodell;115
6.1.4;5.4 Definition der Ordinalskala;115
6.1.4.1;5.4.1 Das empirische Relativ der?Ordinalskala;115
6.1.4.2;5.4.2 Das numerische Relativ der?Ordinalskala;116
6.1.4.3;5.4.3 Ordinalskala und Ordinalskalenmodell;117
6.1.4.4;5.4.4 Zulässige Transformationen und Eindeutigkeit;119
6.1.4.5;5.4.5 Bedeutsamkeit;120
6.1.4.6;5.4.6 Anwendung von Ordinalskalen;120
6.1.4.7;5.4.7 Das Wesentliche zum Ordinalskalenmodell;121
6.1.5;5.5 Kardinalskalierte oder metrische Variablen;121
6.1.5.1;5.5.1 Definition der Intervallskala;122
6.1.5.2;5.5.2 Definition der Verhältnisskala;123
6.1.5.3;5.5.3 Definition der Absolutskala;124
6.1.6;5.6 Inklusionsregel zulässiger Transformationen;124
6.2;6 Univariate Deskriptivstatistik;128
6.2.1;6.1 Grundbegriffe der Deskriptivstatistik;128
6.2.1.1;6.1.1 Datenmatrix;128
6.2.1.2;6.1.2 Häufigkeitsverteilung;129
6.2.2;6.2 Deskriptivstatistik für nominalskalierte Variablen;134
6.2.2.1;6.2.1 Zentrale Tendenz und Modalwert;134
6.2.2.2;6.2.2 Dispersion und relativer Informationsgehalt;134
6.2.3;6.3 Deskriptivstatistik für ordinalskalierte Variablen;136
6.2.3.1;6.3.1 Häufigkeitsverteilungen;137
6.2.3.2;6.3.2 Zentrale Tendenz und Median;140
6.2.3.3;6.3.3 Dispersion und Interquartilsbereich;1
6.2.4;6.4 Deskriptivstatistik für metrische Variablen;144
6.2.4.1;6.4.1 Häufigkeitsverteilungen;144
6.2.4.2;6.4.2 Kennwerte der zentralen Tendenz;154
6.2.4.3;6.4.3 Quantile;160
6.2.4.4;6.4.4 Streuungskennwerte;161
6.2.4.5;6.4.5 Schiefe und Kurtosis;165
6.2.5;6.5 Standardwerte und z-Transformation;166
6.2.6;6.6 Bivariate und multivariate Deskriptivstatistik;167
7;III Wahrscheinlichkeitstheorie und inferenzstatistische Grundlagen;170
7.1;7 Wahrscheinlichkeitstheorie und?Wahrscheinlichkeitsverteilungen;172
7.1.1;7.1 Wahrscheinlichkeiten für Zufallsereignisse;173
7.1.1.1;7.1.1 Zufallsvorgang, Zufallsexperiment und Ergebnisraum;173
7.1.1.2;7.1.2 Zufallsereignis;1
7.1.1.3;7.1.3 Laplace-Wahrscheinlichkeit und?Laplace-Experiment;175
7.1.1.4;7.1.4 Kombinatorik;176
7.1.1.5;7.1.5 Definition der Wahrscheinlichkeit nach Kolmogorov;178
7.1.1.6;7.1.6 Bedingte Wahrscheinlichkeiten;184
7.1.1.7;7.1.7 Das Bayes-Theorem;186
7.1.2;7.2 Wahrscheinlichkeitsverteilungen für diskrete Zufallsvariablen;192
7.1.2.1;7.2.1 Gleichverteilung;197
7.1.2.2;7.2.2 Bernoulli-Verteilung und?Indikatorvariablen;197
7.1.2.3;7.2.3 Binomialverteilung;198
7.1.2.4;7.2.4 Multinomialverteilung;202
7.1.2.5;7.2.5 Hypergeometrische Verteilung;202
7.1.2.6;7.2.6 Geometrische Verteilung;203
7.1.2.7;7.2.7 Poisson-Verteilung;203
7.1.3;7.3 Wahrscheinlichkeitsverteilungen für stetige Zufallsvariablen;203
7.1.3.1;7.3.1 Gleichverteilung;207
7.1.3.2;7.3.2 Exponentialverteilung;208
7.1.3.3;7.3.3 Normalverteilung;209
7.1.3.4;7.3.4 Weitere stetige Wahrscheinlichkeitsverteilungen;212
7.2;8 Grundlagen der Inferenzstatistik;218
7.2.1;8.1 Der Nullhypothesentest nach Fisher;219
7.2.2;8.2 Binäres Entscheidungskonzept von Neyman und Pearson;222
7.2.3;8.3 Effektgrößen;229
7.2.4;8.4 Statistisches Testen an Stichproben;231
7.2.5;8.5 Parameterschätzung;243
7.2.5.1;8.5.1 Gütekriterien der Parameterschätzung;243
7.2.5.2;8.5.2 Konfidenzintervall;249
7.2.5.3;8.5.3 Schätzung des Standardfehlers bei unbekannter Populationsvarianz;254
7.2.6;8.6 Konfidenzintervalle für Effektgrößen;257
7.2.6.1;8.6.1 Konfidenzintervall für Effektgrößen bei bekannter Populationsstandardabweichung;257
7.2.6.2;8.6.2 Konfidenzintervall für Effektgrößen bei unbekannter Populationsstandardabweichung;260
7.2.7;8.7 Testplanung und Poweranalyse;263
7.2.7.1;8.7.1 Post-hoc-Poweranalyse;264
7.2.7.2;8.7.2 A-priori-Poweranalyse;265
7.2.8;8.8 Das Überprüfen statistischer Hypothesen in der Psychologie ...;266
7.2.8.1;8.8.1 Schritte beim statistischen Testen;267
7.2.8.2;8.8.2 Statistisches Testen in der wissenschaftlichen Praxis;267
7.2.8.3;8.8.3 Empfehlungen der »Task Force on Statistical Inference«;268
7.2.9;8.9 Replikation von Forschungsergebnissen;270
7.2.9.1;8.9.1 Notwendigkeit und Vernachlässigung von Replikationen;270
7.2.9.2;8.9.2 Präferenz für signifikante Befunde;270
7.2.9.3;8.9.3 Subtile Strategien der Fälschung von Forschungsergebnissen;272
7.2.9.4;8.9.4 Neue Entwicklungen;273
7.3;9 Die Welt inferenzstatistischer Verfahren: Überblick, Systematik, Auswahlstrategien;280
7.3.1;9.1 Warum braucht man verschiedene statistische Tests?;280
7.3.2;9.2 Unterscheidungsmerkmale statistischer Tests;281
7.3.2.1;9.2.1 Exakte vs. asymptotische Tests;281
7.3.2.2;9.2.2 Parametrische vs. nonparametrische Verfahren;282
7.3.2.3;9.2.3 Robuste Verfahren;282
7.3.2.4;9.2.4 Resampling-Verfahren;283
7.3.3;9.3 Population, Stichprobe und Repräsentativität: Konsequenzen für inferenzstatistische Verfahren;286
7.3.3.1;9.3.1 Population (?Grundgesamtheit?);286
7.3.3.2;9.3.2 Stichprobe;289
7.3.3.3;9.3.3 Repräsentativität und fehlende Werte;291
7.3.4;9.4 Auswahl eines Verfahrens;293
7.3.4.1;9.4.1 Univariate, bivariate, multivariate Verfahren;293
7.3.4.2;9.4.2 Gerichtete vs. ungerichtete Zusammenhänge;294
7.3.4.3;9.4.3 Manifeste vs. latente Variablen;295
7.3.4.4;9.4.4 Skalenniveau und Variablenart;295
7.3.4.5;9.4.5 Auswahl eines statistischen Verfahrens;296
7.3.5;9.5 Weiterer Aufbau des Buches;297
8;IV Methoden zum Vergleich von Gruppen;300
8.1;10 Einstichproben- und Anpassungstests;302
8.1.1;10.1 Vergleich eines Mittelwerts mit einem fixen Wert;302
8.1.2;10.2 Vergleich eines Medians mit einem fixen Wert;306
8.1.3;10.3 Vergleich einer Stichprobenvarianz mit einer Populationsvarianz;311
8.1.4;10.4 Vergleich einer relativen Häufigkeit mit einer theoretischen Wahrscheinlichkeit (?Binomialtest);316
8.1.5;10.5 Vergleich der Häufigkeitsverteilung eines kategorialen Merkmals ...;318
8.1.6;10.6 Überprüfung von Verteilungsannahmen bei stetigen Merkmalen;323
8.1.6.1;10.6.1 Kolmogorov-Smirnov-Test (?KS-Anpassungstest?);323
8.1.6.2;10.6.2 ?2-Anpassungstest;327
8.2;11 Unterschiede zwischen zwei unabhängigen Stichproben;332
8.2.1;11.1 Vergleich zweier Stichprobenmittelwerte (?Zweistichprobentests?);332
8.2.1.1;11.1.1 Bekannte Populationsvarianzen: Der Zweistichproben-Gauß-Test;332
8.2.1.2;11.1.2 Unbekannte Populationsvarianzen: Der t-Test für unabhängige Stichproben;335
8.2.2;11.2 Vergleich zweier Stichprobenmediane (?Wilcoxon-Rangsummen-Test bzw. U-Test?);344
8.2.3;11.3 Vergleich zweier Stichprobenvarianzen (?Varianzhomogenitätstests?);350
8.2.3.1;11.3.1 F-Test auf Varianzhomogenität;350
8.2.3.2;11.3.2 Levene-Test;353
8.2.4;11.4 Vergleich von Häufigkeitsverteilungen zwischen zwei unabhängigen Stichproben;355
8.2.4.1;11.4.1 Vierfelder-?2-Test;355
8.2.4.2;11.4.2 Fisher-Yates-Test;1
8.2.5;11.5 Der Zweistichproben-?2-Test;1
8.3;12 Unterschiede zwischen zwei abhängigen Stichproben;368
8.3.1;12.1 Vergleich der zentralen Tendenz zweier abhängiger Stichproben;370
8.3.1.1;12.1.1 Parametrischer Test: Der t-Test für abhängige Stichproben;370
8.3.1.2;12.1.2 Nonparametrische Tests;378
8.3.2;12.2 Vergleich von Häufigkeitsverteilungen zwischen zwei abhängigen Stichproben;1
8.3.2.1;12.2.1 Dichotome Merkmale: Der McNemar-Test;1
8.3.2.2;12.2.2 Mehrkategoriale Merkmale: Der Bowker-Test;387
8.4;13 Unterschiede zwischen mehreren unabhängigen Stichproben: Varianzanalyse und verwandte Verfahren;392
8.4.1;13.1 Einfaktorielle Varianzanalyse;393
8.4.1.1;13.1.1 Grundidee der Varianzanalyse;393
8.4.1.2;13.1.2 Messwertzerlegung;394
8.4.1.3;13.1.3 Zerlegung der Bedingungsmittelwerte und Effekte einzelner Bedingungen;395
8.4.1.4;13.1.4 Quadratsummenzerlegung;397
8.4.1.5;13.1.5 Populationsmodell der einfaktoriellen Varianzanalyse;400
8.4.1.6;13.1.6 Schätzung der Populationsparameter;403
8.4.1.7;13.1.7 Überprüfung der Nullhypothese: Der F-Test der einfaktoriellen Varianzanalyse;405
8.4.1.8;13.1.8 Verletzungen der Voraussetzungen;409
8.4.1.9;13.1.9 Effektgrößenmaße und Konfidenzintervall;410
8.4.1.10;13.1.10 Poweranalyse;414
8.4.1.11;13.1.11 Varianzanalyse mit zufälligen Effekten;416
8.4.1.12;13.1.12 Paarvergleiche und Post-hoc-Tests;416
8.4.1.13;13.1.13 Kontrastanalyse;421
8.4.2;13.2 Zweifaktorielle Varianzanalyse;431
8.4.2.1;13.2.1 Grundidee der zweifaktoriellen Varianzanalyse;433
8.4.2.2;13.2.2 Messwertzerlegung;433
8.4.2.3;13.2.3 Quadratsummenzerlegung;439
8.4.2.4;13.2.4 Populationsmodell der zweifaktoriellen Varianzanalyse;442
8.4.2.5;13.2.5 Schätzung der Populationsparameter;444
8.4.2.6;13.2.6 Überprüfung der Nullhypothesen;444
8.4.2.7;13.2.7 Effektgrößenmaße und Konfidenzintervalle;448
8.4.2.8;13.2.8 Post-hoc-Tests und geplante Kontraste;451
8.4.2.9;13.2.9 Ungleiche Stichprobengrößen: Nonorthogonale Varianzanalyse;454
8.4.2.10;13.2.10 Mehrfaktorielle Varianzanalyse;454
8.4.3;13.3 Test auf Gruppenunterschiede für Rangdaten (?Kruskal-Wallis-Test?);455
8.4.4;13.4 Verfahren für kategoriale abhängige Variablen;457
8.5;14 Unterschiede zwischen mehreren abhängigen Stichproben: Varianzanalyse mit Messwiederholung ...;462
8.5.1;14.1 Einfaktorielle Varianzanalyse mit Messwiederholung;463
8.5.1.1;14.1.1 Messwertzerlegung;465
8.5.1.2;14.1.2 Quadratsummenzerlegung;465
8.5.1.3;14.1.3 Effektgrößenmaße;468
8.5.1.4;14.1.4 Populationsmodell der einfaktoriellen Varianzanalyse mit Messwiederholung;470
8.5.1.5;14.1.5 Schätzung der Populationsparameter;472
8.5.1.6;14.1.6 Inferenzstatistik der einfaktoriellen Varianzanalyse mit Messwiederholung;473
8.5.1.7;14.1.7 Sphärizität und Compound Symmetry;475
8.5.1.8;14.1.8 Effektgrößenmaße und Konfidenzintervalle;478
8.5.1.9;14.1.9 A-priori-Poweranalyse: Planung des optimalen Stichprobenumfangs;480
8.5.1.10;14.1.10 Kontrastanalyse;482
8.5.2;14.2 Zweifaktorielle Varianzanalyse mit Messwiederholung;485
8.5.2.1;14.2.1 Zweifaktorielle Varianzanalyse mit Messwiederholung auf beiden Faktoren;485
8.5.2.2;14.2.2 Zweifaktorielle Varianzanalyse mit Messwiederholung auf einem Faktor;493
8.5.3;14.3 Nichtparametrischer Test für Medianunterschiede zwischen abhängigen Stichproben ...;501
8.5.4;14.4 Verfahren für kategoriale abhängige Variablen;503
8.6;15 Unterschiede zwischen mehreren Stichproben auf mehreren abhängigen Variablen ...;506
8.6.1;15.1 Multivariate vs. univariate Varianzanalysen;506
8.6.2;15.2 Zielsetzungen und Grundideen der multivariaten Varianzanalyse;1
8.6.3;15.3 Einfaktorielle multivariate Varianzanalyse;508
8.6.3.1;15.3.1 Messwertzerlegung;508
8.6.3.2;15.3.2 Quadratsummenzerlegung;509
8.6.3.3;15.3.3 Kreuzproduktsummenzerlegung;509
8.6.3.4;15.3.4 Zusammenfassende Darstellung der Quadrat- und Kreuzproduktsummen;510
8.6.3.5;15.3.5 Diskriminanzfunktion;511
8.6.3.6;15.3.6 Effektgröße;515
8.6.3.7;15.3.7 Populationsmodell der multivariaten Varianzanalyse;1
8.6.3.8;15.3.8 Überprüfung der Nullhypothese;517
8.6.3.9;15.3.9 Effektgrößen und Konfidenzintervalle;1
8.6.3.10;15.3.10 Poweranalyse;523
8.6.3.11;15.3.11 Post-hoc-Tests und Kontrastanalyse;524
8.6.4;15.4 Spezialfälle und Erweiterungen;525
9;V Zusammenhangs- und Regressionsanalyse;528
9.1;16 Zusammenhänge zwischen zwei Variablen: Korrelations- und Assoziationsmaße;530
9.1.1;16.1 Erläuterung des Korrelationsprinzips an drei Beispielen;530
9.1.2;16.2 Tabellarische und grafische Darstellung von bivariaten Messwertreihen;532
9.1.3;16.3 Korrelationskoeffizienten;536
9.1.3.1;16.3.1 Zwei metrische Variablen;536
9.1.3.2;16.3.2 Zwei ordinalskalierte Variablen;544
9.1.3.3;16.3.3 Zwei dichotome nominalskalierte Variablen;554
9.1.3.4;16.3.4 Zwei polytome nominalskalierte Variablen;562
9.1.3.5;16.3.5 Eine dichotome Variable und eine metrische Variable;566
9.1.3.6;16.3.6 Eine dichotome nominalskalierte Variable und eine ordinalskalierte Variable;567
9.1.3.7;16.3.7 Weitere Skalenkombinationen;569
9.1.3.8;16.3.8 Wahl eines Korrelationskoeffizienten;570
9.1.4;16.4 Inferenzstatistik zu bivariaten Zusammenhangsmaßen;570
9.1.4.1;16.4.1 Zwei metrische Variablen;571
9.1.4.2;16.4.2 Assoziationsmaße für ordinale Variablen;580
9.1.4.3;16.4.3 Assoziationsmaße für dichotome Variablen;583
9.1.4.4;16.4.4 Assoziationsmaße für nominalskalierte Variablen;585
9.1.4.5;16.4.5 Andere Assoziationsmaße;586
9.2;17 Abhängigkeiten zwischen zwei Variablen: Einfache lineare Regression;590
9.2.1;17.1 Kleinste-Quadrate-Kriterium;592
9.2.2;17.2 Regressionsgleichung;596
9.2.3;17.3 Regressionsresiduum;597
9.2.4;17.4 Quadratsummenzerlegung und Varianzzerlegung;598
9.2.5;17.5 Determinationskoeffizient und Indeterminationskoeffizient;599
9.2.6;17.6 Negatives Regressionsgewicht und Regressionsrichtung;600
9.2.6.1;17.6.1 Negatives Regressionsgewicht;600
9.2.6.2;17.6.2 Regressionsrichtung;601
9.2.7;17.7 Regression standardisierter Werte;602
9.2.8;17.8 Bedeutung der linearen Regression;603
9.2.9;17.9 Inferenzstatistik der einfachen linearen Regression;603
9.2.9.1;17.9.1 Populationsmodell der einfachen linearen Regression;604
9.2.9.2;17.9.2 Inferenzstatistische Schätzung und Testung;605
9.2.9.3;17.9.3 Schätzung der Residualvarianz und des Standardschätzfehlers;607
9.2.9.4;17.9.4 Schätzung und Überprüfung des Regressionsgewichts ?1;607
9.2.9.5;17.9.5 Schätzung und Überprüfung des Achsenabschnitts ?0;608
9.2.9.6;17.9.6 Schätzung der bedingten Erwartungswerte;609
9.2.9.7;17.9.7 Vorhersage individueller Kriteriumswerte;610
9.2.9.8;17.9.8 Schätzung und Überprüfung des Determinationskoeffizienten;610
9.3;18 Partialkorrelation und Semipartialkorrelation;616
9.3.1;18.1 Aufgaben und Ziele der Partial- und Semipartialkorrelation;616
9.3.2;18.2 Partialkorrelation;621
9.3.3;18.3 Semipartialkorrelation;625
9.3.4;18.4 Inferenzstatistische Absicherung der Partial- und der Semipartialkorrelation;627
9.4;19 Multiple Regressionsanalyse;630
9.4.1;19.1 Zielsetzungen der multiplen Regressionsanalyse;630
9.4.1.1;19.1.1 Berücksichtigung von Redundanzen und Kontrolle von Störvariablen;630
9.4.1.2;19.1.2 Prognose und Erklärung;630
9.4.1.3;19.1.3 Analyse komplexer Zusammenhänge;631
9.4.2;19.2 Notation;632
9.4.3;19.3 Lineare Regression für zwei metrische unabhängige Variablen;633
9.4.3.1;19.3.1 Multiple Regression als kompensatorisches Modell;633
9.4.3.2;19.3.2 Grafische Darstellung;634
9.4.3.3;19.3.3 Bestimmung der Regressionskoeffizienten;634
9.4.4;19.4 Bedeutung der Regressionsgewichte;637
9.4.4.1;19.4.1 Multiple Regressionsgewichte als Regressionsgewichte bedingter einfacher Regressionen;637
9.4.4.2;19.4.2 Multiple Regressionsgewichte als Regressionsgewichte von Regressionsresiduen;638
9.4.4.3;19.4.3 Unstandardisierte vs. standardisierte Regressionsgewichte;640
9.4.5;19.5 Lineare Regression für mehrere metrische unabhängige Variablen;641
9.4.6;19.6 Multiple Korrelation und Determinationskoeffizient;642
9.4.7;19.7 Inferenzstatistik zur multiplen Regressionsanalyse;645
9.4.7.1;19.7.1 Populationsmodell der multiplen Regression;645
9.4.7.2;19.7.2 Inferenzstatistische Schätzung und Testung;646
9.4.7.3;19.7.3 Schätzung der Residualvarianz und des Standardschätzfehlers;647
9.4.7.4;19.7.4 Schätzung, Signifikanztest und Konfidenzintervalle für die multiple Korrelation ...;647
9.4.7.5;19.7.5 Schätzung, Signifikanztest und Konfidenzintervalle ...;1
9.4.7.6;19.7.6 Schätzung, Signifikanztest und Konfidenzintervalle für einen Satz unabhängiger Variablen;653
9.4.7.7;19.7.7 Verfahren zur Auswahl unabhängiger Variablen;656
9.4.7.8;19.7.8 Schätzung und Überprüfung des Achsenabschnitts ?0;1
9.4.7.9;19.7.9 Schätzung der bedingten Erwartungswerte und individuell prognostizierter Werte;1
9.4.8;19.8 Suppressorvariable;660
9.4.9;19.9 Moderierte Regressionsanalyse;664
9.4.9.1;19.9.1 Moderierte Regressionsanalyse: Zwei unabhängige Variablen;665
9.4.9.2;19.9.2 Moderierte Regression mit zentrierten Variablen;667
9.4.9.3;19.9.3 Inferenzstatistische Absicherung eines Moderatoreffekts;671
9.4.10;19.10 Analyse nicht-linearer Zusammenhänge;674
9.4.11;19.11 Analyse kategorialer unabhängiger Variablen;677
9.4.11.1;19.11.1 Dummy-Codierung;677
9.4.11.2;19.11.2 Effektcodierung;680
9.4.11.3;19.11.3 Vergleich von Dummy- und Effektcodierung;683
9.4.11.4;19.11.4 Inferenzstatistische Absicherung der Regressionsparameter;684
9.4.11.5;19.11.5 Analyse mehrerer kategorialer unabhängiger Variablen;685
9.4.11.6;19.11.6 Ordinale unabhängige Variablen;691
9.4.12;19.12 Gemeinsame Analyse kategorialer und metrischer unabhängiger Variablen;691
9.4.12.1;19.12.1 Additive Verknüpfung kategorialer und kontinuierlicher Variablen: Kovarianzanalyse;691
9.4.12.2;19.12.2 Kovarianzanalyse in quasi-experimentellen Designs;695
9.4.12.3;19.12.3 Interaktionen zwischen kategorialen und kontinuierlichen Variablen;703
9.4.13;19.13 Regressionsdiagnostik;705
9.4.13.1;19.13.1 Korrekte Spezifikation des Modells;705
9.4.13.2;19.13.2 Messfehlerfreiheit der unabhängigen Variablen;707
9.4.13.3;19.13.3 Ausreißer und einflussreiche Datenpunkte;708
9.4.13.4;19.13.4 Multikollinearität;713
9.4.13.5;19.13.5 Homoskedastizität;715
9.4.13.6;19.13.6 Unabhängigkeit der Residuen;716
9.4.13.7;19.13.7 Normalverteilung der Residuen;717
9.4.13.8;19.13.8 Multivariate Normalverteilung der Variablen;721
9.4.13.9;19.13.9 Verletzung der Annahmen und Konsequenzen;721
9.5;20 Hierarchische lineare Modelle (?Mehrebenenanalyse?);728
9.5.1;20.1 Hierarchische Datenstrukturen;728
9.5.1.1;20.1.1 Risiko falscher Schlüsse bei der Interpretation von Zusammenhängen;729
9.5.1.2;20.1.2 Verletzung der Unabhängigkeitsannahme;731
9.5.1.3;20.1.3 Mehrebenenmodelle: Ein Überblick;733
9.5.2;20.2 Modelle der Mehrebenenanalyse;733
9.5.2.1;20.2.1 Das Intercept-Only-Modell;733
9.5.2.2;20.2.2 Das Random-Intercept-Modell;1
9.5.2.3;20.2.3 Das Random-Coefficients-Modell;736
9.5.2.4;20.2.4 Modelle mit festen Level-1- und Level-2-Effekten;739
9.5.2.5;20.2.5 Analyse von Kontexteffekten;740
9.5.2.6;20.2.6 Modelle mit Cross-Level-Interaktionseffekt;745
9.5.3;20.3 Parameterschätzung, inferenzstatistische Absicherung und Varianzaufklärung;746
9.5.3.1;20.3.1 Schätzung der Modellparameter;746
9.5.3.2;20.3.2 Inferenzstatistische Absicherung der Modellparameter;747
9.5.3.3;20.3.3 Passung des Modells auf die Daten;749
9.5.3.4;20.3.4 Wie viel Varianz klärt ein Prädiktor auf?;1
9.5.3.5;20.3.5 Poweranalyse und Stichprobenumfangsplanung;1
9.5.4;20.4 Modelle der Veränderungsmessung;757
9.5.4.1;20.4.1 Trendmodelle;758
9.5.4.2;20.4.2 Kontrastanalysen;763
9.5.5;20.5 Weitere Modelle;767
9.6;21 Log-lineare Modelle und Logit-Modelle;770
9.6.1;21.1 Zielsetzungen der log-linearen Analyse;770
9.6.1.1;21.1.1 Das Simpson-Paradox;770
9.6.1.2;21.1.2 Ein einführendes Beispiel: Sonnenschutzverhalten;772
9.6.2;21.2 Log-lineare Modelle für eine Analyse einer 2?×?2-Kontingenztabelle;773
9.6.2.1;21.2.1 Das multiplikative Modell;773
9.6.2.2;21.2.2 Das additive Modell;775
9.6.2.3;21.2.3 Das Modell mit einer Referenzkategorie;778
9.6.2.4;21.2.4 Vergleich der verschiedenen Formulierungen des Modells;779
9.6.2.5;21.2.5 Allgemeiner Fall einer I?×?J-Kontingenztabelle;779
9.6.3;21.3 Inferenzstatistische Absicherung;780
9.6.3.1;21.3.1 Populationsmodelle für eine 2?×?2-Kontingenztabelle;780
9.6.3.2;21.3.2 Parameterschätzung und Hypothesentestung;781
9.6.3.3;21.3.3 Standardfehler und Konfidenzintervalle;782
9.6.3.4;21.3.4 Signifikanztests;783
9.6.4;21.4 Überprüfung von Modellen;784
9.6.4.1;21.4.1 Statistische Überprüfung von Modellannahmen;784
9.6.4.2;21.4.2 Unabhängigkeitsmodell und saturiertes Modell;786
9.6.4.3;21.4.3 Hierarchische und nicht-hierarchische log-lineare Modelle;787
9.6.4.4;21.4.4 Modellvergleiche;787
9.6.4.5;21.4.5 Spezifikation von Modellen beim produkt-multinomialen Erhebungsschema;788
9.6.4.6;21.4.6 Effektgröße und Konfidenzintervall;789
9.6.4.7;21.4.7 Bestimmung der optimalen Stichprobengröße;789
9.6.5;21.5 Log-lineare Modelle für eine 2?×?2?×?2-Kontingenztabelle;791
9.6.5.1;21.5.1 Multiplikatives Modell;791
9.6.5.2;21.5.2 Additives Modell;792
9.6.5.3;21.5.3 Parameterschätzung und Modelltestung;792
9.6.5.4;21.5.4 Das log-lineare Modell für eine I?×?J?×?K-Kontingenztabelle;795
9.6.6;21.6 Logit-Modell;795
9.7;22 Logistische Regressionsanalyse;800
9.7.1;22.1 Grundidee der logistischen Regressionsanalyse für dichotome abhängige Variablen;800
9.7.1.1;22.1.1 Einfache logistische Regressionsanalyse;801
9.7.1.2;22.1.2 Multiple logistische Regression;810
9.7.2;22.2 Parameterschätzung;812
9.7.3;22.3 Hypothesenprüfung;813
9.7.3.1;22.3.1 Hypothesentests für einen einzelnen Parameter;813
9.7.3.2;22.3.2 Hypothesentests für ein Set von unabhängigen Variablen;816
9.7.3.3;22.3.3 Hypothesentests in Bezug auf alle unabhängigen Variablen;817
9.7.3.4;22.3.4 Zerlegung der Likelihood-Ratio-Teststatistik;817
9.7.4;22.4 Effektgrößen;818
9.7.5;22.5 Klassifikation;820
9.7.6;22.6 Bestimmung der optimalen Stichprobengröße;821
9.7.7;22.7 Voraussetzungen der Maximum-Likelihood-Schätzung und Hypothesentestung;823
9.7.8;22.8 Regressionsdiagnostik;824
9.7.8.1;22.8.1 Korrekte Spezifikation des Modells und Modellanpassungsgüte;824
9.7.8.2;22.8.2 Messfehlerbehaftetheit der unabhängigen Variablen und Multikollinearität;827
9.7.8.3;22.8.3 Identifikation von Ausreißern und einflussreichen Datenpunkten;827
9.7.8.4;22.8.4 Nullzellenproblem;828
9.7.9;22.9 Logistisches Regressionsmodell für mehrkategoriale nominalskalierte abhängige Variablen;829
9.7.10;22.10 Logistisches Regressionsmodell für ordinalskalierte abhängige Variablen;833
10;VI Modelle mit latenten Variablen;842
10.1;23 Messfehlertheorie und Klassische Testtheorie;844
10.1.1;23.1 Theoretische Konzepte der Klassischen Testtheorie;844
10.1.1.1;23.1.1 Theoretische Konzeption des Messfehlers;845
10.1.1.2;23.1.2 Theoretische Konzeption des wahren Wertes;847
10.1.1.3;23.1.3 Eigenschaften der Messfehler- und der True-Score-Variablen;849
10.1.1.4;23.1.4 Theoretische Konzeption der Reliabilität;850
10.1.2;23.2 Messmodelle;852
10.1.2.1;23.2.1 Modell essenziell ?-äquivalenter Variablen;852
10.1.2.2;23.2.2 Modell essenziell ?-paralleler Variablen;860
10.1.2.3;23.2.3 Modell ?-äquivalenter Variablen;861
10.1.2.4;23.2.4 Modell ?-paralleler Variablen;861
10.1.2.5;23.2.5 Zwischenfazit;862
10.1.2.6;23.2.6 Modell ?-kongenerischer Variablen;864
10.1.3;23.3 Vergleich der verschiedenen Testmodelle;870
10.1.4;23.4 Funktion von Testmodellen für die Psychodiagnostik;871
10.1.4.1;23.4.1 Itemselektion und Testkonstruktion;871
10.1.4.2;23.4.2 Messung latenter Merkmalsausprägungen;873
10.2;24 Mehrdimensionale Messmodelle und konfirmatorische Faktorenanalyse;878
10.2.1;24.1 Ein einführendes Beispiel: Die Konvergenz von Selbst- und Fremdbericht;878
10.2.1.1;24.1.1 Ein zweidimensionales Modell;880
10.2.1.2;24.1.2 Ein alternatives Modell: Modell mit Methodenfaktor;881
10.2.1.3;24.1.3 Verschiedene Darstellungsformen von Multidimensionalität;883
10.2.2;24.2 True-Score-Modelle vs. Faktormodelle;885
10.2.2.1;24.2.1 Uniqueness und Kommunalität;885
10.2.2.2;24.2.2 Faktoren und Ladungen;886
10.2.2.3;24.2.3 Konfirmatorische vs. exploratorische Faktorenanalyse;886
10.2.3;24.3 Grundidee der Faktorenanalyse;886
10.2.4;24.4 Allgemeine Fragen bei der konfirmatorischen Faktorenanalyse;888
10.2.4.1;24.4.1 Modellspezifikation: Warum Theorie so wichtig ist!;888
10.2.4.2;24.4.2 Identifizierbarkeit: Können alle Parameter eindeutig bestimmt werden?;890
10.2.4.3;24.4.3 Grundideen der Parameterschätzung und der Modelltestung;896
10.2.5;24.5 Schätzmethoden;899
10.2.5.1;24.5.1 Grundprinzip der Schätzmethoden;899
10.2.5.2;24.5.2 Maximum-Likelihood-Verfahren;900
10.2.5.3;24.5.3 Asymptotisch verteilungsfreie Verfahren;901
10.2.5.4;24.5.4 Andere Schätzmethoden;901
10.2.5.5;24.5.5 Wahl einer Schätzmethode;903
10.2.6;24.6 Beurteilung der Modellanpassungsgüte;904
10.2.6.1;24.6.1 Detailmaße der Anpassungsgüte: Residuen;904
10.2.6.2;24.6.2 Gesamtanpassung des Modells;1
10.2.6.3;24.6.3 Modellvergleiche;1
10.2.6.4;24.6.4 Modellmodifikationen;910
10.2.6.5;24.6.5 Erwartungswertstrukturen;910
10.2.7;24.7 Bestimmung der optimalen Stichprobengröße;911
10.2.7.1;24.7.1 A-priori-Poweranalyse zur Bestimmung der Stichprobengröße;911
10.2.7.2;24.7.2 Monte-Carlo-Simulationsstudie zur Bestimmung der Stichprobengröße;911
10.2.8;24.8 Faktorenanalyse für ordinale Variablen;912
10.2.8.1;24.8.1 Annahme einer itemspezifischen kontinuierlichen Variablen;913
10.2.8.2;24.8.2 Faktorenanalytisches Modell;914
10.2.9;24.9 Weitere Messmodelle mit latenten Variablen;916
10.3;25 Exploratorische Faktorenanalyse und Hauptkomponentenanalyse;920
10.3.1;25.1 Grundprinzipien der exploratorischen Faktorenanalyse;921
10.3.1.1;25.1.1 Grundgleichung der Faktorenanalyse;921
10.3.1.2;25.1.2 Schritte bei der exploratorischen Faktorenanalyse;921
10.3.2;25.2 Die Maximum-Likelihood-Faktorenanalyse;922
10.3.2.1;25.2.1 Annahmen der Maximum-Likelihood-Faktorenanalyse;922
10.3.2.2;25.2.2 Identifizierbarkeit und Anfangslösung;923
10.3.2.3;25.2.3 Bestimmung der Anzahl der Faktoren und Modellgültigkeit;924
10.3.2.4;25.2.4 Rotation;928
10.3.2.5;25.2.5 Interpretation der Ergebnisse;932
10.3.2.6;25.2.6 Bestimmung von Faktorwerten;933
10.3.3;25.3 Hauptachsenanalyse und Hauptkomponentenanalyse;933
10.3.3.1;25.3.1 Grundidee der Hauptkomponentenanalyse;934
10.3.3.2;25.3.2 Kriterien zur Bestimmung der relevanten Hauptkomponenten;938
10.3.3.3;25.3.3 Rotation und Ergebnisdarstellung;940
10.3.3.4;25.3.4 Die Hauptachsenanalyse;942
10.3.4;25.4 Vergleich der Ansätze und praktische Empfehlungen;943
10.3.5;25.5 Faktorenanalyse für dichotome und ordinale Variablen;946
10.3.6;25.6 Einzelfall-Faktorenanalyse und dynamische Faktorenanalyse;947
10.4;26 Pfadanalyse und lineare Strukturgleichungsmodelle;952
10.4.1;26.1 Pfadanalyse;953
10.4.1.1;26.1.1 Das pfadanalytische Modell als ein System von Regressionsmodellen;954
10.4.1.2;26.1.2 Parameterschätzung und Modellüberprüfung;956
10.4.1.3;26.1.3 Hypothesenüberprüfung;961
10.4.2;26.2 Lineare Strukturgleichungsmodelle;966
10.4.2.1;26.2.1 Messmodell und Strukturmodell;967
10.4.2.2;26.2.2 Parameterschätzung und Hypothesenüberprüfung;969
10.4.2.3;26.2.3 Latente autoregressive Modelle;969
10.4.2.4;26.2.4 Latent-State-Trait-Modell;973
10.4.2.5;26.2.5 Spezielle lineare Strukturgleichungsmodelle;976
10.4.2.6;26.2.6 Sind Strukturgleichungsmodelle Kausalmodelle?;976
11;Anhang;980
12;Glossar;982
13;Literaturverzeichnis;1000
14;Hinweise zu den Online-Materialien;1018
15;Anhang A: Tabellen;1020
15.1;1 Binominalverteilung;1020
15.2;2 Standardnormalverteilung;1032
15.3;3 Zentrale t-Verteilung;1033
15.4;4 Wilcoxon-Vorzeichen-Rangtest;1
15.5;5 Zentrale ?2-Verteilung;1035
15.6;6 Kritische Werte für den Kolmogorov-Smirnov-Test und den Lilliefors-Test;1036
15.7;7 Wilcoxon-Rangsummen-Test;1039
15.8;8 Zentrale F-Verteilung;1042
15.9;9 Kritische Werte für die Differenz nK???nD;1049
16;Anhang B: Matrixalgebra;1052
16.1;1 Matrix;1052
16.2;2 Vektor;1052
16.3;3 Grundlegende Rechenoperationen mit Matrizen;1053
16.4;4 Spezielle Matrizen;1056
16.5;5 Demonstration der Berechnung einiger statistischer Kennwerte mittels Matrixalgebra;1059
17;Sachwortverzeichnis;1064
18;Leere Seite;1