Hypothesenprüfung (Enzyklopädie der Psychologie : Themenbereich B : Ser. 1 ; Bd. 5)

von: Jürgen Bredenkamp, Hubert Feger

Hogrefe Verlag Göttingen, 1983

ISBN: 9783840905155 , 650 Seiten

Format: PDF, OL

Kopierschutz: DRM

Windows PC,Mac OSX für alle DRM-fähigen eReader Apple iPad, Android Tablet PC's Online-Lesen für: Windows PC,Mac OSX,Linux

Preis: 88,99 EUR

  • Interne Modelle nach Solvency II - Schritt für Schritt zum internen Modell in der Schadenversicherung
    Produktmanagement in Versicherungsunternehmen
    Preispolitik in der Kompositversicherung
    Einführung in die Lebensversicherungsmathematik
    Die private und betriebliche Altersversorgung - Riester, Rürup, Entgeltumwandlung in der Beratungspraxis
    Neues Versicherungsvermittlerrecht von A-Z - Kompakte Informationen für den Praktiker
  • Insurance & Innovation 2011 - Ideen und Erfolgskonzepte von Experten aus der Praxis
    Versicherungsrecht für Ausbildung und Verkauf

     

     

     

     

     

     

     

 

Mehr zum Inhalt

Hypothesenprüfung (Enzyklopädie der Psychologie : Themenbereich B : Ser. 1 ; Bd. 5)


 

Autorenverzeichnis

6

Inhaltsverzeichnis

8

1. Kapitel Übersicht

18

1. Zur Prüfung sog. Kausalhypothesen

18

2. Zum Problem der Validität des statistischen Schlusses

31

3. Dynamische Modelle

35

Literatur

39

2. Kapitel Planung und Auswertung von Experimenten

41

1. Einleitung

43

1.1 Einige Begriffsbestimmungen

43

1.2 Das Experiment als Methode zur Prüfung von Kausalaussagen

44

1.3 Die Validität eines Experiments

46

2. Variablenvalidität ( VV)

50

2.1 Mangelnde Eindeutigkeit der Zuordnung als Störfaktor (VV)

51

2.2 Mangelnde konzeptuelle Replikation als Störfaktor (VV)

52

2.4 Zu geringes Skalenniveau als Störfaktor (VV)

55

2.5 Konfundierung von theoretischen Begriffen als Störfaktor ( VV)

59

Zusammenfassung

63

3. Interne Validität

63

3.1 Variation personaler und situationaler Merkmale als Störfaktoren ( IV)

64

3.1.1 Variation situationaler Merkmale

64

3.1.2 Variation personaler Merkmale

65

3.2 Störfaktoren (IV) bei Meßwiederholung

65

3.3 Zur Kontrolle der Störfaktoren (IV) bei interindividueller Bedingungsvariation

67

3.3.1 Konstanthaltung und Elimination

68

3.3.2 Randomisierung

69

3.3.3 Einführung eines Kontrollfaktors

72

3.4 Zur Kontrolle der Störfaktoren (IV) bei intraindividueller Bedingungsvariation ( Meßwiederholung)

73

3.5 Versuchspläne mit interindividueller Bedingungsvariation und Vortest

75

3.6 Zur Definition des Experiments und anderer Untersuchungsmethoden

76

4. Populations- und Situationsvalidität

77

4.1 Populationsvalidität (PV)

77

4.2 Situationsvalidität (SV)

80

4.3 Zur Kontrolle der Störfaktoren (PV und SV)

81

5. Beziehungen zwischen den Validitätsarten

82

6. Statistische Validität

84

7. Eine Strategie zur Entscheidung zwischen statistischen Hypothesen: Der Signifikanztest

87

7.1 Überblick über verschiedene alternative Strategien

87

7.2 Kurzer Abriß einiger Charakteristika von Signifikanztests

90

7.3 Mögliche Fehler beim statistischen Testen

93

7.3.1 Fehler unter Gültigkeit der Null- Hypothese ( Fehler 1. Art)

93

7.3.2 Fehler unter Gültigkeit der Alternativhypothese ( Fehler 2. Art)

95

7.4 Die Determinanten eines Signifikanztests

98

7.4.1 Forschungs- und Publikationspraxis 1: Signifikanzniveau und p-Werte

100

7.4.2 Forschungs- und Publikationspraxis II: Experimentelle Effekte und Teststärke

102

7.4.3 Forschungs- und Publikationspraxis III: Entwicklung einer vorläufigen Zielvorstellung

103

7.5 Arten statistischer Hypothesen und ihre Prüfung

105

7.5.1 Gerichtete und ungerichtete Hypothesen und ihre Prüfung

105

7.5.2 Parametrische und nicht- parametrische Hypothesen und ihre Prüfung

106

7.5.3 Zur Wahl zwischen parametrischen und nicht- parametrischen Verfahren

108

7.5.4 Zur Frage der relativen Effizienz

112

7.6 Zusammenfassung

113

8. Störfaktoren der statistischen Validität und ihre Ausschaltung

114

8.1 Falsche statistische Hypothesen und Verfahren

114

8.1.1 Die wichtigsten Beziehungen zwischen

114

8.1.2 Falsche Umsetzung der wissenschaftlichen in eine statistische Hypothese als Störfaktor ( StatV)

118

8.1.3 Falsche Auswahl der zu prüfenden statistischen Hypothese

119

8.1.4 Falsche statistische Analyse

119

8.2 Verletzung der Annahmen bei statistischen Tests als Störfaktor ( StatV)

120

8.2.1 Das Allgemeine

120

8.2.2 Additivität

123

8.2.3 Normalverteilung der Modellresiduen ( Fehler)

125

8.2.4 Homogenität der Fehlervarianzen in den Populationen

128

8.2.5 Unabhängigkeit der Fehlerterme

132

8.2.6 Problem der Zufallsstichproben

136

8.3 Kumulierung der Wahrscheinlichkeiten für Fehler erster und zweiter Art

137

8.3.1 Multiple Mittelwertsvergleiche

140

8.3.2 Monotone Trendhypothesen

143

8.4 Mangelnde Präzision

144

8.4.1 Parallelisierung als Kontrolltechnik ( StatV)

145

8.4.2 Kovarianzanalyse als Kontrolltechnik ( StatV)

147

8.4.3 Homogenisierung als Kontrolltechnik ( StatV)

148

8.4.4 Konstanthaltung und Elimination als Kontrolltechniken ( StatV)

148

8.4.5 Eingenistete Faktoren als Kontrolltechnik ( StatV)

149

8.4.6 Wiederholte Messungen als Kontrolltechnik (StatV)

150

8.4.7 Zur Beziehung zwischen der Präzision und den anderen Aspekten der experimentellen Validität

160

8.5 Falsche Analyse und Interpretation statistischer Interaktionen

161

8.6 Zusammenfassung

172

9. Maße der statistischen Assoziation: Die experimentellen Effekte

174

9.1 Einleitung

174

9.2 Experimentelle Effekte und praktische Bedeutsamkeit

175

9.3 Experimentelle Effekte bei parametrischen Hypothesen

175

9.3.1 Maße der Nicht-Zentralität

176

9.3.2 Korrelationskoeffizienten und - quotienten

177

9.4 Experimentelle Effekte bei nicht-parametrischen Hypothesen

183

9.4.1 Experimentelle Effekte bei ordinalen Daten

183

9.4.2 Experimentelle Effekte bei nominalen Daten

184

9.5 Zur Kritik der Maße der statistischen Assoziation

185

9.6 Zusammenfassung

186

10. Bestimmung des Stichprobenumfanges

187

10.1 Überblick

187

10.2 Allgemeine Prinzipien der Stichprobengrößenbestimmung

189

10.3 Bestimmung des Stichprobenumfanges bei univariaten Varianz- und Regressionsanalysen

191

10.3.1 Bei Kenntnis

191

10.3.2 Bei prä- experimenteller Schätzung der Varianz 0,’

192

10.3.3 Ohne Kenntnis der Populationsvarianz 0,’

194

10.4 Hinweise zur Stichprobenumfassungsbestimmung bei weiteren Gruppen von parametrischen Testverfahren

197

10.4.1 Varianzanalyse mit zufälligen und gemischten Effekten

197

10.4.2 Nicht- orthogonale Varianzanalysen

198

10.4.3 Multivariate Varianz- und Regressionsanalysen

199

10.5 Hinweise zur Stichprobenumfangsbestimmung bei nicht- parametrischen Verfahren

200

10.5.1 Nominale Daten

200

10.5.2 Ordinale Daten

200

10.6 Abschließende Bemerkungen zur Stichprobengrößenbestimmung

201

11. Eine Strategie zur Entscheidung über wissenschaftliche Hypothesen mittels Signifikanztests

202

11.1 Stadium der Planung des Experiments

202

11.1.1 Überblick

202

11.1.2 Zur Festlegung der beiden Fehlerwahrscheinlichkeiten

203

11.1.3 Zur Festlegung des experimentellen Mindesteffektes EEM

205

11.1.4 Zur Frage der Willkür bei der Planung von Experimenten

205

11.2 Stadium der Entscheidung über die Kausalhypothese

205

3. Kapitel Messung, Analyse und Prognose von Veränderungen

256

1. Einleitung

256

2. Univariate Zeitreihenanalyse

260

2.1 Integrierte Prozesse der Ordnung d: ARIMA(0,d,0)-Modelle

263

2.2 Autoregressive Prozesse der Ordnung p: ARIMA(p,0,0) u. ARIMA(p,d,0)-Modelle

265

2.3 Moving-average Prozesse der Ordnung q: ARIMA(0,0,q)-Modelle

268

2.4 Das allgemeine ARIMA (p,d,q)-Modell

270

2.5 Autokorrelations- und partielle Autokorrelationsfunktion

273

2.6 Saisonale Einflüsse

280

2.7 Modellidentifikation

281

2.8 Multiple Zeitreihenanalyse : Transferfunktionsmodelle

285

2.9 Multivariate Zeitreihenanalyse

296

2.10 Multiple und multivariate Transfermodelle

299

2.10.1 Multiple Transfermodelle

299

2.10.2 Multivariate Transfermodelle

300

3. Zeitreihenexperimente

301

3.1 N = 1-Experimente

302

3.1.1 Verteilungsfreie Prüfmethoden: Randomisierungs- bzw. Permutationstests

304

3.1.2 Verteilungsgebundene Prüfverfahren: Lineares Modell

310

3.1.3 Verteilungsgebundene Prüfverfahren: Interventionsanalyse mit dem Transfermodell von Box & Tiao (1975)

321

3.2 N > 1 Quasiexperimentelle Zeitreihendesigns (univariater Fall für eine Gruppe)

332

3.2.1 N > T, M = 1, G = 1

332

3.2.2 G > 1 Quasiexperimentelle Zeitreihendesigns bei mehreren Gruppen

344

3.2.3 M > 1 Quasiexperimentelle Zeitreihendesigns mit mehreren abhängigen Variablen

344

4. Veränderungsmessung mit Hilfe von Differenzenwerten

345

4.1 Korrelation zwischen Anfangswert und Differenzwert

346

4.2 Schätzung individueller Veränderungswerte

347

4.3 Der Differenz- bzw. Endwert in der Regressionsanalyse

350

4.4 Kovarianz- bzw. Regressionsmodell bei zeitbezogenen Daten

355

4.5 Reliabilität - Stabilität

360

5. Wachstumskurven- und Varianzanalyse

361

5.1 Der Eingruppenfall

361

5.1.1 Der ,,wiederholte Messungen“-Ansatz (T z 2, G = 1, N > 1)

361

5.1.2 Zur Identifikation und Interpretation der Effektparameter

366

5.2 Berücksichtigung von gruppenspezifischen Faktoren

374

5.3 Schätzung des Modells

381

5.4 Hypothesentests

383

5.5 Mehrfachantwort (echt multivariate) -Analyse*

386

6. Pooling von ,,Querschnitt“- mit ,,Zeitreiben “-Analyse

387

6.1 Modellüberlegungen

387

6.2 Schätzprobleme

392

7. Strukturgleichungsmodelle

392

7.1 Kovarianz- und korrelationsorientierte Analysen von Zeitreihen von Querschnitten: Stabilität von Konstrukten

393

7.2 Wachstumskurvenanalyse als Strukturgleichungsmodell

398

7.3 Erwartungswertorientierte Analysen von Zeitreihen von Querschnitten: Zeitbezogene Hypothesen für diskrete Zeitpunkte

401

7.4 Erwartungswertorientierte Analysen von Zeitreihen von Querschnitten: Schereneffekte bei Mittelwertsverläufen auf latenten Variablen

407

8. Markoff-Modelle für qualitative Variable bei diskreter Zeit

412

8.1 Markoffketten 1. Ordnung mit einer Variablen

418

8.2 Markoffketten 2. Ordnung (1 Variable)

424

8.3 Markoffketten mit mehreren Variablen

426

8.4 Schätzung der Übergangswahrscheinlichkeiten

427

8.4.1 bei Zeitinhomogenität

428

8.4.2 bei Zeithomogenität

428

8.5 Tests

429

8.6 Spezielle Probleme und Lösungen bei der Anwendung von Markoffketten

429

8.7 Einführung unabhängiger Variablen

432

8.7.1 Subgruppenmodelle

432

8.7.2 Übergangswahrscheinlichkeiten als Funktionen von unabhängigen Variablen

432

8.7.3 Interaktive Markoffketten

433

8.8 Einführung latenter Klassen

433

8.8.1 Mover-Stayer-Modell

433

8.8.2 Generelles Modell latenter Zustände

434

8.9 Weitere Modelle: zeitkontinuierliche Markoffprozesse

434

9. Multivariate ,,Zeitreiben“- und Panelanalyse mit zeitkontinuierlichen Modellen

436

9.1 ,,Zeitreihenanalyse“ (N=1, T >> M, M > 1)

436

9.1.1 Stochastische Systeme

447

9.1.2 Diskrete Approximation des stochastischen zeitkontinuierlichen Modells

450

9.1.3 Identifikation und Schätzung des zeitkontinuierlichen Systems

453

9.2 Panelanalyse (repeated-measurements) (N > M, TL 2, M > 1)

460

9.2.1 Zeitkontinuierliches Modell

460

9.2.2 Diskrete Approximation des stochastischen zeitkontinuierlichen Panelmodells mit LISREL

466

9.2.3 Identifikation und Schätzung der zeitkontinuierlichen Panelmodelle

467

10. Schlußbemerkungen

469

4. Kapitel Statistische Entscheidungstheorie und Bayes-Statistik

488

1. Einleitung: Problemstellung

488

1.1 Exkurs über Meßtheorie und Skalierung

489

1.2 Schema des Erkenntnisgewinns in einer empirischen Wissenschaft

491

2. Klassische Statistik

493

2.1 Vorgehensweise der klassischen Statistik

493

2.2 Eigenschaften klassischer Tests

501

2.3 Zur Frage der Stichprobengröße

503

2.4 Zur Effektstärke

507

2.5 Zusammenfassung des klassischen Signifikanztests

508

3. Sequentielle Testverfahren

511

4. Likelihood-Quotienten-Test

516

5. Bayes-Statistik

517

5.1 Vorgehensweise der Bayes-Statistik

517

5.2 Robustheit der Schätzung (principle of stable estimation)

518

5.3 Vergleich mit der klassischen Statistik

520

5.4 Integration von Daten aus verschiedenen Quellen

521

6. Parameter-Schätzung

522

6.1 Lösung der kleinsten Quadrate

522

6.2 Maximum-Likelihood-Schätzung

523

6.3 Konjugierte Verteilungen

524

6.4 Das Principle of Stable Estimation bei der Parameterschätzung

524

7. Die Erhebung von a-priori- Wahrscheinlichkeiten

524

8. Die Bewertung der Ausgänge von Entscheidungen

527

8.1 Bewertung multiattributiver Ausgänge

532

9. Entscheidungskriterien

536

10. Schlußbemerkung

540

5. Kapitel Computer-Simulation

547

1. Einleitung

547

2. Das Paradigma der Computer-Simulation in der Psychologie

550

2.1 Zur Klassifikation von Simulationsmodellen

550

2.2 Programmbeispiel: ,,Simple Concept Attainment“

553

2.2.1 Flußdiagrammdarstellung

553

2.2.2 Das Hauptprogramm (Versuchsablaufprogramm)

555

2.2.3 Zur ,,Binnenstruktur“ der Informationsverarbeitung

559

2.2.4 Die Modellvarianten

561

2.2.5 Abschließende Funktionsdefinitionen

564

2.3 Diskussion des Programmbeispiels

566

2.3.1 Modellcharakteristika

566

2.3.2 Nicht-numerisches Programmieren

567

2.3.3 ,,Listenverarbeitung”

568

2.3.4 Modulares Programmieren

571

3. Simulationsmodelle und psychologische Theorienbildung

572

3.1 Empirische Grundlagen psychologischer Simulationsmodelle

573

3.1.1 Methoden der Datengewinnung

573

3.1.2 Möglichkeiten der Datenauswertung

575

3.2 Informationelle Produktionssysteme

580

3.2.1 Die Modellarchitektur von Produktionssystemen

581

3.2.2 Beispiel eines Produktionssystems als Simulationsmodell

582

3.2.3 Transparenz und Abbildtreue von Produktionssystemen

588

3.3 Das Interpreterproblem von Produktionssystemen

592

3.3.1 Lesarten von Produktionsregeln

593

3.3.2 Konfliktlösungsstrategien (,,conflict resolution“)

594

3.3.3 Adaptivität (Lernfähigkeit) von Produktionssystemen

595

3.3.4 ,,Bewußtseinsfunktionen” des Interpreters

596

3.4 ,,Künstliche Intelligenz“ oder: Wie man dem Rechner das Rechnen beibringen kann

597

4. Validierung und Anwendbarkeit von Simulationsmodellen

604

4.1 Wirklichkeitsbezug und Modellrelationen

605

4.1.1 Modellbildung als homomorphe Abbildung

605

4.1.2 Kommutatives Diagramm

608

4.2 Das Eindeutigkeitstheorem von Anderson

610

4.3 Empirische Tests von Simulationsmodellen

612

4.3.1 Turing-Test

613

4.3.2 Protokoll-Trace-Vergleich

614

4.4 Nicht-Falsifizierbarkeit von KI-Systemen

615

4.4.1 Der strukturalistische Theoriebegriff

616

4.4.2 Die logische Komponente der Theorie der Informationsverarbeitung

618

4.4.3 Die empirische Komponente der Theorie der Informationsverarbeitung

624

4.4.4 Der instrumentelle Gebrauch der Theorie der Informationsverarbeitung

626

5. Kommentiertes Literaturverzeichnis

627

Autoren-Register

634

Sach-Register

647