Die „große Statistik“ hat – nicht völlig zu Unrecht – den Ruf, unanschaulich und bestenfalls kompliziert zu sein. Die hier vorgestellte „beschreibende Statistik“ ist es nicht. Sie ist nicht schwer zu erlernen. Beschreibende Statistik erfordert nur ein solides Grundwissen in den vier Grundrechenarten und die Bereitschaft, Zeit in Übungen zu investieren. Das erworbene Wissen reicht zum Beispiel für das Erkennen von:
- Manipulationen durch Medien,
- falschen Statistiken zur Gesundheit,
- „Märchen“ zu Polizei-Aufklärungsquoten oder der
- Wirksamkeit von Faltencreme
völlig aus. „Traue keiner Statistik, die du nicht selber gefälscht hast.“ Sollten Sie eine eigene Arbeit verfassen und darin Elemente der Statistik verwenden, steht dieses Büchlein Ihnen mit Rat und Tat beiseite und hilft, die schlimmsten Fehler zu vermeiden.
Die Motivation zu diesem Büchlein basiert auf den Erfahrungen, die ich in vielen Vorlesungen zur empirischen Sozialforschung und Statistik für den öffentlichen Dienst an der Hochschule für Polizei und Verwaltung (HfPV), Abteilung Kassel, gemacht habe. Insbesondere den mathematisch weniger vorgebildeten Studenten, die vor zwanzig oder mehr Jahren das letzte Mal die Schulbank gedrückt hatten, konnte der Zugang zur Statistik und anwendbares statistisches Grundwissen durch die hier vorgestellten Übungsaufgaben vermittelt werden. Aufgrund dieser Erfahrungen bin ich sicher, dass tatsächlich jeder geneigte Leser sich die Grundlagen der beschreibenden Statistik aneignen und davon profitieren kann.
Dieses Aufgaben- und Lösungsbuch ist eng verknüpft mit dem Buch zur Vorlesung „Deskriptive (beschreibende) Statistik im öffentlichen Dienst“, kann aber auch erfolgreich ohne dieses Werk benutzt werden, weil alle Grundlagen zum Verständnis der Lösungen zu den Aufgaben angegeben sind. Natürlich liefert das Buch zur Vorlesung mehr Hintergrundwissen und gibt ausführlichere Erläuterungen. Daher kann ich das Buch zur Begleitung dieses Aufgaben- und Lösungsbuches nur wärmstens empfehlen.
Inhaltsverzeichnis
1. Wozu Statistik?
2. Statistik und empirische Untersuchung
3. Merkmalsarten und Skalentypen
4. Arithmetischer Mittelwert
5. Kennwerte der Streuung
6. Klassenbildung
7. Der Median
8. Quantile
9. Modalwert
10. Das geometrische Mittel
11. Grafische Darstellung von Daten
12. Häufigkeitsverteilung
13. Einschub: Konzentrationsmessung und Lorenzkurve
14. Mehrdimensionale Häufigkeitsverteilung
15. Lineare Regression
16. Bestimmung der Regressionskonstanten a und b
17. Kontrollrechnung für den Korrelationskoeffizienten r
18. Bestimmtheitsmaß und Standardfehler
19. Zeitreihenanalyse und Trendermittlung
20. Gleitender Durchschnitt
21. Trendfunktion
22. Einfache Prognosetechniken
23. Trendextrapolation auf Basis eines Zeitreihenmodells
24. Die Welt ist nicht nur metrisch
25. Der Rangkorrelationskoeffizient R nach Spearman
26. Nominale Werte
27. Kontingenzkoeffizient C nach Pearson
28. Der Signifikanztest
29. Die Benford-Analyse und der Chi-Quadrat-Test.
30. Bestimmung des Stichprobenumfangs
31. Der Bericht
32. Anhänge
Zielsetzung & Themen
Das Werk verfolgt das Ziel, Statistik als leicht verständliches Instrument für den Alltag und den öffentlichen Dienst zu vermitteln, indem es grundlegende methodische Ansätze durch praktische Übungsaufgaben für Anfänger und Fortgeschrittene greifbar macht.
- Grundlagen der deskriptiven Statistik und Datenerhebung
- Lagemasse und Streuungskennwerte
- Regressionsanalyse und Zeitreihenmodelle
- Signifikanztests und Konzentrationsmessung
- Praktische Anwendung statistischer Methoden im beruflichen Umfeld
Auszug aus dem Buch
2. Statistik und empirische Untersuchung
Statistische Auswertungen stehen in der öffentlichen Verwaltung häufig im Zusammenhang mit empirischen Untersuchungen, die entweder selbst vorgenommen werden oder bereits vorliegen. Häufig handelt es sich dabei um kleinere Erhebungen auf örtlicher oder regionaler Ebene. Über die möglichen statistischen Auswertungen wird meistens schon in der Planungsphase (bewusst oder unbewusst) entschieden.
Zur Beantwortung der nachfolgenden Übungsaufgabe müssen alle Faktoren mindestens den drei Gütekriterien entsprechen, die der Bequemlichkeit halber hier noch einmal aufgeführt werden:
Objektivität bedeutet, dass verschiedene Personen bei der Anwendung des gleichen Verfahrens zu demselben Ergebnis kommen (Beispiel: Bewertung einer Prüfungsaufgabe).
Validität bedeutet, dass das Verfahren tatsächlich den vorgesehenen Zweck erfüllt (Beispiel: Das Ergebnis einer Klausurarbeit gibt tatsächlich ein zutreffendes Bild von der Leistungsfähigkeit eines Klausurteilnehmers in dem jeweiligen Themengebiet).
Reliabilität bedeutet, dass die wiederholte Anwendung des gleichen Verfahrens auf den gleichen Gegenstand zu identischen Ergebnissen führt (Beispiel: die wiederholte Bewertung des gleichen Prüfungsteiles führt immer zu demselben Ergebnis).
Zusammenfassung der Kapitel
1. Wozu Statistik?: Dieses Kapitel führt in die Bedeutung der Statistik als allgegenwärtiges Werkzeug ein und entkräftet Vorurteile gegenüber statistischen Methoden.
2. Statistik und empirische Untersuchung: Hier werden die methodischen Gütekriterien Objektivität, Validität und Reliabilität erläutert, die für wissenschaftliche Untersuchungen essenziell sind.
3. Merkmalsarten und Skalentypen: Es erfolgt eine systematische Einordnung von Merkmalen und Skalierungen, die für die korrekte Wahl statistischer Verfahren notwendig ist.
4. Arithmetischer Mittelwert: Dieses Kapitel widmet sich der Berechnung und Anwendung des arithmetischen Mittels sowie der gruppierten Mittelwertbildung.
5. Kennwerte der Streuung: Einführung in Spannweite, Varianz und Standardabweichung zur Charakterisierung der Datenverteilung.
6. Klassenbildung: Behandlung der systematischen Einordnung von Beobachtungswerten in Klassen für eine bessere Datenübersicht.
7. Der Median: Erläuterung des Zentralwerts als robustes Lagemass für geordnete Datenreihen.
8. Quantile: Detaillierte Darstellung von Quartilen und Dezilen zur Zerlegung von Datenverteilungen.
9. Modalwert: Definition des am häufigsten vorkommenden Merkmalswerts.
10. Das geometrische Mittel: Beschreibung des Mittelwerts für Verhältniszahlen und Wachstumsraten.
11. Grafische Darstellung von Daten: Anleitung zur visuellen Aufbereitung von Daten mittels Stängel-Blatt-Diagrammen.
12. Häufigkeitsverteilung: Berechnung und grafische Darstellung von absoluten und relativen Summenhäufigkeiten.
13. Einschub: Konzentrationsmessung und Lorenzkurve: Anwendung von Konzentrationsmaßen zur Analyse betrieblicher Daten.
14. Mehrdimensionale Häufigkeitsverteilung: Einführung in den Zusammenhang zwischen zwei metrischen Variablen.
15. Lineare Regression: Methoden zur Bestimmung optimaler Geraden zur Trenddarstellung.
16. Bestimmung der Regressionskonstanten a und b: Herleitung der mathematischen Parameter für Regressionsgeraden.
17. Kontrollrechnung für den Korrelationskoeffizienten r: Überprüfung der Stärke linearer Zusammenhänge.
18. Bestimmtheitsmaß und Standardfehler: Bewertung der Güte von Regressionsmodellen.
19. Zeitreihenanalyse und Trendermittlung: Theoretische Grundlagen zur Analyse von Datenverläufen im Zeitverlauf.
20. Gleitender Durchschnitt: Anwendung von Glättungsverfahren für Zeitreihendaten.
21. Trendfunktion: Modellierung von Trends unter Berücksichtigung von Schwankungskomponenten.
22. Einfache Prognosetechniken: Vorstellung naiver Methoden für kurzfristige Vorhersagen.
23. Trendextrapolation auf Basis eines Zeitreihenmodells: Einsatz der exponentiellen Glättung für Prognosezwecke.
24. Die Welt ist nicht nur metrisch: Einführung in nicht-metrische Datenzusammenhänge.
25. Der Rangkorrelationskoeffizient R nach Spearman: Methode zur Korrelationsanalyse ordinaler Daten.
26. Nominale Werte: Analyse von Abhängigkeiten mittels Kreuztabellen.
27. Kontingenzkoeffizient C nach Pearson: Messung der Stärke von Zusammenhängen in nominalen Daten.
28. Der Signifikanztest: Anwendung statistischer Tests zur Überprüfung von Hypothesen.
29. Die Benford-Analyse und der Chi-Quadrat-Test.: Einsatz statistischer Methoden zur Aufdeckung von Unregelmäßigkeiten.
30. Bestimmung des Stichprobenumfangs: Berechnung der notwendigen Fallzahlen für repräsentative Prüfungen.
31. Der Bericht: Empfehlungen für eine strukturierte Aufbereitung statistischer Ergebnisse.
32. Anhänge: Zusammenstellung wichtiger statistischer Normblätter und Tabellenwerte.
Schlüsselwörter
Statistik, Deskriptive Statistik, Mittelwert, Median, Standardabweichung, Regression, Korrelation, Signifikanztest, Zeitreihenanalyse, Stichprobenerhebung, Hypothesenprüfung, Datenauswertung, Lorenzkurve, Benford-Analyse, Prognosetechnik.
Häufig gestellte Fragen
Worum geht es in diesem Aufgaben- und Lösungsbuch grundsätzlich?
Das Buch bietet praxisnahe Übungen zur beschreibenden Statistik, um Studierenden und Anwendern im öffentlichen Dienst das Verständnis und die Anwendung statistischer Grundmethoden zu erleichtern.
Welche zentralen Themenfelder werden abgedeckt?
Die Arbeit behandelt unter anderem Lagemaße, Streuungsparameter, Regressionsanalysen, Zeitreihenmodelle sowie verschiedene Testverfahren wie den Signifikanztest und die Konzentrationsmessung.
Was ist das primäre Ziel der beschriebenen Übungen?
Das primäre Ziel ist es, dem Leser die Furcht vor der Mathematik zu nehmen und ein anwendbares Grundwissen zu vermitteln, das zur kritischen Interpretation von Statistiken im beruflichen Alltag befähigt.
Welche wissenschaftlichen Methoden finden Anwendung?
Das Buch nutzt mathematische Standards der deskriptiven Statistik, darunter die lineare Regression, Verfahren zur gleitenden Durchschnittsbildung sowie statistische Testverfahren zur Prüfung von Hypothesen.
Was behandelt der Hauptteil des Buches?
Der Hauptteil ist in spezifische Kapitel gegliedert, die von Grundlagen der Datentypen über die Berechnung von Kennwerten bis hin zu komplexeren Prognoseverfahren und der Berichterstattung reichen.
Welche Schlüsselwörter charakterisieren das Werk?
Deskriptive Statistik, Regressionsanalyse, Signifikanztest, Zeitreihen, Stichprobenumfang und Hypothesenprüfung sind die zentralen methodischen Schwerpunkte.
Warum ist die Unterscheidung zwischen Totalerhebung und Stichprobe für Behörden wichtig?
Aufgrund von Zeit- und Kostenfaktoren ist die Vollerhebung oft nicht durchführbar; die Stichprobe bietet einen effizienten Weg, mit vertretbarem Aufwand aussagekräftige und hinreichend genaue Ergebnisse zu erzielen.
Wie hilft die Benford-Analyse bei der Betrugsprüfung?
Durch den Abgleich von realen Rechnungsziffern mit der mathematischen Benford-Verteilung lassen sich Auffälligkeiten identifizieren, die auf eine künstliche Erstellung von Zahlen hinweisen und somit als Indiz für Unregelmäßigkeiten dienen können.
Welchen Nutzen bieten die Anhänge des Buches?
Die Anhänge enthalten essenzielle Referenzen auf DIN-Normblätter, statistische Tabellen für Signifikanzprüfungen sowie eine Literaturliste, die für die vertiefte Arbeit mit statistischen Methoden unerlässlich sind.
- Arbeit zitieren
- Dr. Uwe Sliwczuk (Autor:in), 2016, Leichtverständliche Aufgaben und Lösungen zur „beschreibenden Statistik“, München, GRIN Verlag, https://www.hausarbeiten.de/document/315195