Fachbuch, 2014
131 Seiten
1. Wozu Statistik?
2. Statistik und empirische Untersuchung
3. Merkmalsart und Skalentyp
4. Arithmetischer Mittelwert
5. Kennwerte der Streuung
6. Klassenbildung
7. Der Median
8. Quantil
9. Modalwert
10. Das geometrische Mittel
11. Grafische Darstellung von Daten
12. Häufigkeitsverteilung
3. Einschub: Konzentrationsmessung und Lorenzkurve
14. Mehrdimensionale Häufigkeitsverteilung
15. Lineare Regression
16. Bestimmung der Regressionskonstanten a und b
17. Kontrollrechnung für den Korrelationskoeffizienten r:
18. Bestimmtheitsmaß: Standardfehler
19. Zeitreihenanalyse und Trendermittlung
20. Gleitender Durchschnitt
21. Trendfunktion
22. Einfache Prognosetechniken
23. Trendextrapolation auf Basis eines Zeitreihenmodells
24. Die Welt ist nicht nur metrisch
25. Der Rangkorrelationskoeffizient R nach Spearman
26. Nominale Werte
27. Kontingenzkoeffizient nach Pearson
28. Der Signifikanztest
29. Die Benford-Analyse und der Chi-Quadrat-Test.
30. Bestimmung des Stichprobenumfangs
31. Der Bericht
32. Anhang
Die Arbeit bietet eine fundierte Einführung in die deskriptive Statistik für den öffentlichen Dienst, wobei das primäre Ziel darin besteht, statistische Methoden zur Analyse und Interpretation von Datenmengen in der Verwaltung praxisnah zu vermitteln, um Fehlinterpretationen zu vermeiden und fundierte Entscheidungsprozesse zu unterstützen.
1. Wozu Statistik?
Kenntnisse aus dem Bereich der Statistik können sowohl für private als auch für berufliche Zwecke nützlich sein.
Im privaten Bereich werden Kenntnisse der Statistik häufig für das wirtschaftliche Handeln genutzt, zum Beispiel bei der Vermögensbildung.
Im beruflichen Bereich können statistische Erhebungen und Analysen für Planungs- und Entscheidungsprozesse genutzt werden, zum Beispiel ebenfalls im Rahmen des wirtschaftlichen Handelns oder der Arbeitsorganisation.
Ein weiterer bekannter Anwendungsbereich ist die politische Meinungsbildung.
1. Wozu Statistik?: Einführung in die Bedeutung und Anwendungsfelder statistischer Grundkenntnisse im privaten sowie beruflichen Kontext.
2. Statistik und empirische Untersuchung: Erläuterung der planmäßigen Vorgehensweise bei empirischen Untersuchungen in der öffentlichen Verwaltung.
3. Merkmalsart und Skalentyp: Klassifizierung von Merkmalen und deren Skalenniveaus als Voraussetzung für korrekte statistische Berechnungen.
4. Arithmetischer Mittelwert: Definition und Berechnung des gebräuchlichsten Lagemaßes sowie dessen Bedeutung bei der Analyse großer Datenmengen.
5. Kennwerte der Streuung: Vorstellung von Spannweite, Varianz und Standardabweichung zur Charakterisierung der Verteilungsbreite von Datenreihen.
6. Klassenbildung: Methodik zur Reduzierung komplexer Datenmengen durch Zusammenfassung von Werten zu Klassen für eine bessere Übersicht.
7. Der Median: Einführung des Zentralwertes als alternatives Lagemaß, das eine geordnete Reihe in zwei Hälften teilt.
8. Quantil: Erläuterung von Quartilen und Dezilen zur Zerlegung von Datenreihen in gleiche Anteile.
9. Modalwert: Definition des häufigsten Wertes in einer Verteilung, insbesondere für nicht-metrische Daten.
10. Das geometrische Mittel: Beschreibung des korrekten Mittels für Zuwachsraten und zeitlich aufeinanderfolgende Wachstumsverläufe.
11. Grafische Darstellung von Daten: Übersicht über verschiedene Diagrammtypen und deren Eignung für unterschiedliche Datenskalen.
12. Häufigkeitsverteilung: Darstellung von Häufigkeiten und Einführung der kumulierten Summenhäufigkeit zur Analyse von Verteilungen.
3. Einschub: Konzentrationsmessung und Lorenzkurve: Mathematische Verfahren zur Bestimmung der Konzentration von Werten auf einzelne Merkmalsträger.
14. Mehrdimensionale Häufigkeitsverteilung: Grundlagen der Untersuchung von Zusammenhängen zwischen zwei oder mehr Merkmalen.
15. Lineare Regression: Einführung in die Methode zur Ermittlung linearer Abhängigkeiten zwischen Variablen.
16. Bestimmung der Regressionskonstanten a und b: Herleitung und Berechnung der optimalen Regressionsgeraden.
17. Kontrollrechnung für den Korrelationskoeffizienten r:: Validierung des linearen Zusammenhangs durch Berechnung des Korrelationskoeffizienten nach Pearson-Bravais.
18. Bestimmtheitsmaß: Standardfehler: Interpretation der Modellgüte einer linearen Regression durch das Bestimmtheitsmaß.
19. Zeitreihenanalyse und Trendermittlung: Analyse von Entwicklungstendenzen in zeitabhängigen Beobachtungswerten.
20. Gleitender Durchschnitt: Glättung von Zeitreihen zur Identifikation langfristiger Trends durch Mittelwertbildung.
21. Trendfunktion: Anwendung von Trendmodellen bei nichtlinearen Verläufen oder periodischen Schwankungen.
22. Einfache Prognosetechniken: Vorstellung naiver Methoden zur Vorhersage zukünftiger Merkmalswerte.
Statistik, Deskriptive Statistik, Empirische Untersuchung, Mittelwert, Standardabweichung, Korrelation, Lineare Regression, Zeitreihenanalyse, Trendermittlung, Signifikanztest, Häufigkeitsverteilung, Skalenniveau, Konzentrationsmessung, Prognoseverfahren, Datenauswertung
Das Buch vermittelt Grundlagen der beschreibenden Statistik, speziell zugeschnitten auf die Anforderungen in der öffentlichen Verwaltung und Behördenpraxis.
Die Themen umfassen statistische Kennwerte, die grafische Aufbereitung von Daten, Korrelations- und Regressionsanalysen sowie Prognosetechniken.
Ziel ist es, den Leser zu befähigen, Daten professionell zu erheben, aufzubereiten und statistisch korrekt zu interpretieren, um Fehlentscheidungen im beruflichen Alltag zu vermeiden.
Das Werk stützt sich auf mathematisch-statistische Standardverfahren, die durch die DIN-Normen für statistische Begriffe und Methoden untermauert werden.
Der Hauptteil behandelt die gängigen Kennzahlen der Lage und Streuung, Methoden zur grafischen Darstellung sowie fortgeschrittene Verfahren wie die lineare Regression und Zeitreihenanalysen.
Wichtige Begriffe sind deskriptive Statistik, Korrelationsanalyse, Regressionsrechnung, Zeitreihenanalyse und empirische Datenverarbeitung.
Die Konzentrationsmessung untersucht gezielt die Verteilung von Werten auf Merkmalsträger mittels Lorenzkurven, was besonders bei Haushalts- oder Umsatzdaten relevant ist.
Sie nutzt die logarithmische Verteilung der Ziffern in Rechnungsbeträgen als Werkzeug zur Identifikation von Unregelmäßigkeiten oder potenziellem Betrug.
Die Verweise auf DIN-Normen dienen dazu, in der Verwaltungspraxis verbindliche und einheitliche Begriffsdefinitionen zu verwenden und Missverständnisse auszuschließen.
Er liefert präzise Formeln, um bei Prüfungen in der Verwaltung die wissenschaftlich korrekte Größe einer Stichprobe zu berechnen, damit diese als repräsentativ anerkannt werden kann.
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!

