Bachelorarbeit, 2009
61 Seiten, Note: 1,0
1. Einleitung
1.1. Unternehmen
1.2. Problemstellung
1.3. Ziele
2. Business Intelligence
2.1. Begriffsklärung
2.2. Data Warehouse
2.3. Online Analytical Processing (OLAP)
2.3.1. Datenhaltung
2.3.2. Datenmodellierung
2.3.3. Historisierung
2.3.4. Navigation im multidimensionalen Datenraum
2.4. Transformationsprozess
2.5. Reporting
3. Webanwendungen
3.1. Technologie
3.2. Serverstruktur
3.2.1. Webcontainer
3.2.2. Multi-Tier-Modell
3.2.3. Datenbankanbindung
3.3. Software-Architektur
3.4. Java Webanwendungen
3.4.1. Deployment Descriptor
3.4.2. Servlets
3.4.3. Filter
3.4.4. Java Server Pages
3.4.5. Session-Tracking
3.4.6. Sicherheit
3.5. JFreeChart
4. Planung
4.1. Datenquellen
4.1.1. Fahrdienst
4.1.2. Rettungsdienst
4.2. Datenintegration
4.3. Datenbank
4.3.1. Datenmodell
4.3.2. Datenanalyse
4.4. Berichtssystem
4.4.1. Zeitbezug
4.4.2. Gruppierungen & Filter
4.4.3. Startseite
4.4.4. Sicherheit
5. Entwicklung
5.1. ETL-Prozess
5.1.1. Filterung
5.1.2. Harmonisierung
5.1.3. Aggregation
5.1.4. Historisierung
5.1.5. Faktentabelle
5.1.6. Anreicherung
5.2. Datenanalyse
5.3. Webanwendung
5.3.1. Model
5.3.2. Controller
5.3.3. View
6. Ergebnisse
6.1. Datenintegration
6.2. Data Warehouse
6.3. Berichtssystem
6.4. Zusammenfassung
6.5. Ausblick
Diese Arbeit zielt darauf ab, eine grundlegende Business-Intelligence-Lösung für den Kreisverband Neuburg-Schrobenhausen des Bayerischen Roten Kreuzes zu entwickeln, um durch die systematische Aufbereitung von Daten aus den Bereichen Fahrdienst und Rettungsdienst eine effektive Managementunterstützung zu ermöglichen.
2.3. Online Analytical Processing (OLAP)
OLAP bezeichnet ein Konzept der Datenhaltung, das „benutzerfreundlichen, flexiblen Abfragesystemen“ zugrundeliegt. Operative Daten aus internen Geschäftsprozessen werden in einem multidimensionalen Datenraum bereitgestellt, der dynamische Analysen zulässt. Im Gegensatz dazu steht das Online Transaction Processing (OLTP), dessen Architektur auf die hochperformante Abwicklung von Transaktionsprozessen ausgerichtet ist und oftmals die Datenquelle für BI-Applikationen darstellt. Eine mögliche Definition des Online Analytical Processing ist die Charakterisierung anhand von fünf grundsätzlichen Kriterien, die ein derartiges System erfüllen muss:
• Reaktionszeit für reguläre Anfragen kleiner gleich 5 Sekunden.
• Die Ausrichtung auf Analyse und somit die Möglichkeit für beliebige Benutzeranfragen.
• Gleichzeitige Nutzung durch mehrere Benutzer, sowie unterschiedliche Berechtigungsprofile.
• Multidimensionalität.
• Stabilität von Auswertungen und Antwortzeiten auch bei großen Datenmengen.
Konsolidierend hat sich das Akronym FASMI für die kurze, prägnante Beschreibung „Fast analysis of shared multidimensional information“ etabliert. Unabhängig von der tatsächlichen Anzahl an Dimensionen wird der Datenraum meist als OLAP-Würfel oder Hypercube, wie in Abbildung 2.1. dargestellt, bezeichnet. Die Notwendigkeit eines derartigen Datenraums ergibt sich aus der Tatsache, dass auf dem Bildschirm stets nur zwei Dimensionen dargestellt werden können. Die Würfelstruktur bietet verschiedene Navigationsoperationen um durch „manuelles, interaktives Umschalten alle Daten analysieren zu können.“
1. Einleitung: Beschreibt die Relevanz von Business Intelligence für die moderne Unternehmensführung und definiert die Ausgangssituation sowie Zielsetzung für den Kreisverband Neuburg-Schrobenhausen.
2. Business Intelligence: Erläutert die theoretischen Grundlagen von BI, Data Warehousing und OLAP-Konzepten sowie den Transformationsprozess und Reporting-Anforderungen.
3. Webanwendungen: Bietet eine technische Einführung in Webanwendungen, Serverstrukturen, die MVC-Architektur sowie spezifische Java-Technologien wie Servlets, JSPs und JFreeChart.
4. Planung: Detailliert die Analyse der Datenquellen, die Anforderungen an den ETL-Prozess, die Datenbankmodellierung sowie die Spezifikationen für das zu entwickelnde Berichtssystem.
5. Entwicklung: Dokumentiert die praktische Umsetzung der ETL-Strecke, die Implementierung der Datenbank-Logik und die Programmierung der Webanwendung gemäß dem MVC-Pattern.
6. Ergebnisse: Zieht ein Fazit zum Projekterfolg hinsichtlich Datenintegration, Systemarchitektur und Reporting-Funktionalität sowie einen Ausblick auf künftige Erweiterungsmöglichkeiten.
Business Intelligence, Data Warehouse, OLAP, Webanwendung, ETL-Prozess, Java, MVC-Architektur, Berichtssystem, Datenbank, Datenmodellierung, Rettungsdienst, Fahrdienst, SQL, JFreeChart, Unternehmenssteuerung
Die Arbeit befasst sich mit der Konzeption und Entwicklung eines Kennzahlen-Monitors als Business-Intelligence-Lösung für einen Non-Profit-Verband des Bayerischen Roten Kreuzes.
Die zentralen Felder umfassen die Datenhaltung (Data Warehousing), Datenintegration (ETL), die Architektur von Java-Webanwendungen und die Visualisierung betriebswirtschaftlicher Kennzahlen.
Das Ziel ist es, eine IT-Grundlage zu schaffen, die es der Geschäftsleitung ermöglicht, durch eine übersichtliche Webanwendung aktuelle Kennzahlen aus den Bereichen Fahrdienst und Rettungsdienst effizient auszuwerten.
Es wird ein praxisorientierter Entwicklungsansatz gewählt, der auf etablierten Business-Intelligence-Prinzipien und der Verwendung von Open-Source-Werkzeugen für die Datenintegration und Visualisierung basiert.
Der Hauptteil gliedert sich in eine theoretische fundierte Auseinandersetzung mit BI-Konzepten, die Planung des Systementwurfs und die konkrete technische Implementierung der ETL-Strecken sowie der Web-Benutzeroberfläche.
Die Arbeit wird maßgeblich durch Begriffe wie Business Intelligence, Data Warehouse, ETL, MVC-Architektur und Kennzahlenmanagement charakterisiert.
Der MVC-Ansatz wurde gewählt, um eine strikte Trennung von Programmlogik, Datenhaltung und Präsentation zu gewährleisten, was die Wartbarkeit, Erweiterbarkeit und Übersichtlichkeit der Webanwendung deutlich erhöht.
Die Delta-Historisierung ist essenziell für die Dimensionstabellen, um Änderungen an Attributen zeitlich nachvollziehbar zu dokumentieren, ohne die historische Korrektheit der vorangegangenen Datenanalysen zu verfälschen.
Da kein direkter Datenbankzugriff möglich ist, werden die operativen Daten regelmäßig als CSV-Dateien exportiert und anschließend über den Pentaho-ETL-Prozess eingelesen, transformiert und in das Data Warehouse geladen.
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!

