Bachelorarbeit, 2021
60 Seiten, Note: 1,3
Abbildungsverzeichnis
Tabellenverzeichnis
Abkürzungsverzeichnis
Danksagung
Abstract
1. Einleitung
1.1 Problemstellung
2. Literaturrecherche
2.1 Einführung in Business Intelligence (BI)
2.1.1 Historische Entstehung
2.1.2 Definition
2.1.3 Business Intelligence Technologien
2.2 Reporting
2.2.1 Ziele und Aufgaben des Reportings
2.2.2 Methoden
2.3 Anwendungsmöglichkeiten von BI in operativem Controlling
2.3.1 Kennzahlen
2.3.2 Kennzahlensysteme
2.3.3 Abweichungsanalyse
2.3.4 Monitoring
2.4 BI-Tools und die Anwendungsfelder
2.4.1 BI-Tools
2.4.2 Anwendungsfelder
2.5 Einführung in Controlling
2.5.1 Entstehung und die Definition
2.6 Abgrenzung vom strategischen und operativen Controlling
2.6.1 Operatives Controlling
2.6.2 Strategisches Controlling
2.6.3 Upscaling (Maßstabsübertragung)
3. Methodik
3.1 Literaturrecherche
3.2 Case Study
3.3 Untersuchung
4. Ergebnisse
5. Literaturverzeichnis
Abbildung 1: Darstellung von BI Technologien und deren Datenflüssen
Abbildung 2: Überblick von KDD Verfahren
Abbildung 3: Struktur von Data Warehouse
Abbildung 4: Abhängige Data Marts
Abbildung 5: Unabhängige Data Marts
Abbildung 6: OLAP-Würfel Dimensionen
Abbildung 7: Gruppierung der Berichtssysteme
Abbildung 8: Arten der Kennzahlen
Abbildung 9: Das DuPont Kennzahlensystem
Abbildung 10: Veranschaulichung des Ablaufs von Abweichungsanalyse
Abbildung 11: Darstellung der Anwendungsfelder von Business Intelligence
Abbildung 12: Controllig Funktionen im Regelkreis
Abbildung 13: Funktionsweise von operativem Controlling im Regelkreis
Abbildung 14: Auflistung der zentralen Zielsetzung des operativen Controllings
Tabelle 1: Unterschiede der Berichtsarten
Tabelle 2: Abgrenzung zwischen strategisches und operatives Controlling
Abb Abbildung
BI Business Intelligence
CI Competitive Intelligence
DSS Decision Support System
DWH Data Warehouse
EIS Executive Information Systems
ERP Enterprise Resource Planning
ETL Extract, Transform, Load
IT Informationstechnik
KDD Knowledge Discovery in Databases
MIS Management Information Systems
MOLAP Multidimensional Online Analytical Processing
MS Microsoft
OLAP Online Analytical Processing
ROLAP Relationales Online Analytical Processing
sog sogenannte
vgl vergleiche
z.B. zum Beispiel
ZVEI Zentralverband der Elektrotechnik- und Elektronikindustrie
Die Bachelorarbeit bildet den Abschluss des Studienganges Wirtschaftsingenieurwesen in Albstadt. Zunächst möchte ich mich bei Herrn Prof. Dr. Andreas Mockenhaupt, der die Erstbetreuung übernahm, für die Unterstützung meiner Bachelorarbeit durch hilfreiche Anregungen und konstruktive Kritik, bedanken. Zudem bedanke ich mich bei Herrn Prof. Dr. Jesko Elsner, die mir als Zweitkorrektor zur Seite stand.
Das Thema hat mein Interesse bereits während des Studiums geweckt und wurde durch mein Praxisaufenthalt im 5.Semester bei der Robert Bosch GmbH bestärkt, als ich als Praktikantin im Projektmanagement viel mit dem Programm „Power BI“ zu tun hatte. Durch die Einarbeitung in die Thematik Power BI und der Projektoptimierung wurde mir bewusst, in welche Richtung meine Bachelorarbeit gehen sollte.
Abschließend möchte ich mich bei meiner Mutter und bei meinen Geschwistern bedanken, die mir dieses Studium ermöglicht haben und stets an meiner Seite stehen und standen.
Unternehmen müssen sich heute mit immer mehr Datenmengen auseinandersetzen. In Anbetracht der großen Datenmenge sind Unternehmen aufgefordert, rasch zu agieren, was eine Problematik bzw. Schwierigkeit für das Unternehmen darstellt. Business Intelligence ist ein Verfahren, welches sich auch als technologiegetrieben bezeichnen lässt. Der Zweck von Business Intelligence besteht darin, wirtschaftliches Wissen über den aktuellen Stand sowie die Zukunftsaussichten des eigenen Unternehmens und der jeweiligen Geschäftsumfelds zu generieren. Zu den allgemeinen Funktionen der Business Intelligence-Technologie gehören Berichterstellung, Online Analytical Processing, Analysen, Data Mining, BI Tools und vieles mehr.
Die vorliegende Bachelorarbeit beschäftigt sich mit dem Thema „Anwendungsbereiche von Business Intelligence im operativen Controlling“. In der Literaturrecherche erfolgt eine Einführung in Business Intelligence und dabei werden die relevanten sowie theoretischen Grundlagen erklärt, welches dem Leser einen Überblick vermittelt, welche Möglichkeiten es für die Anwendung von Business Intelligence gibt und wie die Umsetzung bzw. Durchführung funktioniert.
Weiter wird in der vorliegenden Bachelorarbeit auf Detail eingegangen, zu dem auch Reporting Kennzahlen, Controlling und BI-Tools sowie deren Anwendungsfelder gehören. Hierzu werden die Funktionen, Aufgaben und Ziele der jeweiligen Punkte beschrieben und herausgearbeitet, welche Rolle sie bei der Anwendung von Business Intelligence im operativen Controlling übernehmen.
Im darauffolgenden Kapitel „Methodik“ wird es detailliert erläutert, auf welchem Wege die Ergebnisse der Bachelorarbeit erlangt wurden. Abschließend werden im dritten Kapitel die Ergebnisse der Arbeit vorgestellt und zusammengefasst. Hauptsächlich befasst sich die Bachelorarbeit mit dem Thema Business Intelligence.
Currently, companies must deal with more and more amounts of data. Considering the large amount of data, the company is required to act quickly, which is a problem or difficulty for the company. Business intelligence is a procedure which can also be called technology-driven, and the purpose of business intelligence is to generate economic knowledge about the status and prospects of your own company and your respective business environment. The general functions of business intelligence technology include reporting, online analytical processing, analytics data mining, BI tools and much more.
This bachelor thesis deals with the topic "Application areas of Business Intelligence in operational controlling". In the literature research there is an introduction to Business Intelligence is given and the relevant as well as theoretical basics are explained, which gives the reader an overview of the possibilities for the application of Business Intelligence and how the implementation or execution works.
Furthermore, this bachelor thesis goes into detail, which also includes reporting and key figures as well as BI tools. For this purpose, the functions, tasks, and objectives of the respective points are described and the role they play in the application of business intelligence in operational controlling is elaborated.
In the following chapter "Methodology" it is explained in detail how the results of the bachelor thesis were obtained. Finally, the third chapter presents and summarizes the results of the thesis. Mainly the bachelor thesis deals with Business Intelligence.
Immer mehr neue Entwicklungen müssen aufgezeichnet und durchgeführt werden, was dem Unternehmen die Möglichkeit gibt flexibel zu sein und gleichzeitig die Antwortgeschwindigkeit der Mitarbeiter auf Tests erhöht. Aufgrund des schnellen Wachstums der technologischen Innovation und des Datenvolumens erhöht sich die Nachfrage nach Informationen über Produktionsgrößen und deren effektive Durchführung. Die geschäftliche Datenverarbeitung hat sich andauernd weiterentwickelt und wurde dadurch stark verbreitet. Hierbei kamen viele Versuche zum Einsatz, um die Auskünfte sowie auch die Produktionsgrößen mithilfe von einsetzbare IT-Systeme für die Verwaltung und Kontrolle zur Verfügung zu stellen. Aufgrund neuer Forderungen an Daten und auch die Transparenz führte die Erhaltung von Informationen insbesondere für die Betriebssteuerung zur Erschwernis, weil die Aspekte enorm an Bedeutung zugenommen haben. Es wurden effektive Tools evoluiert, welche die Informationen abwickeln. Hier werden nur die nötigen Auskünfte rasch bzw. zeitnah bereitgestellt, um die Kontrolle und Managementaktivitäten bei anwachsender Nachfrage künftig mit den erforderlichen Informationen assistieren zu können. Business Intelligence Systeme gehören hauptsächlich zu diesen Tools und ermöglichen den Benutzer sinnvolle Informationen pünktlich in der entsprechenden Form fertigzustellen. Speziell im Bereich des operativen Controllings haben die Business Intelligence-Instrumente gezeigt, dass es genügt, die Steuerung und Verwaltung mit Informationen vorzubereiten. BI lässt sich als Grundlage aktueller Steuerungssysteme bezeichnen und stellt einen wichtigen Anteil zur Verfügung, um Unternehmen zu unterstützen.
Der Zweck der Arbeit besteht darin, die Funktion einer hauptsächlich betriebsorientierten Steuerung für das Unternehmensmanagement zu definieren und auf die jüngsten Fortschritte im Kontext von Business-Intelligence-Methoden zu reagieren. Es stellt die Anwendung von Business Intelligence im operativen Controlling detailliert vor und ziel darauf, dass es für die Interessenten eine Hilfe leistet, um über das Thema das Wissen zu erweitern.
Mit zunehmenden geschäftlichen Anwendungen von Verarbeiten der elektronischen Daten hat der erste Versuch in den 1960er Jahren angefangen, die dazu dienen Manager anhand von Informationen, die durch das System ermittelt werden können, auszuhelfen. Im Zusammenhang eines leidenschaftlichen Glaubens an Technologie und maschinell orientiertes Ausführungseinsicht hat sich ein eingehender Beginn herausgebildet, aber alle Methoden sind fehlgeschlagen. Die Verwendung von den IT-Systemen hat sich mit dem Aufkommen wirksamer Controlling-Methoden, welche zur Unterstützung dienen, in den frühen 1970er Jahren zunehmend weiterentwickelt. Durch die neu entstandene Methode hat der Informationsbedarf der Entscheider eine zentrale Position bekommen somit wurde die Entwicklung von Managementinformationssystemen neu vorangetrieben, was zu einer grundlegenden Anpassung der Informationssysteme brachte (Kemper, Baars, & Mehanna, 2010, S. 1).
Die 1980er Jahre zeigten sich durch den wachsenden Einsatz von Computern in Unternehmen und einer besseren Benutzerfreundlichkeit bei der Anwendung von IT-Systemen durch Mäuse, Farbmonitore und verbesserte Auflösungen von Bildschirmen. Dies führte zu einer schnellen Verbreitung der elektronischen Daten innerhalb des Unternehmens und auch der Geschäftsleitung. Zunächst in den letzten Jahren konnte ein eindeutiges System, welches sich spezifisch auf bestimmte Projekte ausrichtet und erfolgreich in der Verwaltung anwenden lässt, entwickelt werden. In dem Wissen, dass die elektronische Entscheidungsunterstützungssysteme ganze und konsistente Datenbanken erfordern, damit sichere Informationen und Resultate erhalten werden können, erschien die Data Warehouse Methode, dessen Entwürfe mit der Zeit auch OLAP und Data Mining-Technologien mit sich brachte (Kemper, Baars, & Mehanna, 2010, S. 1-2).
Bereits Anfang der 90er Jahre wurde der Sammelbegriff Business Intelligence von einem Marktforschungsunternehmen Gartner Group gegründet. Gleichzeitig hat Business Intelligence seine Position in der Forschung und Praxis der Wirtschaftsinformatik weitgehend aufgebaut. Business Intelligence war anfänglich technologieorientiert und bewegte sich in eine Richtung ein gesammelter ganzheitlicher Ansatz für IT-basiertes Business Management, der zunehmend von Geschäft und Prozessen bestimmt wird (Kemper, Baars, & Mehanna, 2010, S. 2).
Business Intelligence beschreibt in der Geschäftsinformatik die Tools und Prozesse, die zum Sammeln, Verarbeiten und Analysieren unternehmensinterner und externer Daten verwendet werden. BI bezieht sich auf den Analyseprozess der Umwandlung verstreuter Wettbewerb- und Unternehmensdaten in handlungsbezogenes Wissen, der die Kapazität, Position, Aktion und das Ziel des betreffenden externen oder internen Aktionsfelds umfasst (Gómez, Rautenstrauch, & Cissek, 2009, S. 9).
Das Sammeln ist der Integrationsprozess von Daten aus verschiedenen Quellsystemen. Auf diese Weise können die Quelldaten im Data Warehouse weltumfassend angezeigt und ausgewertet werden. Bei Auswertung werden Daten mithilfe des Analyseprozesses erzeugt, die dazu dienen, kluge Entscheidungen für Unternehmen zu treffen. BI-Systeme sind heute eine wichtige Grundlage für die Realisierung einträglicher Geschäftsmodelle auf der Basis von Arbeitsteilung. Formate wie Cockpits, Portale, Dashboards und Score Cards können zur Anzeige von Daten genutzt werden. Diese stellen einen Mittelpunkt für eine Bestätigung der Resultate anhand von Auswertung und Sammlung. (Zerres & Reich, 2010, S. 484). Um deutlich zu machen, dass es im Unternehmen verwendet wird und Kunden, Partner sowie auch andere Stakeholder involviert sind, die durch Entscheidungsunterstützungsfunktionen ergänzt werden, wird der Begriff "Business Intelligence" manchmal erweitert, wie zum Beispiel "Enterprise Intelligence" und "Management von Unternehmensentscheidung" (Hummeltenberg, 2019).
Business Intelligence beinhaltet im Wesentlichen drei Technologien. Dies sind Data Mining, Data Warehouse (DWH) und Online Analytical Processing (OLAP). Um die Daten des Betriebssystems analysieren zu können, werden die Daten zunächst aus dem Quellsystem extrahiert und zusammengeführt dann in das Data Warehouse geladen (Müller & Lenz, 2013, S. 12-13).
Bei Anwendung von BI-Systemen kommen auch die damit verknüpften Technologien zum Einsatz. Beim Verzicht auf moderne Technologien sowie bei mangelnder Überwachung der IT-Entwicklung werden die Voraussetzungen der BI Benutzer nicht vollständig erfüllt. Derzeit sollte die Technologie jedoch nicht das Niveau sein, das alles dadurch abgedeckt und als einziges treibendes Element definiert wird. Hierzu werden die grundlegenden technischen Bestandteile von Business Intelligence dargestellt. In diesem Sinne besteht die Möglichkeit darin, das Ziel von Technologien zu veranschaulichen und das Verfahren der Daten von der Datenquelle zum richtigen Zeitpunkt zu zeigen, indem die Benutzer diese als Auskunft akzeptieren. Unter dieser Datenbank werden die externen Datenquellen und Betriebsinformationssysteme des Unternehmens verstanden. Diese Quellsysteme beinhalten Daten, welche für die Entscheidungsfindung benötigt und später in DWH aufgenommen werden (Gómez, Rautenstrauch, & Cissek, 2009, S. 19-20).
Auf der einen Seite bezeichnet das Data Warehouse eine konsistente Datenbank für die Berichterstellung, auf der anderen Seite für Anwendungen, wodurch die Daten automatisch verarbeitet werden können. Eine Rückkehr von Datenfluss in das operative System ist möglich. In der letzten Phase werden die Daten dem Bericht und schließlich den Entscheidungsträgern auf verschiedenen Managementebenen zur Verfügung gestellt. In der Abbildung 1 erscheinen die Business-Intelligence-Technologien und den dazugehörigen Datenflüssen (Gómez, Rautenstrauch, & Cissek, 2009, S. 19-20). Im folgenden Kapitel werden die BI-Technologien genauer beschrieben.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1: Darstellung von BI Technologien und deren Datenflüssen
(Gómez, Rautenstrauch, & Cissek, 2009, S. 20)
In Wissenschaft und Praxis ist der Begriff "Data Mining" relativ zu gleichen Bedeutung (wie "Knowledge Discovery" oder "Knowledge Mining") vorherrschend und wird häufig als bedeutungsgleich für "Knowledge Discovery aus einer Datenbank" (KDD) benutzt. Die Geschichte des Data Mining lässt sich bis Ende der 1980er und Anfang der 1990er Jahre zurückverfolgen. Data-Mining-Methoden wurden durch das Aufkommen von Software- und Hardwaretechnologien insbesondere für die Verarbeitung von Informationen in Unternehmen durchgehend verbessert (Gölzer, 2016, S. 60).
Das Hauptziel des Data-Mining-Verfahren ist es, unterschiedliche Arten von Daten zu trennen, um sie in eine passende und vernünftige Struktur für eine notwendige Nutzung umzuwandeln. Die Datenanalyse beschäftigt sich mit Erfassung bzw. Verarbeitung der Daten und hat die Aufgabe diese in den Mittelpunkt zu stellen. Die Datenanalyse steht für die Überprüfung des neuen Datenwissens, während die Datenanalytik für die Steuerung der Anwendungslogik der Analyse verantwortlich ist. Data Mining umfasst Methoden basierend auf wissenschaftliche Art und Vorgang sowie Systeme zum Sammeln vorher unbekannter Informationen, welche in der Datenbank abgelagert werden. Dies zielt darauf ab, im Unternehmen richtige und sinnvolle Entscheidungen zu treffen (Runkler, 2010, S. 4).
Aus dem Data Mining kann das Unternehmen seine Kunden sowie deren Geschäftsprozesse besser verstehen und neue Dienste bereitstellen. Angesichts der im Zeitalter von Internet, Mobilgeräten und Sensortechnologie stetig größer werdenden Datenmenge nimmt das Data Mining fortwährend mehr an Bedeutung für Unternehmen. Beim Data Mining werden Daten aus verschiedenen Perspektiven analysiert und zu nützlichen Informationen kombiniert, mit denen der Umsatz gesteigert, die Kosten gesenkt oder beides erreicht werden kann (Luber & Litzel, 2016).
Data Mining bietet eine universell einsetzbare und effektive Methode, mit der "die wichtigsten und aussagekräftigsten Muster aus einer großen Menge von Rohdaten automatisch identifiziert und den Benutzern als interessantes Wissen präsentiert werden können". Diese Rohdaten beinhalten Fehler, zudem sind sie teilweise unvollständig und irrelevant. Vor der eigentlichen Datenanalyse müssen die Daten aufbereitet oder eventuell eine Vorverarbeitung durchgeführt werden. Gewöhnlicherweise sind zu Beginn des Projektes keine Daten verfügbar, deswegen ist zuallererst für die Datenerfassung ein Plan zu erstellen und auszuführen (Runkler, 2010, S. 2-3).
Mit der Abbildung 2 werden fünf notwendigen Schritte veranschaulicht, die beim Data Mining Prozess vorkommen (siehe Abb. 2) (Müller & Lenz, 2013, S. 76). Im Folgenden werden diese Schritte näher erläutert.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2: Überblick von KDD Verfahren
(Müller & Lenz, 2013, S. 77)
- Selektion: Bei der Selektion werden die notwendigen Daten herausgesucht, mit denen das Ziel des Prozesses definiert werden können.
- Transformation: Bei diesem Schritt findet eine Umwandlung der Daten zur weiteren Analyse in eine aussagekräftige Form statt.
- Vorverarbeitung: Während dem Herrichten von Daten, werden die am Anfang des Verarbeitungsschrittes selektierten Daten für die nächsten Schritte der Analyse gefiltert.
- Data Mining: Hier erfolgt eine Analyse anhand von Data Mining Verfahren, um weitere Kenntnisse in Bezug auf das Vermessungsobjekt zu bestimmen und Muster sowie Verhältnisse in den Daten zu ermitteln.
- Interpretation: Das Modell lässt sich nach seiner Struktur oder Wirkung erklären und bezüglich seiner Anwendbarkeit bewerten. Dieses Modell dient der Vorbereitung und visueller Darstellung der Entscheidung (Müller & Lenz, 2013, S. 76).
2.1.3.1.1 Aufgaben von Data Mining
Die Aufgabe des Data Mining besteht darin, ein Modell zu entwickeln, das beschreibt, wie Daten klassifiziert und verifiziert werden. Das Modell kann die Form von Entscheidungsbaum, Regeln oder Clusterbeschreibungen annehmen. Es müssen ausreichende Daten bereitstehen, welches bedeutsame und wichtige Informationen beinhalten, damit ein Modell konstruiert wird (Meyer & Lüling, 2003, S. 3).
2.1.3.1.2 Data Mining Verfahren
- Klassifikationsanalyse: Die Klassifizierungsmethode bestimmt den Modus, um basierend auf den verfügbaren Informationen ein Ausdruck über das Objekt zu definieren. Zunächst werden die vorhandenen Objekte gemäß dem bekannten Attribut oder dem Verhalten, der zu analysierenden Aufgabe in verschiedene Kategorien unterteilt. Daraus entsteht ein Modell, welches als Klassifizierung definiert wird. Dies kann verwendet werden, um die Zugehörigkeit der Klassen neuer Objekte zu prognostizieren (Meyer & Lüling, 2003, S. 4). Der Zweck ist es, den Klassifizierungsbereiche zu minimieren oder die Bindung zu maximieren. Der Klassifikator dient der Zuordnung und dabei kann das in dem Zeitraum des Erlernens zu einer Überanpassung führen. Unter Überanpassung ist eine Einordnung der Trainingsdaten zu verstehen, die hochwertige Resultate bringen, jedoch für Testdaten negative Ergebnisse zeigen. Daher ist es vorteilhaft den vorhandenen Datensatz in Trainingsdaten und Testdaten durch Bipartitionierung oder Kreuzvalidierung gleichartig wie bei dem überwachten Lernen zu unterteilen. Die grundlegenden Methoden der Klassifizierungsanalyse sind künstliches, neuronales Netzwerk und Entscheidungsbaum (Müller & Lenz, 2013, S. 96).
- Assoziationsanalyse: In der Assoziationsanalyse hat der Data-Mining-Prozess die Aufgabe nach interessanten Abhängigkeiten zwischen verschiedenen Vermessungsobjekten zu suchen. Das erkannte Muster kann dann in Form einer Sprache identifiziert werden. Ein großer Bereich für die Anwendung der Assoziationsanalyse ist die Einkaufskorbanalyse in Supermärkten. Um das Kaufverhalten der Kunden analysieren zu können, werden Produkte, die vom Kunden gekauft wurden, innerhalb eines bestimmten Zeitraums überprüft und ermittelt. Hierzu ist es möglich die Verbindung zu verschiedenen Zeitpunkten zu identifizieren, weil die Analyse sich um die Zeitdimensionen ausbreiten lässt. Der Zweck dieser sogenannten sequenziellen Analyse besteht darin, die Zeitentfernung beim Einkauf zu ermitteln (Meyer & Lüling, 2003, S. 3). Auf dieser Weise unterscheiden sich die Abhängigkeiten in 4 Merkmalen.
1. Das zweite Attribut wird durch das erste Attribut entweder direkt oder indirekt beeinflusst.
2. Das zweite Attribut wird durch das erste Attribut beeinflusst.
3. Durch einen gemeinschaftlichen Grund werden die Attribute beeinflusst
4. Es existiert eine zufällige Beeinflussung von Attributen
Je nach Ziel darf der Schwellenwert für Unterstützung und Vertrauen zu keiner Schwäche kommen. Hierbei findet eine Filterung von bedeutenden Assoziationsregeln statt, die im Allgemeinen eine hohe Unterstützung und Zuversicht aufweist (Müller & Lenz, 2013, S. 91).
- Clustering: Der Zweck der Clusteranalyse besteht darin, ähnliche Objekte auf der Grundlage von Ähnlichkeitsmerkmalen in verschiedene Kategorien zu klassifizieren. Hier wird versucht, Objekte anhand von Entfernungsmessungen und unter Berücksichtigung vieler Eigenschaften so gleichmäßig wie möglich zu gruppieren. Außerdem ist eine Qualitätsfunktion erforderlich, die den Vergleich zwischen verschiedene Clusterformen bietet (Meyer & Lüling, 2003, S. 3-4).
Bei der Anwendung von Clustering kommen unbekannte Daten zum Einsatz, die weiterhin eine Ableitung benötigen. Aus diesem Grund gehört Clustering zum Bereich des unbeaufsichtigten Lernens. Bedeutende Aspekte, die die Qualität der Anpassung und Implementierung von Clusterqualität bestimmen, sind die Anzahl der Informationen und Clusterobjekte. Darüber hinaus können die Alternativen des Clusterverfahrens und der Entfernungsmessung beziehungsweise Ähnlichkeitsmessung für Paare von Objekten ausgewählt werden. Eine Strukturierung von Cluster-Methoden kann sich sowohl in hierarchischen als auch in unterteilten Prozessen spalten. Durch hierarchisches Clustering entsteht ein hierarchieüberschneidendes Cluster, aus dem ein Dendrogramm konstituiert wird, der alle Datenobjekte im Wurzelknoten kombiniert (Müller & Lenz, 2013, S. 86-88).
Der Begriff "Data Warehouse" wurde im Wesentlichen von William H. Inmon entwickelt. Im Vergleich zu herkömmlichen Methoden stellt das Data-Warehouse-Konzept eine wichtige Innovation dar. Bei den vorherigen Lösungen wurde die Modellierung der notwendigen Datenmaterialien als Teil des Entwicklungsprozesses eines einzelnen Informations-Technik-Systems betrachtet. Der Fokus liegt nun auf der Bereitstellung einer verteilten Datenbank für das gesamte Management-Support-Portfolio des Unternehmens (Kemper, Baars, & Mehanna, 2010, S. 9).
Das Data Warehouse ist ein logisch zentral verteiltes Datenspeichersystem, das von der Betriebsdatenbank getrennt ist. Im Idealfall kann das als konsistente Datenbank für alle Arten von Management-Support-Systemen im gesamten Unternehmen verwendet werden. Das DWH integriert und speichert große Datenmengen aus mehreren Quellen und stellt diese in den Mittelpunkt. Mithilfe von Analysefunktionen können Unternehmen wertvolle Geschäftsinformationen aus ihren Daten abrufen, um zuverlässige Entscheidungen treffen zu können. Hierzu können erforderlichen Informationen in verschiedenen Systemen intern oder auch extern verwendet werden. Das Data Warehouse ermöglicht nicht nur die Speicherung dieser Daten in einem zentralen System, sondern sie können auch in eine einheitliche Struktur umgewandelt und dann zusammengeführt werden (Alpar, Alt, Bensberg, & Weimann, 2019, S. 281).
Mit Data Warehouse ist es möglich, die Betriebsdaten von Analysedaten zu trennen. Dies bedeutet, dass die Durchführung von Berichterstellung und Analyse nicht im Betriebssystem (hauptsächlich ERP) erfolgen muss. Diese Daten werden extra in einem anderen Ort gelagert, um die Belastung des Systems möglichst gering zu halten (Luber, 2017).
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3: Struktur von Data Warehouse
(Müller & Lenz, 2013, S. 19)
Im Konzept der Datenversorgung wird der ETL-Prozess für die Datenübertragung im Data Warehouse definiert. Der Prozess ist wie folgt in drei Schritte unterteilt (vgl. Abb. 3) (Müller & Lenz, 2013, S. 18):
1. Extraktion: Hier werden Regeln erstellt, um das Quellsystem mit dem Data Warehouse zu verknüpfen und Daten zu übermitteln. Um dem Data Warehouse regelmäßig aktualisierte Daten bereitstellen zu können, findet ständige Aussortierung der Daten statt. Üblicherweise wird während des Extraktionsprozesses nur ein Teil der Quelldaten ausgewählt.
2. Transformation: Im zweiten Schritt werden die fehlende Rangordnung, Abmessungen und Schlüsselindikatoren genutzt, um die Daten anzusammeln. Auf diese Weise werden Werte basierend auf anderen Hierarchien oder neuen Dimensionsmerkmalen zusammengefasst, die zuvor im Quellsystem nicht verfügbar waren. Darüber hinaus kann eine Bewertung bisher fehlenden Neugeschäftsindikatoren stattfinden.
3. Laden: Das Ziel dieses Schrittes besteht darin, die überprüften Daten zu "laden". Hierbei werden die bereitgestellten Daten in DWH gesammelt. Sobald die Ladung erfolgt, werden sie langfristig an den Zielspeicherort verschoben, ohne die Datenbank anhaltend zu verhindern (Schön, 2018, S. 348-349).
2.1.3.2.1 Eigenschaften von Data Warehouse
Folglich wird die allgemeine Definition von Inmon verwendet, um das Data Warehouse unter den Hauptmerkmalen der technischen Integration und der technischen Konzepte zu veranschaulichen (Baars & Kemper, 2021, S. 19).
1. Themenorientierung: Die Datenspeicherung des Betriebssystems im Unternehmen basiert in der Regel auf der direkten Implementierung der Ablauforganisation. Die Speicherdaten des Data Warehouses sind für den Informationsbedarf des Managements geeignet. Es soll den Entscheider ermöglichen, Informationen in Hauptbereichen direkt zu erforschen (Baars & Kemper, 2021, S. 20).
2. Integration: Eine grundlegende Aufgabe beim Aufbauen eines Data Warehouse besteht darin, entscheidungsbezogene Daten aus verschiedenen Vorgängen und externen Ressourcen in eine Datenerfassung ohne Inhalt zu integrieren. Diese Aufgabe ist oft sehr kompliziert, da das Betriebssystem und das Datenverwaltungssystem, auf denen es im Laufe der Jahre entwickelt wurde, oft Datenredundanz und Widersprüchlichkeit aufweisen (Baars & Kemper, 2021, S. 20).
3. Zeitraumbezug: Für die Erhaltung der Managementunterstützung sind Daten erforderlich, die den Ausbau des Unternehmens in einer Zeitspanne darstellen und zur Identifizierung oder auch zur Überprüfung von Trends verwendet werden. Zu diesem Zweck erfolgt eine regelmäßige Anpassung von der Data Warehouse-Datenbank. Dieser Zeitpunkt zeigt eine Momentaufnahme vom letzten Update der Vorgänge im Unternehmen (Hahne, 2014, S. 2).
4. Beständigkeit: Hier werden die Daten nach der Eingabe nicht mehr geändert oder gelöscht. Stattdessen wird der Inhalt von Data Warehouse während des definierten Updates schrittweise angebaut. Im Gegenteil, wenn die Operationstransaktion ausgeführt wird, ändern sich die Daten in der Datenbank weiter. Sobald die Umsetzung zustande kommt, werden sie zum Teil gelöscht (Hahne, 2014, S. 2).
Data Marts stellen sich als kleinere Varianten des Data Warehouses dar, welche die Aufgabe haben, sich mit Befassung von separaten Angelegenheiten zu beschäftigen. Data Marts werden normalerweise benutzt, um die charakteristischen Anforderungen der Anwendungsdomäne zu erfüllen. Beispielsweise können Analyseanforderungen aus dem Bereich der Datenwissenschaft, Datenschutzrahmenbedingungen, Anforderungen für die mehrdimensionale temporäre Datenauswertung, Gründe für Mobilitäts- oder Leistungsanforderungen eine gesonderte Datenspeicherung in Form von Data Marts fördern oder erfordern. Data Marts können innerhalb von Tagen (statt Monaten oder Jahren) auf Informationen in Data Warehouse oder Betriebsdatenspeichern zugreifen und somit Geschäftsprozesse beschleunigen. Dies ist eine kostengünstige Möglichkeit, schnelle und wertvolle Auffassung zu gewinnen. Der Data Mart wird je nach Implementierung in verschiedene Abwandlungen unterteilt. Sie bieten eine Anwendung sowohl in Big Data als auch in klassischem relationalem Data Warehouse (Kemper H. G., 2018).
- Abhängige Data Marts: Untergeordnete Data Marts sind Datenextraktionen, die speziell aus vorgelagerten Datenpools (z.B. Data Lakes oder Core Data Warehouses) erstellt wurden. Nach diesem Konzept ist der Data Mart ein unverzichtbarer Bestandteil der fortschrittlichen Methode. Da der zugrunde liegende Datenpool kontinuierlich Daten vorbereitet, kann er koordinierte Daten für verschiedene Analysezwecke bereitstellen (vgl. Abb. 4) (Kemper H. G., 2018).
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 4: Abhängige Data Marts
(Hägele, 2004, S. 5)
- Unabhängige Data Marts: verwenden direkt interne und externe Betriebsdaten und bereiten sich auf verwandte Anwendungsbereiche vor. Der Grund für die Verwendung dieser Abwandlung liegt gewöhnlich darin, dass die Abteilung Informationen für einen bestimmten Bereich schneller bereitstellen muss. Wenn das Unternehmen keine umfassende Datenauswertung benötigt, lässt sich die isolierte Architekturvariante aus geschäftlicher Sicht sinnvoller gestalten. Die Hauptmängel unabhängiger Data Marts sind überflüssige Syntax und bedeutungsmäßig Konvertierung von Betriebsdaten sowie schlechte Vergleichbarkeit von Daten aus verschiedenen Data Marts (siehe Abb. 5) (Kemper H. G., 2018).
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 5: Unabhängige Data Marts
(Hägele, 2004, S. 6)
- Abgestimmte Data Marts: Eine weitere Option für unabhängige Abwandlung ist die Entstehung eines Data Marts mit geplanten bzw. koordinierten Daten- und Analysemodellen. Mit den Datensätzen kann die Ganzheit von Daten sichergestellt werden. Bei Verwendung dieser Architekturmethode müssen verschiedene Data Marts dieselben Quelldaten auch mehrmals verarbeiten. Darüber hinaus stößt dieses Konzept aufgrund des typischen anwendungsorientierten Datenspeichers, der nur für Data Marts gilt, häufig auf seine Grenzen. Die Daten werden absichtlich in einer für die Anwendungsklasse spezifischen Darstellung im Data Mart gespeichert, sodass die Zusammenführung im Allgemeinen ohne Informationsverlust durchlaufen kann (Kemper H. G., 2018).
Operational Datastore: Dies wird als Ausgangspunkt des DWH angesehen. Der Operational Datastore enthält die neuesten transaktionsbasierten Daten aus verschiedenen Betriebsquellsystemen und stellt sie für Anwendungen und Analysedienste zur Verfügung. Hierzu werden gewöhnlicherweise Daten transportiert, die kleinen und aktuellen Teil verfügen, welche mit der Entscheidungsfindung verbunden sind. Die Benutzer müssen wissen, was sich tatsächlich hinter diesen Daten versteckt, um gewisse Nachanalysen durchführen zu können. Hinweise über diese Daten werden in den Metadaten gelagert. Die „Daten zu den Daten“ definieren den Aufbau der Daten, deren Aufnahme sich im DWH und im ODS befindet. Die Trennung der Daten durchläuft üblicherweise mithilfe anderer Konvertierungsprozesse aus dem Core Data Warehouse (Baars & Kemper, 2021, S. 40).
OLAP steht für Online Analytical Processing und dieser Begriff wurde erstmals 1993 von E. F. Codd bekannt gegeben, als CODD sich dazu verpflichtet hatte, mehrdimensionale Ad-hoc-Analysemethoden zur dynamischen Auswertung von Unternehmensdaten anzuwenden.
Das Ziel dieser Methode ist es, den Benutzergruppen im Unternehmen die Alternative zu geben, den internen Datenbestand nach den zuvor definierten Dimensionen anpassungsfähig zu analysieren. Damit wird dem Management entscheidungsorientierte Informationen zur Verfügung gestellt (Linden, 2016, S. 148).
Im Kontext der OLAP-Analyse können die bestimmten Dimensionen als Perspektive eines Analyseraums verstanden werden, der sich über die zuvor definierte Anwendungsdomäne erstreckt und eine Vielzahl von Bewertungsoptionen bietet. Eine interaktive Vorbereitung dieser Bewertungsoptionen ist notwendig, damit Manager und Experten fallspezifische Analysen durchführen können. Bei dieser Art der mehrdimensionalen Analyse setzen sich die Daten ein, Unternehmen nahezu in Echtzeit auf Zusammenfassungs- und Zerlegungsebene zu planen und zu steuern. Hierzu wird eine Zuordnung in Form von OLAP-Cube unter Geschäftsvariablen, z, Zeit oder Geografie erläutert (vgl. Abb. 6) (Linden, 2016, S. 148).
[...]
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!
Kommentare