Masterarbeit, 2022
230 Seiten, Note: 1,3
Kurzfassung
Abstract
Inhaltsverzeichnis
Abbildungsverzeichnis
Tabellenverzeichnis
Abkürzungsverzeichnis
1 Einleitung
1.1 Problemstellung
1.2 Zielsetzung
1.3 Aufbau der Arbeit
2 People Analytics in der Personalentwicklung
2.1 Ausgewählte Aspekte zu People Analytics
2.1.1 Begriffsdefinition und Systematisierung von People Analytics
2.1.2 Abgrenzungzum Personalcontrolling
2.1.3 Reifegrade von People Analytics
2.1.4 Status Quo in Deutschland
2.2 Der Einsatz von People Analytics im Personalentwicklungsprozess
2.2.1 Vorgehen und Überblick über mögliche Einsatzbereiche
2.2.2 Strategische Bedeutung für Unternehmen
2.2.3 VorteilefürMitarbeiteraus Unternehmenssicht
2.3 Aktuelle Herausforderungen aus Unternehmenssicht
2.3.1 Big Data Qualität und fehlende Kompetenzen im HR
2.3.2 Gesetzliche und ethische Rahmenbedingungen
2.3.3 Widerständedurch Mitarbeiter
3 Akzeptanz KI-basierter Tools wie People Analytics durch Mitarbeiter
3.1 Theoretische Grundlagen derAkzeptanzforschung
3.1.1 Begriffsdefinition Akzeptanz
3.1.2 Entstehung und Formen von Akzeptanz
3.1.3 Ausgewählte Akzeptanzmodelle im Überblick
3.2 Voraussetzungen fürAkzeptanz bei Kl-basierten Entscheidungsprozessen
3.2.1 Vertrauen
3.2.2 Transparenz
3.2.3 Privatsphäreund Datenschutz
3.3 Ausgewählte Maßnahmen zur Erhöhung von Kl-Akzeptanz
3.3.1 Allgemeine Relevanz des Themas
3.3.2 Ganzheitliche Konzepte
3.3.3 ExplainableArtificial Intelligence
4 Empirische Untersuchung der Voraussetzungen für Akzeptanz von People Analytics
4.1 Wahl der Methodik und Vorgehensweise
4.1.1 Leitfadeninterviews als Befragungsmethode
4.1.2 Auswahl der Interviewpartner
4.2 Methodische Grundlagen und Analyseverfahren
4.2.1 Methodische Grundlagen der empirischen Untersuchung
4.2.2 Qualitative Inhaltsanalyse nach Kukartz und Vorgehensweise mit MAXQDA
5 Ergebnisbericht
5.1 Dokumentation desAuswertungsprozesses
5.2 Kategorienbasierte Auswertung entlang der Hauptkategorien
5.2.1 Hauptkategorie „Voraussetzungen für Akzeptanz“
5.2.2 Hauptkategorie „Wichtigste Voraussetzung für Akzeptanz“
5.2.3 Hauptkategorie „Verantwortung für Schaffen der Voraussetzungen“
5.2.4 Hauptkategorie „Konsequenzen bei Nicht-Erfüllen von Voraussetzungen“
5.2.5 Hauptkategorie „Emotionale Auswirkungen“
5.2.6 Hauptkategorie„Vorteilevon PeopleAnalytics“
5.2.7 Hauptkategorie „Einstellung zu akzeptanzsteigernden Maßnahmenmodellen“
5.2.8 Hauptkategorie „Akzeptanz KI-basierter Entscheidungen im Entscheidungsszenario“
5.2.9 Hauptkategorie „Hintergrundwissen zu People Analytics“
5.3 Zusammenfassung der Ergebnisse und Interpretation
6 Schlussbetrachtung
6.1 Herausforderungen
6.2 Handlungsempfehlungen
7 Fazit und Ausblick
Literaturverzeichnis
Anhang
Abb. 1. Reifegrade von People Analytics
Abb. 2. People Analytics als strategischer Wettbewerbsvorteil
Abb. 3. Analytisches Dreieck derAkzeptanz
Abb. 4. Ausschnitt aus dem KIAM
Abb. 5. Ablaufschema der inhaltlich-strukturierten Inhaltsanalyse
Abb. 6. Fallzusammenfassung Interview B1
Abb. 7. Hauptkategorien
Abb. 8. Hauptkategorie: Voraussetzungen fürAkzeptanz
Abb. 9. Hauptkategorie: Wichtigste Voraussetzung fürAkzeptanz
Abb. 10. Hauptkategorie: Verantwortung fürSchaffen derVoraussetzungen
Abb. 11. Hauptkategorie: Konsequenzen bei Nicht-Erfüllen von Voraussetzungen
Abb. 12. Hauptkategorie: EmotionaleAuswirkungen
Abb. 13. Hauptkategorie: Vorteile von People Analytics
Abb. 14. Hauptkategorie: Einstellung zu akzeptanzsteigernden Maßnahmenmodellen
Abb. 15. Hauptkategorie: Akzeptanz KI-basierter Entscheidungen im Entscheidungsszenario
Abb. 16. Hauptkategorie: Hintergrundwissen zu PeopleAnalytics
Abb. 17. Code-Hierarchie zu Voraussetzungen fürAkzeptanz
Abb. 18. Akzeptanzquadrat
Abb. 20. KI-Akzeptanz Modell KIAM
Abb. 21. Gesamtübersicht der Codes und Häufigkeiten 1/2
Abb. 22. Gesamtübersicht der Codes und Häufigkeiten 2/2
Tab. 1. Differenzierungzwischen Personalcontrolling und People Analytics
Tab. 2. Mögliche PeopleAnalytics-Fragestellungen in der Personalentwicklung
Tab. 3. Kernkompetenzen für People Analytics
Tab. 4. Ethische Risiken für Mitarbeiter
Tab. 5. Ethische Guidelines für vertrauenswürdige Kl
Tab. 6. Ausgewählte XAl-Tools
Tab. 7. Beispielhafte Kategoriendefinition
Tab. 8. Beispiel zurdirekten Kategorienbildung am Material
Tab. 9. Fallzusammenfassung B2
Tab. 10. Fallzusammenfassung B3
Tab. 11. Fallzusammenfassung B4
Tab. 12. Fallzusammenfassung B5
Tab. 13. Fallzusammenfassung B6
Tab. 14. Fallzusammenfassung B7
Tab. 15. Fallzusammenfassung B8
Tab. 16. Fallzusammenfassung B9
Tab. 17. Fallzusammenfassung B10
Tab. 18. Fallzusammenfassung B11
Tab. 19. Fallzusammenfassung B12
Tab. 20. Recording 1
Tab. 21. Recording 2
Tab. 22. Recording 3
Tab. 23. Recording 4
Tab. 24. Recording 5
Tab. 25. Recording 6
Tab. 26. Recording 7
Tab. 27. Recording 8
Tab. 28. Recording 9
Tab. 29. Recording 10
Tab. 30. Recording 11
Tab. 31. Recording 12
Abbildung in dieser Leseprobe nicht enthalten
People Analytics gilt als einer der großen globalen HR-Trends für das Jahr 2022 (Bersin, 2021; Insight 222, 2022). Unter Einsatz von künstlicher Intelligenz werden Personaldaten analysiert und evidenzbasierte Schätzungen erstellt (Fischer et al., 2018, S. 112-113). Laut der renommierten Personalberatung ,Josh Bersin Company' sind Unternehmen, die PeopleAnalytics einsetzen, nicht nur wirtschaftlich erfolgreicher, sondern auch anpassungsfähiger (Bersin, 2021). Weiterhin erscheinen sie attraktiver für Bewerber und haben mehr Erfolg bei der Bindung von Mitarbeitern. Die letzten zwei Jahre haben deutlich gezeigt, dass die Fähigkeit zur Anpassung und die Sicherung der besten Arbeitskräfte im ,War for Talents'3 für Unternehmen essentiell ist, um in der ,VUCA'4 -Welt weiterhin wettbewerbsfähig zu bleiben und die ,Great Resignation'5 zu bewältigen (Nigam, 2021).
In Deutschland ist People Analytics noch nicht weit verbreitet. Im Jahr 2020 lag der Grad der Implementierung bei 13 % (Katzera & Leusch, 2020). Geht man der Ursache der geringen Verbreitung auf den Grund, stößt man auf Barrieren, die viele Unternehmen an einer Umsetzung hindern. Vor allem Bedenken hinsichtlich einer Reaktanz der Mitarbeiter stellen eine erhebliche Hürde dar. Zu groß ist die Befürchtung, dass die Belegschaft aus Angst vor Datenmissbrauch oder den Entscheidungen durch künstliche Intelligenz (KI)6 einen Einsatz von People Analytics nicht akzeptiert.
Entlang der HR-Wertschöpfungskette ist besonders der Einsatz im Bereich Personalentwicklung herausfordernd, da Mitarbeiter dort direkt mit der Entscheidung eines People Analytics-Tools konfrontiert werden. Reaktanz hat hier weitreichende Folgen, die von einer Verschlechterung des Arbeitsklimas, bis hin zu Streiks und Kündigungen reichen (Hans Böckler Stiftung, 2019). Der vermeintliche Wettbewerbsvorteil durch die Implementierung von People Analytics schlägt kurzerhand in einen Nachteil um. Unternehmen stehen vor der Herausforderung, einem zukunftsträchtigen Trend zu folgen, diesen aber auch effizient und auf nachhaltige Art und Weise umzusetzen.
Es stellt sich die Frage, unter welchen Voraussetzungen People Analytics in der Personalentwicklung von Mitarbeitern akzeptiert wird. In der Akzeptanzforschung gibt es bereits einige Erkenntnisse und Modelle zu KI-Akzeptanz (Scheuer, 2020). Diese beleuchten jedoch hauptsächlich die Perspektive der Anwender von KI-basierten Tools. Um die für Mitarbeiter erforderlichen Voraussetzungen zu formulieren, gilt es, die Perspektive der Betroffenen zu analysieren, indem diese selbst befragt werden. Erst dann können Voraussetzungen für Akzeptanz identifiziert und geeignete Handlungsempfehlungen abgeleitet werden.
Das Ziel dieserArbeit ist es, herauszufinden, welche Voraussetzungen Mitarbeiter fordern, um einen Einsatz von People Analytics im Bereich Personalentwicklung zu akzeptieren. Hierzu werden im Rahmen einer qualitativ-empirischen Untersuchung Leitfadeninterviews mit einer ausgewählten Zielgruppe durchgeführt und im Anschluss einer qualitativen Inhaltsanalyse nach Kuckartz (2018) unterzogen. Es soll festgestellt werden, welche Voraussetzungen aus direkter Perspektive der Mitarbeiter erforderlich sind. Zudem sollen sowohl ein ganzheitlicher Blick auf Einstellungen und Gefühle der Befragten zu People Analytics generiert, als auch mögliche Konsequenzen bei Reaktanz dargestellt werden. Aus den Ergebnissen sollen erste Hypothesen formuliert und Handlungsempfehlungen für Unternehmen hinsichtlich der aktuellen Herausforderungen im Rahmen der Untersuchungsergebnisse entwickelt werden.
Diese Masterarbeit ist in sieben Kapitel untergliedert. Im ersten Kapitel wird ein aktueller Bezug zur Thematik hergestellt und die Problemstellung erläutert. Die Forschungsfrage wird definiert. Weiterhin werden Zielsetzung und Aufbau der Arbeit erklärt. Die Kapitel zwei und drei sind der theoretische Teil derArbeit. Es erfolgt eine kritische Auseinandersetzung mit themenrelevanter Literatur. Kapitel zwei bietet einen Überblick über People Analytics im Bereich Personalentwicklung. Ausgewählte Begrifflichkeiten werden definiert und abgegrenzt. Chancen und Möglichkeiten eines Einsatzes von People Analytics werden dargestellt. Außerdem werden aktuelle Herausforderungen aus der Sicht von Unternehmen aufgezeigt. In Kapitel drei geht es um die Akzeptanz KI-basierter Tools. Zunächst wird in die Theorie der Akzeptanzforschung eingeführt. Danach werden die Voraussetzungen zur Akzeptanz KI-basierter Entscheidungsprozesse dargelegt. Es werden ausgewählte Maßnahmen zur Erhöhung von KI-Akzeptanz vorgestellt. Das vierte Kapitel beschreibt das methodische Vorgehen bei der empirischen Untersuchung. Die Wahl der Methodik und die Auswahl der Interviewpartner werden begründet, sowie Erhebung und Auswertung der Daten erläutert. Die methodischen Grundlagen der empirischen Untersuchung werden dargestellt und die Wahl des Analyseverfahrens wird erklärt. Kapitel fünf beinhaltet den Ergebnisbericht. Dieser besteht aus der gesamten Dokumentation des computergestützten Auswertungsprozesses, der kategorienbasierten Auswertung entlang der Hauptkategorien und einer Zusammenfassung und Interpretation der Ergebnisse. In Kapitel sechs werden die aus den Ergebnissen resultierenden Herausforderungen aufgezeigt und Handlungsempfehlungen abgeleitet. Das letzte Kapitel beinhaltet das Fazit und gibt einen reflektierten Ausblick.
Recherchiert man zu People Analytics, stößt man mit Verwendung desselbigen Such-Terminus sowohl in Fachbüchern, als auch in online publizierten Fachartikeln und Studien auf eine Vielzahl von Begriffen, die synonym verwendet werden. Bei der Beschreibung und Definition von People Analytics werden sinnverwandt Begriffe wie z.B. Human Resource Analytics, oder kurz HR Analytics, Data Analytics, Workforce Analytics und Talent Analytics genutzt und nur teilweise wird durch die Autoren in unterschiedlicher Art und Weise differenziert (Blum, 2021, S. 55-59; Gutmann, 2019, S. 251; Marler & Boudreau, 2017). Eine konkrete Zuordnung bzw. Unterscheidung der Begrifflichkeiten ist nicht eindeutig, auch wenn einige Stimmen aus der Praxis bereits auf die Notwendigkeit dieser hinweisen.7
Die Schwierigkeit hinsichtlich einer klaren Abgrenzung der Begriffe resultiert daraus, dass wir uns im Zeitalter der Digitalisierung mit einer erheblichen Daten- und Informationsflut konfrontiert sehen, die viele neue Möglichkeiten für den Einsatz im HR-Bereich bietet (Harbinger, 2022). Potenzielle und erfolgsversprechende HR-Trends werden von verschiedenen Verantwortlichen neu betitelt, können aber durch die noch fehlende wissenschaftliche Fundierung nicht klar definiert und abgegrenzt werden. Es ergibt sich eine unüberschaubare Vielfalt an Bezeichnungen, welche vom interessierten Leser zunächst selbst interpretiert werden müssen. Auch hat man sich in der Forschung und Wissenschaft noch nicht auf eine einheitliche Begriffsverwendung festgelegt. Somit sind die o.g. Begriffe aktuell noch austauschbar und werden synonym verwendet (Harbinger, 2022).
Die Universitätsprofessoren Marler und Boudreau (2017) verdeutlichen diesen Aspekt in ihrer systematischen Untersuchung zum Thema HR Analytics. Sie identifizierten aus den im ersten Absatz dieses Kapitels genannten Begrifflichkeiten den Term HR Analytics, als die am häufigsten genutzte Bezeichnung in der Fachliteratur. Aus diesem Grund steht in ihrer Untersuchung der Begriff HR Analytics sinngebend für People Analytics. Sie definieren HR Analytics bzw. People Analytics als: “A HR practice enabled by information technology that uses descriptive, visual and statistical analyses of data related to HR processes, human capital, organizational performance, and external economic benchmarks to establish business impact and enable data-driven decision making." (Marler & Boudreau, 2017, S. 15).
Auch die Autoren des IW (Institut der deutschen Wirtschaft) -Reports aus dem Jahr 2019 nutzen die Vorgehensweise Marler und Boudreaus, um People Analytics begrifflich zu verorten. In einer explorativen Datenanalyse und Literaturrecherche identifizieren sie ebenfalls HR Analytics bzw. Human Resource Analytics als den am häufigsten verwendeten Begriff im Themenfeld People Analytics (Hammermann & Thiele, 2019). Weitere deutschsprachige Autoren wie Mühlbauer et al. (2018) beziehen sich in ihrer Forschung zu People Analytics häufig auf Marler und Boudreaus Definition. Sie beschreiben People Analytics als „die zielgerichtete Nutzung von Daten und Datenanalysen zur Entscheidungsfindung im Personalmanagement.1 ‘(Mühlbauer et al., 2018, S. 108). Die Begriffsbestimmung der Autoren orientiert sich an den neuen Möglichkeiten der Datenanalyse, die durch das Anfallen großer Datenmengen und neuerdigitalerTechnologien entstehen.
Es lässt sich feststellen, dass die Definition nach Marler und Boudreau in erster Linie bezeichnend für den Term HR Analytics ist, und dass der Begriff People Analytics bei näherer Betrachtung eine speziellere Betrachtungsweise bzw. Abgrenzung erfordert. Für das weitere Verständnis im Rahmen dieser Arbeit ist es wichtig, den Begriff klar zu definieren. Hier erscheint ein Blick auf das Unternehmen Google als sehr hilfreich. Google beschloss bereits im Jahr 2006: „All people decisions at Google are based on data & analytics“, und gründete damals das interne People Analytics Department (Setty, 2014). Zwei Jahre später identifizierte das People Analytics-Team unter Lazlo Block und Prasad Setty mit dem .Project Oxygen' wichtige Eigenschaften für Führungserfolg anhand datengestützter und KI-basierterAnalysen von Personaldaten. Damit leistete Google einen wertvollen Beitrag zur Führungsforschung (Harell & Barbato, 2018). Es wird deutlich, dass derTerminus .People Analytics' im Wesentlichen durch Google geprägt wurde. Dies bestätigt auch der HR-Experte John Sullivan persönlich (Dr. J. Sullivan, HR thought-leader, E-mail vom 04.02.2022). Bereits 2013 hob Sullivan in einem Blogbeitrag hervor, dass Google mit seinem außergewöhnlichen Personalmanagement in Form von People Analytics als Wegbereiter dieser neuen HR-Funktion gilt (Sullivan, 2013). Auch Marler und Boudreau bringen den Terminus erst mit John Sullivans Blogbeitrag über Google aus dem Jahr 2013 in Verbindung (Marler & Boudreau, 2017). Google selbst bezeichnet People Analytics als: „Using a data-driven approach to inform your people practices, programs and processes. Understand how knowledge of social and data sciences can help you make more informed, objectivepeopledecisions.” (Google, n.d.).
Eine weitere Definition, die spezifisch und passgenau erscheint, stellt das Expertenkompendium der .Oxford University Press' zur Verfügung (Caughlin, 2020). Das Kompendium beschreibt People Analytics als systematischen Prozess, bei dem durch Methoden der quantitativen und qualitativen Analyse mitarbeiterbezogener Daten eine verbesserte und nachhaltigere Entscheidungsfindung erlangt werden kann. Was People Analytics dabei von HR Analytics unterscheidet, ist der Fokus auf die verhaltenswissenschaftliche Komponente und der erweiterte Fokus auf den Mitarbeiter.
Die Autoren einer Kienbaum Studie aus dem Jahr 2020, mit dem Titel „Winning with People Analytics“, definieren People Analytics wie folgt: „Einsatz von Data Science und empirischen, sowie psychometrischen Methoden, um datenbasierte Entscheidungen über alle HR-Prozesse hinweg zu ermöglichen.“ (Katzera & Leusch, 2020).
In allen Definitionen kann man Gemeinsamkeiten und Muster erkennen. Es geht in erster Linie darum, dass Personaldaten intelligent erhoben und ausgewertet werden. Dabei steht die evidenzbasierte Entscheidungsfindung im Fokus, d.h., Personalentscheidungen werden nicht aus dem Bauchgefühl heraus getroffen, sondern basieren auf Daten und Analysen. Entscheidungen sollen objektiver, besser und nachhaltiger sein. Weiterhin spielen bei der Verwendung von People Analytics die Unterstützung durch künstliche Intelligenz, Machine Learning8 und die Verwendung von Big Data9 eine zentrale Rolle.
Nach Kombinatorik derverschiedenen Definitionen hinsichtlich ihrer Übereinstimmung wird der Begriff People Analytics im Rahmen dieserArbeit konkret definiert als:
Die durch künstliche Intelligenz unterstützte und aufAlgorithmen basierende quantitativ oderqualitativprädiktive Analyse undAuswertung von intern gesammelten personenbezogenen Daten und extern zurVerfügung stehenden großen Datenmengen (Big Data), um evidenzbasierte, personalbezogene Entscheidungen treffen zu können, mit dem Ziel ein verbessertes Personalmanagement mit Fokus aufden Mitarbeiterzu betreiben und nachhaltigen Unternehmenserfolg zu generieren. (Eigenes Zitat)
Kritische Stimmen könnten behaupten, dass People Analytics wieder nur ein neuer Trend sei, oder Personalcontrolling im neuen digitalen Gewand. Inwiefern People Analytics jedoch weit über das klassische Personalcontrolling hinausgeht, soll im folgenden Kapitel erläutert werden.
Controlling hielt in den 1980erJahren erstmals Einzug in deutsche HR-Abteilungen und ist seitdem ein wichtiger Bestandteil der HR-Wertschöpfungskette (Reindl & Krügl, 2017, S. 31-32). Nach Gerlach (2020, S.19) bezeichnet der allgemeine Begriff „Controlling“ ein System der Planung, Steuerung, Kontrolle und Informationsaufbereitung. Personalcontrolling im Speziellen wird hierbei definiert als eine Teilfunktion des Personalmanagements, welche die Verantwortung für ein optimales Verhältnis zwischen personalem Aufwand und Ertrag trägt (Armutat, 2013, S. 19).
People Analytics hingegen ist ein relativer neuer Ansatz, der sich im Großteil der deutschen Unternehmen10 noch nicht etabliert hat. In seinen vielfältigen Einsatzmöglichkeiten und seiner Wirkweise hebt sich People Analytics deutlich vom klassischen Personalcontrolling ab. Nachfolgend wird erläutert, in welchen Gesichtspunkten sich Personalcontrolling von People Analytics unterscheidet.
In der HR-Wertschöpfungskette von Unternehmen wird Personalcontrolling als sog. Service HR- Prozess eingestuft und leistet seinen Wertschöpfungsbeitrag als unterstützender Prozess für die operativen und steuernden HR-Prozesse (Petry & Jäger, 2018, S. 62). Das klassische Personalcontrolling ist hauptsächlich in HR-Abteilungen angesiedelt und basiert auf der Arbeit mit Kennzahlensystemen, wie beispielsweise der .Balanced Scorecard',11 um durch die Analyse von IST-Zuständen Prozesse im Unternehmen zu optimieren oder Kosten einzusparen. Hierbei wird mit deskriptiven Analyseverfahren gearbeitet (Gerlach, 2020, S. 95-111; Di Claudio, 2019, S. 43).
Personalcontrolling betrachtet den Mitarbeiter in erster Linie als Kostenfaktor, People Analytics hingegen als Erfolgsfaktor (Reindl & Krügl, 2017, S. 36). Es werden Fragestellungen formuliert, die den Mitarbeiter nicht ausschließlich in Bezug auf Kosten untersuchen. Eine Analyse tiefergehender Korrelation zwischen verschiedensten Variablen wird angestrebt.
Dabei kann People Analytics als prädiktiver Ansatz und durch die Anwendung multivariater Analyseverfahren Wirkungszusammenhänge aufdecken, die durch deskriptive Analyseansätze eines klassischen Personalcontrollings nicht nachgewiesen werden können (Reindl & Krügl, 2017, S. 2934). Dazu arbeitet People Analytics verglichen zum Personalcontrolling nicht nur mit internen, sondern auch mit externen Daten aus unternehmensfremden Quellen. Die Daten werden zu großen Teilen auch selbst erhoben, wohingegen die Arbeit im Personalcontrolling sekundäranalytisch erfolgt (Reindl & Krügl, 2017, S. 29-34).
Während Personalcontrolling meist als eigener Bereich im HR angesiedelt ist, erstreckt sich People Analytics über die gesamte Wertschöpfungskette der HR-Prozesse (Reindl & Krügl, 2017, S. 213). Indem es Daten und Prozesse aus verschiedenen Quellen kombiniert, agiert es als abteilungsübergreifende Schnittstelle im Unternehmen. Dabei kann der Einsatz von People Analytics auch unterjährig und in Form einzelner Projekte erfolgen, wohingegen Personalcontrolling als fester Bestandteil der HR-Prozesse eines Unternehmens durchgängig ausgeführt wird. Zudem sind bei einem Einsatz von People Analytics erweiterte Kenntnisse im Bereich Mathematik und Statistik, sowie Programmierung, als auch weiteres interdisziplinäres Fachwissen notwendig (Reindl & Krügl, 2017, S. 213).
Im Personalcontrolling können konzeptionell drei Ebenen unterschieden werden: operatives, strategisches und normatives Personalcontrolling (Stierle et al., 2017, S. 3-4). Operatives Personalcontrolling ist kurz- bis mittelfristig ausgelegt und konzentriert sich auf die Analyse von greifbaren Kennzahlen, wie Aufwand und Ertrag. Im strategischen Personalcontrolling werden weiche Kennzahlen wie beispielsweise die Mitarbeitermotivation untersucht oder Potenzialanalysen durchgeführt. Zuletzt betrachtet das normative Personalcontrolling ethische und personenbezogene Fragestellungen und unterstützt damit Entscheidungen zur langfristigen Ausrichtung des Unternehmens.
Rein konzeptionell und definitorisch betrachtet, ließe sich People Analytics im Bereich des strategischen, sowie normativen Personalcontrollings einordnen, jedoch nicht auf der operativen Ebene. Auch wenn einige Unternehmen dazu verleitet sind, operative Funktionen des Personalcontrollings als People Analytics zu deklarieren, ist dies in keiner Weise zielführend. Wie sich People Analytics hinsichtlich seiner Entwicklungsstufen genau unterscheidet, wird in Kapitel 2.1.3 erläutert.
Tabelle eins fasst die grundlegenden Unterschiede zwischen People Analytics und Personalcontrolling noch einmal zusammen.
Tab. 1. Differenzierung zwischen Personalcontrolling und People Analytics
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Eigene Darstellung in Anlehnung an: Katzera und Leusch, 2020, S.6, sowie Reindl und Krügl, 2017, S. 35-43.
Die verschiedenen Ebenen von People Analytics werden als sog. Reifegrade bezeichnet (Bersin, 2013). Die Grundlage zur Entwicklung aktueller Reifegradmodelle zu People Analytics bilden die Arbeiten von Bersin (2013). In seinem .Bersin by Deloittes Talent Analytics Maturity Model' unterscheidet er vier Level von Talent Analytics12:
- Level eins : ,Reactive - Operational Reporting“, operationales Reporting, welches als Reaktion auf Umwelteinflüsse initiiert wird.
- Level zwei: Vorausschauende Analysen unter dem Stichwort ,Proactive - Advanced Reporting“.
- Level drei: ,Strategic Analysis“, die Analyse von Kausalzusammenhängen.
- Level vier: Predictive Analysis“, Zukunftsszenarien werden entwickelt und Risikoanalysen durchgeführt (Bersin, 2013).
Holthaus et al. (2015, S. 678) ergänzen in ihrem Diskussionsbeitrag zu People Analytics das Modell von Bersin mit Level fünf, Prescriptive Analytics“. Erst in dieser letzten Stufe werden die für People Analytics so kennzeichnenden, auf künstlicher Intelligenz basierenden und automatisierten Verfahren angewendet. Von den Autoren wird diese Stufe als Advanced People Analytics“ bezeichnet (Holthaus et al.,2015, S. 678).
In Hinblick auf den verhaltenswissenschaftlichen Aspekt von People Analytics entwickelten Fischer et al. (2018, S. 109) auf Basis von Bersins Arbeiten ein dreistufiges Reifegradmodell. Sie unterscheiden die folgenden Reifegrade: Einfaches People Analytics, fortgeschrittenes People Analytics und prädiktives People Analytics (vgl. Abb. 1). Dabei stellt prädiktives People Analytics die höchste Entwicklungsstufe im Reifegradmodell dar. Zur Generierung von Prognosen wird im dritten Reifegrad die verwendete Methodik aus den vorhergehenden Stufen mit Verfahren aus dem Bereich KI kombiniert. Das Reifegradmodell ist das aktuellste, weswegen es nachfolgend näher betrachtet und kritisiertwird (Fischeret al., 2018, S. 109-113).
Abb. 1. Reifegrade von People Analytics
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Eigene Darstellung in Anlehnung an: Fischer et al., 2018, S. 109-113.
Vergleicht man die Erkenntnisse zur Differenzierung zwischen Personalcontrolling und People Analytics aus Kapitel 2.1.2 und die Einstufung in Reifegrade nach Fischer et al. (2018, S. 109-113), wird deutlich, dass People Analytics, wie in Kapitel 2.1.1 definiert, erst ab Reifegrad II beginnt. Reifegrad I ist dabei vollständig dem operativen Personalcontrolling zuzuordnen, Reifegrad II zeigt neben ersten Ansätzen zum professionellen People Analytics noch starke Übereinstimmungen mit strategischem Personalcontrolling. Hervorzuheben ist, dass erst in Reifegrad III, dem prädiktiven People Analytics, der entscheidende Einsatz von auf KI basierenden automatisierten Entscheidungsprozessen erfolgt. Auch wenn People Analytics in seinen Ansätzen bereits Reifegrad II zugeordnet werden kann, stellt, der im Rahmen dieser Arbeit erstellten Definition von People Analytics zufolge, ausschließlich Reifegrad III professionelles People Analytics dar. Folglich basiert die im Rahmen dieser Arbeit erfolgte qualitative Untersuchung auf People Analytics mit Reifegrad III.
Auf welcher Stufe des Reifegradmodells People Analytics-Projekte aktuell in deutschen Unternehmen vorangetrieben werden, soll nachfolgend erläutert werden.
People Analytics scheint sich in den HR-Abteilungen nordamerikanischer13 Unternehmen etabliert zu haben. In einer Umfrage des ,HR. Research Institute' (2021) zum Thema ,The State of HR Ana- lytics 2021“ wurden über 302 HR-Professionals aus Unternehmen verschiedener Größen zum Einsatz von People Analytics befragt. Dabei gaben 34 % der Befragten an, neben deskriptiven auch prädiktive Analysemethoden in mäßigem Ausmaß zu verwenden und 43 % erklärten, dass sie zudem mit präskriptiven Analyseverfahren in mäßigem Ausmaß arbeiten würden. Davon gaben 15 % an, prädiktive und präskriptive Analysen in hohem Ausmaß zu nutzen (HR. Research Institute, 2021).
Bei der Verwendung von People Analytics in deutschen Unternehmen zeichnet sich ein differenzier- teres Bild ab. Hierzu bietet eine Kienbaum Studie aus dem Jahr 2020 wertvolle Einblicke (Katzera & Leusch, 2020). In einer Umfrage zum Einsatz von People Analytics in Unternehmen wurden 50014 Teilnehmer befragt, 92 % Prozent davon direkt aus dem HR-Bereich stammend. Hierbei erklärten 74 % der Teilnehmer zwar, dass sie dem Thema People Analytics eine hohe Relevanz zuschreiben würden, jedoch gaben nur etwa 13 % der Befragten auch eine Verwendung von People Analytics in Form prädiktiver Analysen an. Insgesamt nutzten alle der befragten Teilnehmer HR-Reporting- Tools, insgesamt 51 % gaben die zusätzliche Durchführung deskriptiver Analysen an und in Addition verwendeten 23 % inferenz-statistische Verfahren.
Der Implementierungsgrad von People Analytics mit Reifegrad III ist in deutschen Unternehmen in direktem Vergleich sehr niedrig. Größtenteils wird People Analytics entlang der Reifegrade I bis II praktiziert. Dass die Unternehmen dem Thema zwar eine hohe Relevanz zuschreiben, die notwendigen Prozesse aber nicht umsetzen, zeigt wiederholt die Schwierigkeit der Einordnung bzw. der Abgrenzung von People Analytics im Vergleich zum Personalcontrolling auf. Dies führt dazu, dass oftmals Prozesse, wie beispielsweise deskriptive Analysen, als People Analytics deklariert werden, obwohl diese nicht Reifegrad III entsprechen.
In der Kienbaum Studie erklärten zumindest 64 % der Befragten, People Analytics langfristig implementieren zu wollen (Katzera & Leusch, 2020). Dabei definierten die Befragten fünf HR-Felder mit absteigender Relevanz, die zukünftig am stärksten von People Analytics beeinflusst würden:
- Strategische Personalplanung
- Recruiting
- Personalentwicklung
- TalentManagement
- Performance Management (Katzera & Leusch, 2020).
Als Gründe für Schwierigkeiten bei einer Umsetzung gab über die Hälfte der Befragten an, dass es Barrieren gibt (Katzera & Leusch, 2020). Vor allem im internationalen Vergleich spielen verschiedene Einflussfaktoren hinsichtlich Datenschutz und geltender Rechtsprechung eine große Rolle. Näheres zu dieser Problemstellung wird in Kapitel 2.3 erläutert.
Das nachfolgende Kapitel widmet sich zunächst drei der in der Kienbaum Studie als relevant definierten HR-Feldern: Personalentwicklung, Talent Management und Performance Management. Diese werden unter dem Oberbegriff Personalentwicklung zusammengefasst. Wie People Analytics im Personalentwicklungsprozess eingesetzt werden kann und welche Vorteile sich für Unternehmen und Mitarbeiter bieten, soll nachfolgend dargestellt werden.
Startet man ein People Analytics-Projekt, gilt es zunächst, eine klare Forschungsfrage zu formulieren (Fischer et al., 2018, S. 125-130). Dazu werden durch ein Team im Vorfeld die zu erreichenden Ziele definiert. Stehen Ziele und Forschungsfrage fest, werden im weiteren Schritt die zu erhebenden oder zu verwendenden Daten festgelegt. Sowohl zur Datenerhebung als auch späteren Auswertung nach Reifegrad III ist eine spezielle, programmierfähige Software wie beispielsweise Python15 notwendig. Professionelle Anwender können theoretisch auch mit Excel arbeiten, spezielle People Analytics-Tools erleichtern die Arbeit jedoch deutlich. Die Erhebung und Auswertung erfolgt entlang der Reifegrade I-III, da die Analysen aufeinander aufbauen, bzw. zunächst Teilfragen beantwortet werden müssen. Evidenzbasierte Ergebnisse zur Erstellung von Prognosen erhält man jedoch erst nach Durchlaufen von Reifegrad III, nachdem die gesammelten und teilweise bereits ausgewerteten Daten kombiniert und durch fortgeschrittene Analysen ausgewertet wurden (Fischer et al., 2018, S. 125-130).
Aus den Ergebnissen lassen sich im Anschluss fundierte Prognosen erstellen und neue Prozesse und Modelle entwickeln. Die Forschungsfragen können aufeiner klaren wissenschaftlichen Fundierung beantwortet werden und basieren nicht auf willkürlichen Entscheidungen von Vorgesetzten oder dem Bauchgefühl von Personalmanagern.
Ein People Analytics-Projekt ist theoretisch entlang der kompletten HR-Wertschöpfungskette möglich. Während in der Kienbaum Studie fünf spezifische HR-Felder für den Einsatz von People Analytics definiert werden (vgl. Kap. 2.1.4.), fokussieren sich Hammermann und Thiele (2019, S. 18-20) aufdie Schwerpunkte Personalbeschaffung, Personalentwicklung und -führung. In der Personalbeschaffung wirkt People Analytics zielführend bei der Auswahl der richtigen Bewerber. Als mögliche Einsatzfelder in der Personalentwicklung definieren die Autoren Fragestellungen zu Arbeitszufriedenheit, Erhöhung von Lern- und Veränderungsbereitschaft, Gründe für Kündigungen, Determinanten guter Führung, sowie Kompetenzaufbau und -erhalt (Hammermann & Thiele, 2019, S. 18-20). Diese von Hammermann und Thiele (2019) genannten möglichen Fragestellungen zu People Analytics repräsentieren die übergeordneten Ziele in der Personalentwicklung nach Mentzel (2018, S. 20-22). Dabei sind nicht nur die unternehmensseitigen Ziele von Bedeutung, sondern auch die der Mitarbeiter. Dies wird bei der näheren Betrachtung des Begriffs Personalentwicklung deutlich.
Personalentwicklung wird definiert als die „systematische Förderung und Weiterentwicklung der Mitarbeiter“ (Mentzel, 2018, S.13). Zu ausgewählten Zielen der Personalentwicklung zählen unternehmensseitig: Verbesserung von Leistung und Motivation der Mitarbeiter, Sicherstellung kompetenter personeller Ressourcen und die Erhöhung der Akzeptanz für Veränderungsmaßnahmen. Für die Mitarbeiter sollen sich vor allem folgende Vorteile ergeben: Selbstverwirklichung und Arbeitszufriedenheit, Entwicklung der Persönlichkeit und die Sicherung von Arbeitsplatz und Einkommen. Beteiligte Stakeholder im Personalentwicklungsprozess sind die Unternehmensleitung, Personalentwickler, die zuständigen Führungskräfte, der Betriebsrat und die jeweiligen Mitarbeiter (Mentzel, 2018, S. 20-23).
Bei einem Großteil der Unternehmen basiert der klassische Personalentwicklungsprozess jedoch immer noch auf einfachen Soll-Ist-Vergleichen und bindet den Mitarbeiter so gut wie gar nicht ein (Hoffmann, 2018, S. 96-105). Maßnahmen werden durch einfache Bedarfsanalysen und aus den Unternehmenszielen abgeleitet, oder durch Vorgesetzte und weitere Führungskräfte initiiert und teilweise auf „gut Glück“ umgesetzt. Meistens findet im Nachgang keine Evaluierung mehr statt.
Wenn nun People Analytics entlang des Personalentwicklungsprozesses zum Einsatz kommt, erfolgt die Arbeit wissenschaftlich fundiert und evidenzbasiert. Dabei findet nicht nur die Auswertung, sondern zum Teil auch die Erhebung von Daten mit Hilfe von künstlicher Intelligenz statt. Im Bereich Lern- und Veränderungsbereitschaft setzen beispielsweise .Learning Analytics' und .Smart Learning' als Teilgebiete von People Analytics an (Reindl & Krügl, 2017, S. 215-217). Als Learning Analytics wird die Analyse von Daten des Lernerfolgs bezeichnet, die Mitarbeiter auf unternehmenseigenen Lernplattformen zur Weiterbildung generieren. Smart Learning geht so weit, dass Daten der Mitarbeiter durch das Tragen von Wearables16 gesammelt werden. Auf diese Art generierte Daten werden im nächsten Schritt für ein People Analytics-Projekt genutzt. Durch Kombinatorik mit weiteren Daten können beispielsweise Fragestellungen zu den effizientesten Lernformen und notwendigen Persönlichkeitseigenschaften für Lernerfolge beantwortet werden.
Eine Vielzahl an weiteren möglichen Fragestellungen ist denkbar. So können z.B. Gründe für Kündigungen analysiert werden, um zukünftige Fluktuation zu verringern und die Arbeitszufriedenheit zu erhöhen. Hierbei ist es möglich, im Vorfeld unbedeutende Zusammenhänge sichtbar zu machen. Nachfolgend werden beispielhaft eigens entwickelte Fragestellungen zu den Einsatzfeldern nach Hammermann und Thiele dargestellt (2019, S. 18-20).
Tab. 2. Mögliche People Analytics-Fragestellungen in der Personalentwicklung
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Eigene Darstellung in Anlehnung an mögliche Fragestellungen nach: Hammermann und Thiele, 2019, S. 18-20.
Bei Formulierung der Fragestellung sollte beachtet werden, dass die Effektivität in letzter Instanz an den zu erreichenden Unternehmenszielen gemessen wird. Unternehmen, die People Analytics erfolgreich einsetzen, generieren einen strategischen Wettbewerbsvorteil, wie im Folgekapitel näher erläutert wird.
Strategische Wettbewerbsvorteile basieren auf Fähigkeiten und Ressourcen (Loscher, 2021, S. 21). Folglich stellt die Fähigkeit, die richtigen Mitarbeiter als personelle Ressource im Unternehmen effektiv einzusetzen, einen strategischen Wettbewerbsvorteil dar.
Falsche Personalentscheidungen können hohe Kosten verursachen. Das lässt sich an einem beispielhaften Fall betrachten. In einem Großunternehmen wird die Entscheidung über eine interne Stellenvergabe getroffen. Mitarbeiter A hat sich hervorgetan und für die Weiterentwicklung zur Führungskraft qualifiziert. Dabei verlassen sich die Entscheider im HR in letzter Instanz auf ihr persönliches Gefühl, da sie den Kandidaten bereits kennen und dieser fachlich für die Position qualifiziert ist. Außerdem ist Mitarbeiter A mit der Führungskraft der Nachbarabteilung befreundet. Nach kurzer Zeit zeigen sich jedoch die negativen Folgen einer typischen Fehlbesetzung. Die ehemaligen Kollegen von Mitarbeiter A akzeptieren die Beförderung nicht. Sie sind unzufrieden und leisten weniger. Bei einigen erhöht sich die Anzahl der Fehltage. Arbeit bleibt liegen und wichtige Kundenaufträge können nicht erledigt werden. Kunden springen aufgrund der zunehmenden Unzuverlässigkeit ab. Kurze Zeit später kommt es vermehrt zu Kündigungen langjähriger Mitarbeiter. Dies führt zu einer erhöhten Auslastung der Personalabteilung, da nach neuen Kandidaten gesucht werden muss. Die Fehlbesetzung hat zu diesem Zeitpunkt bereits hohe Kosten verursacht.17
Solange Entscheidungsprozesse dieser Art nicht auf Grundlage von Daten und Fakten ablaufen, können menschliche Fehlentscheidungen nicht ausgeschlossen werden. Genau bei dieser Problematik setzt People Analytics an. Bersin (2017) identifizierte People Analytics bereits im Jahr 2017 als einen der ,Top Ten‘ HR-Trends, die die Branche disruptiv verändern werden. Die Arbeit in HR- Abteilungen wird zunehmend digital und datenbasiert (Bersin, 2017). Durch den strategischen Einsatz von People Analytics ergeben sich zahlreiche Vorteile für Unternehmen, wie nachfolgend erläutert wird.
Wenn Entscheidungen auf klaren Fakten und Daten basieren, werden Personalentscheidungen effizienter und transparenter (Di Claudio, 2019). Durch die Quantifizierung, d.h. die Messbarmachung von Daten, können diese untereinander in Zusammenhang gebracht und systematisiert werden. Ein auf diese Weise entwickeltes Kennzahlensystem dient in Zukunft als Grundlage, um weitere Fragestellungen zu beantworten. Weiterhin lässt sich nachvollziehen, auf welcher Grundlage die Entscheidung zu einer Maßnahme getroffen wurde, wodurch eine höhere Entscheidungsqualität erreicht wird (Loscher, 2021,S. 8-10).
Im obigen Fallbeispiel ist für die Kollegen nicht nachvollziehbar, warum Mitarbeiter A die Beförderung erhalten hat. Die Entscheidung ist nicht transparent, nicht quantifizierbar und von geringer Qualität. Sichere Prognosen können aber nur dadurch erstellt werden, wenn bisher unbekannte Zusammenhänge aufgedeckt werden (Blum, 2021, S. 77). Wenn ein Unternehmen dadurch beispielsweise seine Fluktuationsquote effektiv senken kann, ergeben sich Kostenvorteile und strategische Vorteile gegenüber Wettbewerbern (Loscher, 2021, S. 8-12). Neben Geschäftsergebnissen haben bessere Entscheidungen auch einen nachweislich positiven Einfluss auf die Mitarbeiterleistung. Die Mitarbeiter werden loyaler und ihre Bindung zum Unternehmen nimmt zu (Büchsenschuss & Pettman, 2018).
Zudem kann durch eine Automatisierung von HR-Prozessen durch künstliche Intelligenz schneller und effizienter gearbeitet werden. Der Fokus wird von der administrativen Personalarbeit auf den Mitarbeiter und den Aufbau der Mitarbeiterbindung gerichtet. Die HR-Abteilung agiert nun nicht mehr rein administrativ, sondern hat die aktive Rolle eines strategischen Business Partners inne (Forbes Human Resources Council, 2018).
Folgende Abbildung gibt einen Überblick über die Vorteile von People Analytics, die zu einer erfolgreichen Unternehmensstrategie führen.
Abb. 2. People Analytics als strategischer Wettbewerbsvorteil
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Eigene Darstellung in Anlehnung an die Erkenntnisse aus der Literatur in Kapitel 2.2.2.
Auch Mitarbeiter profitieren von People Analytics. Welche Vorteile sich aus Sichtweise der Unternehmen ergeben, wird nachfolgend erläutert. Dabei wird davon ausgegangen, dass People Analytics auf professioneller Ebene und unter Einhaltung ethischer und gesetzlicher Gesichtspunkte ausgeführt wird.
Als großer Vorteil wird häufig Objektivität genannt (Heuer & Koch, 2018; Haak, 2017). Das bedeutet, dass Entscheidungen hinsichtlich einer Beförderung oder Teilnahme an einer Entwicklungsmaßnahme nicht mehr auf subjektiver Ebene getroffen werden, sondern auf objektiven Fakten basieren. Persönliche Einstellungen und Werte und das bekannte „Bauchgefühl“ von Personalmanagern oder Vorgesetzten fließen nicht in die Entscheidungsfindung mit ein. Auch einer persönlichen Vorteils- nahme durch Kontakte im Unternehmen wird vorgebeugt. Dadurch ist der Entscheidungsprozess generell frei von Diskriminierung. Zur Diskriminierungsfreiheit tragen vor allem die verwendeten Algorithmen bei. Sie eliminieren Wahrnehmungsfehler und Verzerrungen durch Personen, die sog.
AKZEPTANZ VON PEOPLE ANALYTICS IM PERSONALENTWICKLUNGSPROZESS
Biases18. Insgesamt ist der Entscheidungsprozess somit fairer und gerechter. Zudem bietet People Analytics mehr Transparenz für den Mitarbeiter. Daten und Informationen, die als Entscheidungsgrundlage dienen, werden sichtbar gemacht. Somit können Entscheidungen aus der Perspektive des Mitarbeiters besser nachvollzogen werden (Heuer & Koch, 2018; Haak, 2017).
Durch People Analytics entwickelte Maßnahmen wirken auf individueller Ebene und gehen auf die persönlichen Bedürfnisse der Mitarbeiter ein. Werden zur Sammlung personenbezogener Daten zusätzlich Wearables am Arbeitsplatz eingesetzt, können mögliche Ursachen für Stress und Belastung identifiziert und eliminiert werden (Tursunbayeva et al., 2021, S. 5). Dies wirkt sich nachhaltig auf Arbeitszufriedenheit und Gesundheit aus.
Die genannten Vorteile können bei unprofessionellem Einsatz von People Analytics in Risiken umschlagen. Diese werden in Kapitel 2.3.3 näher beschrieben.
Einer der wichtigsten Schritte eines People Analytics-Projekts ist die Sammlung oder Generierung der benötigten Daten. Big Data bezeichnet die aktuell großen Mengen an Daten, die weltweit in unterschiedlichen Bereichen generiert werden (Bendel, n.d.a). Während diese Datenmenge im Jahr 2018 über 33 Zettabyte betrug, wird sich der Betrag bis zum Jahr 2025 voraussichtlich verfünffachen (Tenzer, 2021). Big Data ist die Grundlage für moderne Analytics-Verfahren. Bei der Verwendung von Big Data stellt die Betrachtung datenschutzrechtlicher Aspekte eine große Herausforderung dar (Katzera & Leusch, 2020). Die Datenverarbeitung sollte bei diesen Verfahren generell transparent sein und die Funktionsweise vom Nutzer bzw. Verbraucher nachvollzogen werden können.
Zudem stellt die Sicherstellung der Datenqualität Unternehmen vor große Herausforderungen (Katzera & Leusch, 2020). “It’s notjust about the data, it’s about how you use the data“ (Klinghoffer, 2022). Dawn Klinghoffer, Head of People Analytics bei Microsoft, hebt mit dieserAussage die Rolle der HR-Verantwortlichen zur Sicherstellung der Datenqualität hervor. Für den Einsatz von People Analytics ist erweiterte statistische Methodenkompetenz notwendig. Die Anforderungen an die Person des Personalmanagers gehen dabei weit über klassisches Personalcontrolling hinaus. Katzera und Leusch (2020) identifizierten die „fehlende Kompetenz in psychometrischen Verfahren und empirischen Sozialwissenschaften“ (Katzera & Leusch, 2020) als große Hürde für People Analytics. Um Personaldaten strukturiert zu analysieren, fehle es noch an der nötigen Erfahrung und dem Wissen im HR (Katzera & Leusch, 2020). Auch Loscher (2021, S. 11) bescheinigt Personalmanagern die methodisch-konzeptionellen Lücken und verweist auf fehlende Programmierkenntnisse. Zudem fehle die Motivation, sich die fehlenden Kompetenzen überhaupt anzueignen (Wirges et al., 2020, S. 13-14).
Kommunikative Fähigkeiten wie das Storytelling, um Entscheider und Mitarbeiter auf Grundlage der Analyseergebnisse zu weiteren Schritten zu überzeugen, sehen sowohl Reindl und Krügl (2017, S. 18) als auch Fernandez und Gallardo-Gallardo (2021, S. 176) als weitere notwendige Kernkompetenz. Sie gehen so weit, zu behaupten, dass in Hinblick auf ein People Analytics-Projekt die einzige Funktion eines klassischen Personalmanagers aktuell darin liegen würde, ein solches zu koordinieren. Für das Management von People Analytics-Projekten bedarf es der Meinung der Autoren nach über verschiedene Kompetenzprofile, die im Folgenden (u.a.) genannt werden: Business-Generalist, Data Scientist, Daten-Architekt, Organisationsentwickler, Visualisierer, Datenschützer und Ethiker. Ein People-Analytics Projekt sehen sie nicht in erster Linie im HR-Bereich angesiedelt, sondern als Projekt unter Beteiligung verschiedener Fachbereiche (Reindl & Krügl, 2017, S. 122-124).
In Anlehnung an das ,HR-Analyst Competency Model' von McCartney et al. (2021) und die im Vorfeld erläuterten Kompetenzen, werden in Tabelle drei die wichtigsten Kompetenzen für einen besseren Überblick zusammengefasst.
Tab. 3. Kernkompetenzen für People Analytics
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Eigene Darstellung in Anlehnung an: McCartney et al. (2021), sowie Erkenntnisse aus der Literatur in Kapitel 2.3.1.
Es wurde hervorgehoben, welche wichtige Rolle die Kompetenz der an People Analytics-Projekten Beteiligten spielt. Das Sicherstellen der notwendigen Fähigkeiten ist unabdingbar für das erfolgreiche Gelingen eines People Analytics-Projekts. Unwissen oder unzureichende Kompetenzen bei den Verantwortlichen können sich auf die Qualität der Daten und somit auf die Ergebnisse auswirken.
Wenn HR-Prozesse wie z.B. Personalentwicklung in Zukunft datengetrieben, evidenzbasiert und erfolgreich ablaufen sollen, wird sich auch die Rolle des Personalmanagers in der Hinsicht verändern, dass sich ein neues Anforderungsbild für diesen Bereich ergibt. Dabei ist unrealistisch, dass die geforderten Kompetenzen von einer einzelnen Person erfüllt werden können (Huselid, 2018, S. 683). Größeren Firmen wird die Aufstellung eines speziellen Teams hierbei keinen zu großen Aufwand bereiten, wohingegen kleinere Firmen vermutlich auf Consulting-Agenturen zurückgreifen müssen.
Während es in den USA kein allgemeingültiges und umfassendes Datenschutzgesetz gibt, regelt in Deutschland die Datenschutz-Grundverordnung der Europäischen Union (DSGVO) (EU) 2016/679 auf Grundlage des Bundesdatenschutzgesetzes (BDSG) den Umgang mit und die Verbreitung von personenbezogenen Daten (Klosowski, 2021; Bundesministerium der Justiz und für Verbraucherschutz, 2016; Bundesministerium der Justiz und für Verbraucherschutz, 2018). Laut Artikel eins der Verordnung stellt Datenschutz in Deutschland ein Grundrecht dar (Bundesministerium derJustiz und Verbraucherschutz, 2016).
In einer aktuellen Kienbaum Studie zu People Analytics geben 54 % der befragten Teilnehmer an, unsicher bezüglich der Auslegung der DSGVO zu sein (Katzera & Leusch, 2020, S. 9). Dies stellt keine besonders gute Grundlage für den Umgang mit personenbezogenen Daten dar.
Wird bei einem People Analytics-Projekt für eine Anonymisierung der Daten im Vorfeld Sorge getragen, ergeben sich hinsichtlich der späteren Datenschutz-Thematik wenig Hindernisse (Reindl & Krügl, 2017, S. 71-89). Bis zur Anonymisierung muss der Umgang mit den Daten jedoch streng datenschutzkonform erfolgen. Das Thema erweist sich in dieser Hinsicht als äußerst komplex, da People Analytics grundlegend personenbezogene Daten sammelt und auswertet. Sobald die Anonymität personenbezogener Daten nicht mehr gewährleistet werden kann, muss zwingend die BDSG bzw. die DSGVO eingehalten werden. Dies trifft auch bei einer Pseudonymisierung der Daten zu, da diese wie personenbezogene Daten behandelt werden. Hier gilt es, im Vorfeld die Zustimmung der betroffenen Personen einzuholen. So dürfen beispielsweise Daten zum Thema Gesundheit nur mit vorheriger Einwilligung verarbeitet werden. Folgende personenbezogene Daten sind dabei vor allem für den Einsatz von People Analytics in der Personalentwicklung relevant: persönliche Eigenschaften und Einstellungen, Fähigkeiten, Ausbildung, berufliche Entwicklung, Metadaten zur Nutzung von Systemen oder Lernmedien, Geburtsdatum und Gesundheitszustand. Es empfiehlt sich, einen Datenschutzbeauftragten aktiv einzubinden (Reindl & Krügl, 2017, S. 71-89).
Neben den gesetzlichen Hürden stellen auch ethische Fragestellungen mögliche Barrieren dar. Tursunbayeva et al. (2021) identifizieren in einem Scoping Review zum ethischen Aspekt von People Analytics die in Tabelle vier dargestellten ethische Risiken für Mitarbeiter, welche nachfolgend erläutert werden.
Tab. 4. Ethische Risiken für Mitarbeiter
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Eigene Darstellung in Anlehnung an: Tursunbayeva et al., 2021.
Die in einem People Analytics-Tool verwendeten Algorithmen werden initial von Menschen programmiert. Lernt der Algorithmus mit den „falschen Daten“, besteht das Risiko von Wahrnehmungsverzerrungen und möglicher Diskriminierung. So bevorzugt das Tool möglicherweise männliche Mitarbeiter, da es im Machine Learning-Prozess ausschließlich mit diesen Daten gespeist wurde. Weiterhin besteht die Gefahr eines psychologischen und sozialen Profilings, wenn quantitative Persönlichkeitstests die Einstellung zu Moral, oder kulturelle und ethnische Unterschiede nicht messen können. Außerdem ist fragwürdig, ob eine vom Mitarbeiter nur unterbewusst und nicht aktiv wahrgenommene Verhaltensmodellierung durch personalisierte Nachrichten des Tools ethisch vertretbar ist. Die Reduzierung von Leistung und Mitarbeitern auf Zahlen kann dazu führen, dass wichtige und nicht direkt messbare Aspekte der Arbeitsleistung unberücksichtigt bleiben. Weiterhin ist es möglich, dass die Automatisierung von Schichtplänen durch ein People Analytics-Tool Unsicherheiten bzgl. des zu erwartenden Einkommens bei Schichtarbeitern verursacht. Außerdem ist problematisch, inwiefern die Sammlung und Analyse von Mitarbeiterdaten zu einem Gefühl einer Bedrohung der Privatsphäre oder Überwachung führen wird (Tursunbayeva et al., 2021).
Wie sich die genannten Risiken auf das Verhalten der Mitarbeiter auswirken können, wird im nächsten Kapitel beschrieben.
Die „Sorge von Reaktanz innerhalb der Belegschaft“ stellt eine große Hürde beim Einsatz von People Analytics dar (Katzera & Leusch, 2020). Dabei gibt es viele verschiedene Gründe, die zu Widerständen führen können. Nachfolgend werden diese anhand offizieller Fallbeispiele erläutert.
Im Jahr 2019 geriet das Unternehmen Zalando durch die Einführung eines People Analytics-Tools negativ in die Schlagzeilen (Hans Böckler Stiftung, 2019). Die Software mit dem Namen ,Zonar‘ analysierte auf Basis von Mitarbeiterbewertungen und weiteren Daten durch intelligente Algorithmen die Performance der Mitarbeiter. Diese wurden im Anschluss je nach Performance-Grad in eine Rangliste aufgeteilt. Auf Grundlage der Rangliste wurden im nächsten Schritt Entscheidungen für Personalentwicklungsmaßnahmen wie z.B. Beförderungen oder Lohnsteigerungen getroffen. Von den Führungskräften für Transparenz gelobt, löste das Tool bei den Mitarbeitern Widerstände aus. Die Beschäftigten empfanden das Tool als Kontrollinstrument und klagten über Stress und Leistungsdruck. Die Folgen waren eine Verschlechterung des Betriebsklimas, eine Erhöhung der psychischen Belastung am Arbeitsplatz und sowohl Kündigungen, als auch Streiks.
Neben der Angst der Mitarbeiter, auf Zahlen reduziert zu werden, stellen auch die in Kapitel 2.3.1 dargestellten ethischen Risiken Gründe dar, die zu Widerständen bei Mitarbeitern führen (Tursunbayeva et al., 2021). So kann ein Algorithmus19 durch falsche Programmierung bzw. unzureichendes Training operationalisierte Biases und Diskriminierung verursachen. Im Fall von Amazon führte ein im Jahr 2015 implementiertes Recruiting-Tool dazu, dass weibliche Bewerber diskriminiert wurden. Die Software war zuvor fast ausschließlich mit Daten männlicher Bewerber gespeist worden und stufte diese als kompetenter ein. Ein weiteres Risiko durch die Verwendung von Algorithmen ist psychologisches und soziales Profiling. Kulturelle und moralische Einstellungen können durch Algorithmen nicht vollständig erfasst, bzw. möglicherweise als Behinderung oder psychische Störung kategorisiert werden. Des Weiteren kann Verhalten durch Algorithmen unbewusst modelliert werden. Die Firma Humu z.B. führte mit dem ,nudge engine' ein People Analytics-Tool ein, welches durch personalisierte Nachrichten, wie z.B. Verhaltensvorschläge an die Mitarbeiter, eigentlich deren Arbeitszufriedenheit steigern sollte. Im Endeffekt fühlten sich die Mitarbeiterjedoch manipuliert und ihrerAutonomie beraubt (Tursunbayeva et al., 2021).
Durch die Generierung und Speicherung einer hohen Menge an Daten, sehen sich viele Mitarbeiter zudem in ihrer Privatsphäre bedroht und überwacht (Tursunbayeva et al., 2021). Bedenken zum Thema Datenschutz und Privatsphäre sind in den Köpfen der Deutschen stark verankert. In einer Studie zu diesem Thema aus dem Jahr 2018 gaben über die Hälfte der Befragten an, sich um die in ihrer Freizeit erhobenen personenbezogenen Daten zu sorgen, da sie diese als nicht genügend geschützt ansahen (YouGov, 2018). Auch am Arbeitsplatz herrscht Angst vor dem Missbrauch personenbezogener Daten. Mitarbeiter fürchten Nachteile durch Entscheidungen auf Basis von künstlicher Intelligenz (Katzera & Leusch, 2020).
Die Fallbeispiele sollen verdeutlichen, dass, so gut die Absichten beim Einsatz von People Analytics sein mögen, mit hoher Wahrscheinlichkeit mit Widerständen durch die Belegschaft zu rechnen ist. Die genannten Risiken können zu Misstrauen, Unsicherheit, Verhaltensänderung und Unzufriedenheit führen. Um hier vorzubeugen, sollte die Akzeptanz der Mitarbeiter für People Analytics im Vorfeld geprüft und geeignete Handlungsempfehlungen im Umgang mit den Bedenken abgeleitet werden. Hier ist hinzuzufügen, dass das Entstehen von Widerständen durch Mitarbeiter zu einem großen Teil durch kulturellen Kontext geprägt ist (Dincelli, 2018). Vor allem wenn es um die Themen Datenschutz und Privatsphäre geht, zeichnen sich kulturelle Unterschiede ab.
Je nach Einsatzbereich unterscheidet sich das Risiko einer Reaktanz. Wenn People Analytics in der Personalbeschaffung eingesetzt wird, befindet sich der potenzielle Mitarbeiter noch nicht im Unternehmen. Womöglich wird People Analytics hier eher akzeptiert als im Personalentwicklungsprozess. Die emotionale Bindung zu einem Unternehmen ist beim Bewerber im Allgemeinen noch nicht so stark ausgeprägt wie bei einem Mitarbeiter. Sie wird erst im Laufe der Betriebszugehörigkeit durch die Unternehmenskulturgestärkt (Wolf, 2018, S. 87-99).
Wenn jedoch bei einem bereits bestehenden Arbeitsverhältnis Entscheidungen auf Grundlage von künstlicher Intelligenz getroffen werden, die ein Mitarbeiter womöglich nicht nachvollziehen kann, ist ein potenziellerVertrauensbruch größer und die Akzeptanz von People Analytics gefährdet. Im Recruiting geht es aus Sicht des Bewerbers um eine Zu- bzw. Absage. Als Bewerber ist man es sozusagen „gewohnt“, eine Absage nicht nachvollziehen zu können, da Unternehmen nicht auskunftspflichtig sind (Oechslen, 2019). Im Personalentwicklungsprozess geht es aus der Perspektive des Mitarbeitersjedoch um mehr. Wenn Entscheidungen den Mitarbeiter persönlich betreffen, sind Einstellungen, Psyche und Werte stärker betroffen. Die hohe Relevanz von Akzeptanz in diesem Zusammenhang ist das Thema des nächsten Teils dieserArbeit.
Akzeptanz ist die Bereitschaft, etwas zu akzeptieren (Duden, 2022 a). Abgeleitet wird es vom Verb akzeptieren, lat. ,acceptare‘ oder gleichbedeutend ,accipere‘. Akzeptieren bedeutet: „annehmen, hinnehmen, billigen; anerkennen; mitjemandem oder etwas einverstanden sein“ (Duden, 2022 b).
Bei ersten Versuchen zur Begriffsbestimmung von Akzeptanz stößt man auf die Definitionen nach Lucke (1995, S. 102-103). Akzeptanz wird wie folgt definiert: „das Resultat umfassender Prozesse der kollektiven und individuellen Aneignung kulturell-gesellschaftlicher Entäußerungen“ und „die im Prinzip affirmative, jedoch nach Kontext, Situation und Bezugsobjekt verschiedene Einstellung von in ihrer Annahmebereitschaft ebenfalls zu spezifizierenden Akzeptanzsubjekten gegenüber politischer Herrschaft, Gesetzen, Kunstwerken, Einkommensunterschieden und Geschlechterverhältnis- sen‘ ‘(Lucke, 1995, S. 102-103). Die Definitionen heben zwar die wichtige sozial- und verhaltenswissenschaftliche Komponente hervor, erweisen sich jedoch mit Blick auf das Forschungsvorhaben im Rahmen dieser Arbeit noch nicht als zielführend, da dieses Akzeptanz in Bezug auf eine technologische Neuerung thematisiert.
Hierbei kann ein Blick auf die verhaltenswissenschaftliche Komponente von Akzeptanz ein tieferes Verständnis schaffen. Das Wissen über das, was akzeptiert werden soll, befindet sich auf der kognitiven Ebene (Lucke, 1995, S. 81-83). Die normativ-evaluative Ebene widmet sich der Bewertung von dem, was akzeptiert werden soll. Auf der konativen Ebene wird anschließend das ausgelöste Sozialverhalten in Form von Zustimmung oder Einverständnis beobachtet. Anhand des Sozialverhaltens werden weiterhin drei Ebenen unterschieden: Handlungsebene, Einstellungsebene und Wert- und Zielebene. Auf der Handlungsebene wird tatsächliche Akzeptanz etabliert, indirekte Akzeptanz wird auf der Einstellungsebene erreicht und auf der Wert- und Zielebene kann man ausschließlich von objektiverAkzeptierbarkeit sprechen (Lucke, 1995, S. 81-83).
Lucke (1995, S. 89) stellt den Akzeptanzbegriff im Spannungsfeld des analytischen Dreiecks von Objekt, Subjekt und Kontext dar (vgl. Abb. 3). Das was angenommen werden soll, ist das Akzeptanzobjekt, der Annehmende wird als Akzeptanzsubjekt bezeichnet. Der vermittelte Akzeptanzkontext ist das dritte Element im analytischen Dreieck und beinhaltet gesellschaftliche Rahmenbedingungen oder soziokulturelle Gegebenheiten. Die Akzeptanz bewegt sich zwischen Akzeptanzsubjekt, -objekt und -kontext. Sie ist keine Eigenschaft, über die jeder verfügt, sondern baut auf einem wechselseitigen Prozess auf, der auf einen unterschiedlichen Kontext angewandt werden kann. Dabei ist hervorzuheben, dass ein reines Dulden oder Hinnehmen, wie im Duden beschrieben, keine richtige Akzeptanz darstellt. Erst die aktive Annahme durch Zustimmung und Verständnis kann als echteAkzeptanzdefiniertwerden (Lucke, 1995, S. 87-91).
Abb. 3. Analytisches Dreieck der Akzeptanz
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Eigene Darstellung in Anlehnung an: Lucke, 1995, S. 89.
Es lässt sich schlussfolgern: Im Kontext dieser Arbeit stellt ein Kl-basiertes Tool wie People Analytics das Akzeptanzobjekt dar, der Mitarbeiter das Akzeptanzsubjekt. Der Akzeptanzkontext kann der kulturelle Hintergrund des Mitarbeiters sein, oder dessen Arbeitsumfeld, die Unternehmenskultur oder vorherrschende Normen. Auf die Akzeptanz hat der Kontext im wechselseitigen Prozess zwischen Subjekt und Objekt großen Einfluss. Akzeptanz tritt letztendlich dann ein, wenn der Mitarbeiter, die Kl-basierte Entscheidung versteht, annimmt und einer Verwendung von People Analytics zustimmt. Im Akzeptanzprozess spielen sowohl die kognitive, als auch normativ-evaluative und ko- native Ebene eine Rolle. Beim ausgelösten Sozialverhalten sollte vordergründig die Handlungsebene betrachtet werden.
Faktoren, die zur Entstehung von Akzeptanz beitragen, können den einzelnen Elementen des analytischen Dreiecks der Akzeptanz zugeordnet werden. Im Bereich des Akzeptanzsubjekts sind sowohl soziodemografische, als auch psychografische Faktoren relevant (Schäfer & Keppler, 2013). Soziodemografische Faktoren wie z.B. Alter, Ausbildung, Beruf und soziale Schicht ordnen das Subjekt einer Gruppe zu. Psychografische Merkmale wie z.B. Verhaltensmuster, Einstellungen und Werte zeichnen ein Charakterbild des Subjekts. Faktoren, die dem Akzeptanzobjekt zugeordnet werden können, sind z.B. die Verantwortlichen für die durchzusetzende Handlung. In Zusammenhang mit dem Akzeptanzkontext sind folgende Faktoren aus dem sozialen Umfeld zu nennen: Erwartungen, Normen und „kulturelle, rechtliche, politische oder wirtschaftliche Bedingungen in einer Gesellschaft.“ (Schäfer & Keppler, 2013).
Akzeptanz kann in vielfältiger Form ausgeprägt sein. Lucke (1995, S. 219-231) schlägt mehrere Typisierungen vor, auf welche aufgrund des Umfangs nicht vollständig eingegangen werden kann. Um zumindest einen Typisierungsversuch vorzunehmen, wird eine differenzierte Einteilung nach Lucke (1995, S. 219-231) betrachtet, die insgesamt 15 Formen unterscheidet. Davon werden vier im Kontext dieserArbeit als passend bewertete Formen kurz erläutert:
- Gespaltene Akzeptanz: Zustimmung erfolgt aufgrund der Tatsache, Zugehörigkeit zu erreichen und von anderen wahrgenommen zu werden, auch wenn innerlich Ablehnung vorherrscht.
- Konditionale Akzeptanz: Ein vorübergehender Zustand von Akzeptanz. Durch die Situationsbedingtheit kann Akzeptanz entsprechend der Rahmenbedingungen erteilt und unmittelbar widerrufen werden.
- Sekundäre Akzeptanz: Erfolgt als Antwort darauf, ob bestimmte Handlungen und Ereignisse bereits durch andere akzeptiert oder nicht akzeptiert wurden.
- Nachgeschobene Akzeptanz: Auf eine anfängliche Ablehnung erfolgt spätere Akzeptanz (Lucke, 1995.S.219-231).
Wendet man die erläuterten Entstehungsfaktoren und Formen von Akzeptanz auf den Akzeptanzprozess von People Analytics an, lässt sich schlussfolgern: Einfluss auf die Entstehung von Akzeptanz haben sowohl soziodemografische als auch psychografische Merkmale des Mitarbeiters. Auch die Verantwortlichen im People Analytics-Projekt beeinflussen den Akzeptanzprozess. Des Weiteren spielen sowohl rechtliche, als auch kulturelle Rahmenbedingungen, sowie Unternehmenswerte und -kultureine große Rolle. Dabei kann Akzeptanz in unterschiedlicher Ausprägung auftreten, beispielsweise durch den Wunsch nach Zugehörigkeit, oder aus der Entscheidung heraus, etwas zu akzeptieren oder abzulehnen, weil es andere bereits so vorgelebt haben. Eine Handlung kann vorübergehend akzeptiert werden oder auch im Nachgang, weil die Entscheidung dazu letztendlich gefällt wurde. Es ist hinzuzufügen, dass die „aufgeklärte, authentische Akzeptanz“ ‘ nach Lucke (1995, S. 230) die höchste Form von Akzeptanz darstellt.
Erste Akzeptanzmodelle stammen aus der sozialwissenschaftlichen Forschung und sind die Basis für die Entwicklung weiterer theoretischer Modelle. Hierzu zählen sowohl die .Diffusion of Innovation' nach Rogers aus dem Jahr 1962, als auch die .Theory of Reasoned Action' nach Fishbein und Ajzen, aus dem Jahr 1975 und die darauf aufbauende .Theory of Planned Behaviour' nach Ajzen und Madden von 1986 (Scheuer, 2020, S. 29).
Hierbei sind die beiden letztgenannten Modelle relevant, da sie die Perspektive des Nutzers bzw. des Akzeptanzsubjekts beleuchten. Beide Theorien erklären, welche Einflussfaktoren zu einem bestimmten Verhalten wie Akzeptanz beitragen. Ausgelöst wird das beobachtete Verhalten durch eine Verhaltensintention, die durch Normen geprägt ist (Ajzen, n.d.). Diese Normen sind aus Werten bzw. Einstellungen abgeleitet, welche durch individuelle und soziale Faktoren bestimmt sind. Individuelle Faktoren sind z.B. Alter, Einkommen, Ausbildung oderWissen. Zu sozialen Faktoren zählen Kultur, Gesetze, Medien, Religion oder Ethnie.
Auf Basis der Arbeiten von Rogers, Fishbein und Ajzen, sowie Ajzen und Madden wurden Modelle entwickelt, die sich speziell mit der Akzeptanz von Technologien beschäftigen. Zu den ausgewählten Modellen zählen die aufeinander aufbauenden .Technology Acceptance' Modelle nach Davis von 1989, Venkatesh und Davis aus dem Jahr 2000, sowie Venkatesh und Bala von 2008 (Scheuer, 2020, S. 29).
Technologische Akzeptanzmodelle treffen Vorhersagen zur Adaption und damit einhergehenden Nutzung neuer Technologien. Dabei bestimmen zwei Variablen, ob eine neue Technologie akzeptiert und genutzt wird: die wahrgenommene einfache Nutzung und der wahrgenommene Nutzen (Scheuer, 2020, S. 39-45). Im Kontext dieser Arbeit ist vordergründig der wahrgenommene Nutzen zu betrachten. Im Technology Acceptance Model 3 (TAM 3) nach Venkatesh und Bala (2008) wird dieser durch nachfolgende Faktoren beeinflusst.
- Aufgabenrelevanz: „Der Grad, zu dem eine Person denkt, dass das System für die Aufgabe adäquat und verwendbar ist“ (Scheuer, 2020, S. 44).20
- Ergebnisqualität: „Der Grad, zu dem eine Person denkt, dass das System die gestellte Aufgabe gut löst“ (Scheuer, 2020, S. 44).
- Ergebnisdemonstrabilität: „Der Grad, zu dem eine Person denkt, die Ergebnisse der Verwendung des Systems sind begreifbar, nachvollziehbar und kommunizierbar“ (Venkatesh & Bala, 2008).
Auf Grundlage der im Vorfeld erläuterten und weiterer Modelle, entwickelte Scheuer (2020) ein Modell, das speziell die Akzeptanz von künstlicher Intelligenz untersucht. Im KI-Akzeptanzmodell, kurz .KIAM' (siehe Anhang A), basiert die gesamte KI-Akzeptanz auf den drei Konstrukten Technologieakzeptanz, spezifische KI-Technologieakzeptanz und KI-Persönlichkeitsakzeptanz. Diese werden davon beeinflusst, ob der Nutzer das System als Persönlichkeit einstuft und sich zu einer Nutzung bzw. Emotion entschließt. Dabei ist vor allem der Bereich der spezifischen KI-Akzeptanz hervorzuheben, da hier Vertrauen als Grundlage für Akzeptanz generiert wird. Wichtige Faktoren, die Scheuer (2020, S. 63) als KI-spezifische Erweiterungen definiert, sind: „Wahrgenommene Transparenz durch Datensicherheit und Technologieverständnis, Ergebnisverlässlichkeit durch Selbstlernfähigkeit, Intelligenzniveau des Systems und menschliches Verkörperungsniveau“ (vgl. Abb. 4).
Abb. 4. Ausschnitt aus dem KIAM21
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Scheuer, 2020, S. 63.
Wie auch bei TAM 1-3 wird im KIAM vordergründig die Akzeptanz zur Nutzung einer neuen Technologie bzw. KI untersucht. In Bezug auf People Analytics würde durch eine konkrete Modellanwendung die Akzeptanz der HR-Verantwortlichen untersucht werden können, also der Personen, die das Tool ausführen. Im Kontext dieserArbeit ist die Sichtweise jedoch eine andere, nämlich die der Mitarbeiter. Sie sind als passive Nutznießer durch den Einsatz von People Analytics und der daraus resultierenden Entscheidungen betroffen. Ein Modell, welches die Akzeptanz in Bezug auf diesen konkreten Sachverhalt untersucht, wurde bisher noch nicht entwickelt. Folglich gibt es kein Modell, das im vorliegenden Kontext passgenau angewendet werden kann. Dennoch bilden die erläuterten Modelle eine wichtige Grundlage, denn sowohl TAM 3 als auch KIAM zeigen wichtige Faktoren auf, die KI-Akzeptanz an sich, d.h. nicht nur nutzungsbezogen, beeinflussen können. Diese Faktoren werden alsVoraussetzungen fürAkzeptanz im nächsten Kapitel näher betrachtet. 21 Aufgrund der Komplexität des Modells wird nur ein Ausschnitt betrachtet. Das KIAM ist in Anhang A zur näheren Betrachtung vollständig dargestellt.
Verschiedene Faktoren beeinflussen die Akzeptanz KI-basierter Entscheidungen. Zu den wichtigsten Voraussetzungen für Akzeptanz zählen: Vertrauen in die KI, Transparenz über die Funktionsweise und Sicherheit der personenbezogenen Daten (Grotenhermen et al., 2020; Scheuer, 2020, S. 59-60). Diese Voraussetzungen für Akzeptanz stehen in wechselseitiger Wirkung, werden jedoch zur besseren Übersicht einzeln betrachtet. Es wird darauf hingewiesen, dass in der Literatur zu Akzeptanz von Technologien größtenteils die Nutzerperspektive betrachtet wird. Die Voraussetzungen zur Nutzungsakzeptanz von künstlicher Intelligenz sind mit den Voraussetzungen zur Entscheidungsakzeptanz überwiegend identisch. Nachfolgend wird aber, soweit möglich, differenziert. Weiterhin ist hinzuzufügen, dass die Relevanz der Faktoren hinsichtlich einer Ausprägung von Akzeptanz auch kulturell bedingt ist (Choi, 2021; Hagerty & Rubinov, 2019). Aus diesem Grund entspricht die nachfolgende Darstellung der europäischen bzw. angloamerikanischen Sichtweise.
Wie komplex menschliches Vertrauen in KI-Technologie ist, zeigt die aktuelle und immer wiederkehrende Debatte zum autonomen Fahren (Forschung & Lehre, 2018). Die Akzeptanz in der Gesellschaft gegenüber dieser neuen Technologie hängt stark vom Vertrauen in die KI ab. Moralische Dilemma-Situationen führen zu Misstrauen. Fürviele Menschen ist die Entscheidungsgrundlage einer künstlichen Intelligenz nicht transparent. Auch herrscht unter Entwicklern und Ethikern noch kein Einverständnis darüber, wie die künstliche Intelligenz programmiert werden sollte. Kulturelle Unterschiede führen weiterhin dazu, dass es unterschiedliche Meinungen dazu gibt, welche Entscheidung der KI in einer Dilemma-Situation akzeptiert werden soll (Forschung & Lehre, 2018).
Für zwischenmenschliche Beziehungen ist Vertrauen essentiell. Einer Technologie zu vertrauen, die menschliche Entscheidungen trifft, treffen soll, oder diese übertrifft, ist aus moralischer Sicht durchaus komplexer. Damit KI vertrauenswürdig sein kann, sind verschiedene Voraussetzungen zu erfüllen (Ryan, 2020). Zum einen müssen alle Beteiligten und Prozesse entlang des KI-Einsatzes vertrauenswürdig sein. Dazu zählen nicht nur die Technologie selbst, sondern auch die dahinter stehenden Entwickler, das Unternehmen, in welchem der Einsatz erfolgt, und die im soziotechnischen System weiteren Beteiligten, wie beispielsweise Anwender.
Nach den ethischen Richtlinien für vertrauenswürdige KI ist zudem relevant, dass eine künstliche Intelligenz die gesetzlichen Rahmenbedingungen erfüllt, nach ethischen Prinzipien und Werten verfährt und ein hohes Maß an Robustheit aus soziotechnischer Perspektive aufweist (AI HLEG, 2019).
Im KIAM ist Vertrauen die grundlegende Voraussetzung für spezifische KI-Technologie-Akzeptanz. Vertrauen ist ein Konstrukt, das von verschiedenen Variablen abhängig ist. Im Modell wird Vertrauen maßgeblich von vier Faktoren beeinflusst (Scheuer, 2020, S. 63):
- Menschliches Verkörperungsniveau
- Intelligenzniveau des Systems
- Ergebnisverlässlichkeit
- WahrgenommeneTransparenz
Diese vier Faktoren sind wiederum durch Unterfaktoren geprägt. Das menschliche Verkörperungsniveau bestimmt, inwieweit die KI als Persönlichkeit oder Person wahrgenommen wird. An der Pro- bzw. Reaktivität der künstlichen Intelligenz wird das Intelligenzniveau des Systems gemessen. Die Ergebnisverlässlichkeit wird durch die Selbstlernfähigkeit der KI charakterisiert. Die wahrgenommene Transparenz wird durch Datensicherheit oder Technologieverständnis beeinflusst (Scheuer, 2020, S. 63). Vertrauen ist folglich das Ergebnis von Akzeptanz.
KI-Systeme sind nachweislich dazu in der Lage, bessere Entscheidungen zu treffen, als ein Mensch (Ahn et al., 2021). Dennoch scheint bei vielen Menschen immer noch ein starkes Misstrauen gegenüber KI vorzuherrschen. Dieses wird oftmals durch die fehlende Transparenz eines KI-Systems geschürt (Ahn et al., 2021). Der FaktorTransparenz trägt zu einem großen Teil zurAkzeptanz von KI- Entscheidungen bei. Je größer das Wissen über die Funktionsweise des Algorithmus ist, durch den eine Entscheidung gefällt wird, desto nachvollziehbarer ist die künstliche Intelligenz für den Mitarbeiter und umso größer ist das Vertrauen in die Technologie und die Akzeptanz der Entscheidung (Rossi,2016).
In einer Studie zu künstlicher Intelligenz im Personalwesen aus dem Jahr 2020 wurde untersucht, wie Mitarbeiter Entscheidungen intelligenter Systeme akzeptieren (Grotenhermen et al., 2020). Hierbei sollten Mitarbeiter beurteilen, wie sie eine Entscheidung zur Gehaltserhöhung wahrnehmen, je nachdem, ob sie durch einen Menschen oder durch eine KI getroffen wurde. Die Ergebnisse der Studie zeigen, dass Transparenz eine bedeutende Rolle spielt. Sie wirkt sich generell sowohl positiv auf die Akzeptanz einer Entscheidung aus, als auch auf die wahrgenommene Kompetenz und das wahrgenommene Wohlwollen. Dabei korreliert im Fall von künstlicher Intelligenz als Entscheidungsträger das Transparenzniveau positiv mit der Akzeptanz der Entscheidung und der wahrgenommenen Kompetenz. Einzig das wahrgenommene Wohlwollen bleibt von der Ausprägung der Transparenz unbeeinflusst. Als möglicher Grund hierfür wird die fehlende Emotionalität von KI-Systemen genannt. Insgesamt wird die Entscheidung durch eine Person von den Teilnehmern jedoch eher akzeptiert, als die Entscheidung durch KI. Als Gründe werden u.a. genannt, dass ein reales Gegenüber als Diskussionspartner präferiert wird. Zudem ist die Entscheidung durch KI als Blackbox für viele Mitarbeiter nicht nachvollziehbar.
Das Phänomen der sog. ,Blackbox-KI‘ bezieht sich u.a. auf die Komplexität von künstlicher Intelligenz (Bathaee, 2018, S. 901). Komplexität besteht, wenn die Struktur von Algorithmen aufgrund des maschinellen Lernens derart komplex ist, dass die Funktionsweise des Algorithmus nicht mehr nachvollzogen werden kann. Beim Machine Learning erkennt die künstliche Intelligenz Strukturen in den Daten und lernt, daraus Vorhersagen abzuleiten und Entscheidungen zu treffen. Im Fall von Deep Learning ist die Komplexität noch deutlich ausgeprägter. Hier lernt und entscheidet die KI anhand von Strukturen, die dem neuronalen Netzwerk im menschlichen Gehirn ähneln. Entscheidungen sind bei dieser Methode kaum nachvollziehbar bzw. interpretierbar (Bathaee, 2018, S. 901).
Im Gegensatz zu Blackbox-Modellen werden KI-Systeme, die interpretierbar sind, als sog. ,White- box‘-Modelle bezeichnet (Schaaf et al., 2021).
Um Transparenz zu schaffen, müssen sowohl Prozesse als auch Ergebnisse erklärbar sein. In der Forschung werden die Begriffe Erklärbarkeit und Interpretierbarkeit überwiegend synonym verwendet. Nach Biecek und Burzykowski (2021) gelten für die Erklärbarkeit von KI-Modellen drei Gesetze:
- Vorhersagevalidierung: Bei jeder Vorhersage muss die Evidenzstärke überprüfbar sein.
- Vorhersagerechtfertigung: Die Fähigkeit zum Verständnis über die an einer Vorhersage beteiligten Variablen muss vorhanden sein.
- Vorhersageerwartung: Verständnis über die Veränderung durch sich ändernde Variablen (Biecek & Burzykowski, 2021).
Werden diese drei Anforderungen erfüllt, spricht man von Erklärbarkeit bzw. Interpretierbarkeit des Modells (Biecek & Burzykowski, 2021). Ist das Kriterium der Erklärbarkeit erfüllt, werden Vertrauen und Akzeptanz erhöht. Kritisch zu hinterfragen ist, bis zu welchem Grad an Komplexität Transparenz überhaupt möglich ist. Auch wenn die Funktionsweise der KI bzw. der involvierten Algorithmen offengelegt würde, könnten einige Mitarbeiter weiterhin Verständnisprobleme haben (Roszel et al., 2021).
Transparenz bedeutet auch, den Mitarbeiter generell darüberzu informieren, ob eine Entscheidung KI-basiert erfolgt ist, oder nicht. Je nachdem wie die Entscheidung final kommuniziert wird, muss für den Mitarbeiter erkennbar sein, ob der Kommunikationspartner menschlich oder künstlich ist (AI HLEG, 2019).
KI-basierte Systeme arbeiten mit einer Vielzahl von Daten. Um Vertrauen und damit Akzeptanz einer KI-Entscheidung zu generieren, muss die Sicherheit der Daten gewährleistet sein (Kloos & Schmidt- Bens, 2020). Es gilt, Persönlichkeitsrechte und Privatsphäre zu wahren, der Mitarbeiter muss über das Sammeln und die Verwendung seiner Daten aufgeklärt worden sein. Beim Einsatz von künstlicher Intelligenz greift in Deutschland bzw. in der EU die DSGVO.
Grundlage für die Akzeptanz einer Kl-Entscheidung ist, dass bereits bei der Sammlung der Daten Akzeptanz seitens der Mitarbeiter vorhanden ist (Al HLEG, 2019). Wenn Daten z.B. durch Wearables gesammelt werden und der Mitarbeiter schon bei diesem Vorgang Bedenken äußert, kann sich das auf die spätere Entscheidung, welche auf den gesammelten Daten basiert, negativ auswirken. Aus diesem Grund sollte während des gesamten Lebenszyklus des Kl-Systems die Privatsphäre eingehalten und Datenschutz garantiert werden. Es muss sichergestellt sein, dass gesammelte Daten nicht zu einer ungerechten Behandlung führen oder zur Diskriminierung des Mitarbeiters verwendet werden.
Werden die gesetzlichen Rahmenbedingungen während des gesamten Kl-Lebenszyklus eingehalten, stellt dies eine gute Grundlage dar. Doch auch wenn Mitarbeiter in die Sammlung und Verwendung ihrer personenbezogenen Daten eingewilligt haben, ist nicht in vollem Umfang absehbar, wie eine künstliche Intelligenz die Daten weiterverarbeitet. Hier tritt wieder das Phänomen Blackbox-Kl auf (Al HLEG, 2019). Die Sicherheit bzgl. Daten und Privatsphäre kann dann nicht mehr gewährleistetwerden. ln diesem Kontext spielt weiterhin die Datenqualität eine wichtige Rolle, denn bereits bei der Sammlung von Daten durch künstliche lntelligenz können Biases auftreten. Deshalb ist darauf zu achten, welche Daten der Kl zur Verfügung gestellt werden bzw. mit welchen Daten der Algorithmus programmiert wird, um Diskriminierung zu vermeiden. ldentifizierbare Biases sollten so früh wie möglich überprüft und entfernt werden (Al HLEG, 2019).
Zusammenfassend lässt sich sagen, dass die erläuterten Voraussetzungen das Fundament für die Akzeptanz von Kl-basierten Entscheidungen beim Mitarbeiter darstellen. Der Einsatz eines Kl-ba- sierten Tools kann nur dann langfristig erfolgsversprechend sein, wenn die Grundvoraussetzungen für Kl-Akzeptanz erfüllt werden. Durch die Komplexität der Anforderungen stellt das Erreichen von Akzeptanz eine höchst anspruchsvolle Aufgabe für alle Beteiligten dar. Welche Maßnahmen in der Praxis unterstützend ergriffen werden können, wird im nächsten Kapitel erläutert.
Da das Forschungsfeld hinsichtlich der hier behandelten Thematik sehr neu ist, sind spezifische Ansätze hinsichtlich geeigneter Maßnahmen zur Akzeptanzerhöhung für Tools wie People Analytics kaum vorhanden. Generell ist es so, dass sowohl in der Politik, als auch in der Wirtschaft die Notwendigkeit einer vertrauensvollen Kl erkannt wurde. Zu groß ist das Misstrauen in der Gesellschaft gegenüber Kl-basierterTechnologie.
Die aktuelle EU-Strategie zum Thema künstliche lntelligenz sieht vor, die Akzeptanz in der Gesellschaft durch eine Stärkung des Vertrauens in die Technologie zu erhöhen (Europäische Kommission, 2020). Misstrauen wird als Haupthinderungsgrund fürdie Akzeptanz von Kl eingestuft. Die Europäische Kommission arbeitet bereits an einem Konzept zur Zertifizierung von Kl-Systemen.
In der Risikogruppe „Hoch“ eingestufte Kl-Systeme sollen zukünftig eine Konformitätsbewertung unterlaufen. Erst nach erfolgreichem Bestehen werden sie in einer EU-Datenbank registriert und fortan überwacht. Zudem wurden sieben ethische Richtlinien entwickelt, an der sich vertrauenswürdige Kl orientieren soll (vgl. Tab. 5).
Tab. 5. Ethische Guidelines fürvertrauenswürdige Kl
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Eigene Darstellung in Anlehnung an: Europäische Kommission, 2020.
Durch die Implementierung von künstlicher Intelligenz in den Bundesbehörden hat sich auch die Bundesregierung zum Ziel gemacht, die Kl-Akzeptanz in der Bevölkerung zu steigern. Für die Legislaturperiode 2021-2025 existiert ein sog. „8-Punkte Plan“ für die künstliche Intelligenz in Deutschland (Kl Bundesverband, 2021). Darin fordert der Kl-Bundesverband, dass rechtliche Rahmenbedingungen klarer und der Datenschutz einheitlicher werden müssen. Vor allem kleine und mittelständische Unternehmen, kurz KMU, sollen dadurch im Umgang mit künstlicher lntelligenz sicherer werden. Zudem ist vorgesehen, die Datenkompetenz der Bevölkerung zu verbessern. Sowohl Schüler als auch Arbeitnehmer sollen in Datenkunde aus- bzw. weitergebildet werden. Durch Bildung und Aufklärung soll Vertrauen in die künstliche lntelligenz geschaffen werden (Kl Bundesverband, 2021).
Auch unternehmensseitig setzen potenzielle Maßnahmenpakete zur Akzeptanzerhöhung bei den Grundvoraussetzungen für Kl-Akzeptanz an. So wird z.B. von Holthaus et al. (2015) ein duales Datenschutzkonzept vorgeschlagen. Um den für Kl-basierte Tools wie People Analytics notwendigen „Optimalbereich“ sicherzustellen, soll Datenschutz sowohl technisch-organisatorisch, als auch strategisch-organisch ausgerichtet werden. Zentrale lnstrumente im technischorganisatorischen Datenschutz sind hierbei ein Datenschutzkonzept bzw. Verfahrensverzeichnis, im strategisch-organischen Bereich Mitarbeiterschulungen und Zielvereinbarungen (Holthaus et al., 2015).
Allgemein fordern Unternehmen von der Politik, dass ein Handlungsrahmen geschaffen werden sollte, an dem sie sich orientieren können. Auch wenn potenzielle Konzepte bereits entwickelt werden, sind konkrete Maßnahmen in den meisten Unternehmen noch nicht umgesetzt worden (Cimbaljuket al., 2019).
Als ganzheitlicher Ansatz zur Erhöhung von Akzeptanz eignet sich Change-Management, vor allem wenn es darum geht, ein Kl-basiertes Tool im Unternehmen neu einzuführen. Ein ausgeklügeltes Konzept findet man im Whitepaper der Arbeitsgruppe „Arbeit/Qualifikation, Mensch-Maschine-lnter- aktion“ (Stowasser et al., 2020). Die Arbeitsgruppe definiert vier Change-Phasen zur Einführung von Kl:
- Phase 1, Zielsetzung und Folgenabschätzung:
Ziel und Zweck der Kl wird festgelegt, Beschäftigte werden über die Funktionsweise informiert. Wichtig ist, dass die Beschäftigten in dieser Phase mit einbezogen werden.
- Phase 2, Planung und Gestaltung:
Beim Design der Kl stehen u.a. Transparenz, Datennutzung und -verarbeitung und Möglichkeiten zurAnalyse im Vordergrund.
- Phase 3, Vorbereitung und Implementierung:
Die Beschäftigten werden auf die lmplementierung der Kl vorbereitet und geschult. Hier eignen sich Pilotprojekte und Experimentierphasen, um die Kl vor der Einführung zu testen und gegebenenfalls anzupassen.
- Phase 4, Evaluation und Anpassung: Nach Einführung wird die Kl regelmäßig überprüft, bewertet und nach Bedarf angepasst (Stowasser et al., 2020).
Die Empfehlung der Arbeitsgruppe soll allen Beteiligten als Orientierungshilfe dienen. Durch die Möglichkeit das Kl-System selbstbestimmt zu nutzen, soll Akzeptanz erhöht werden. Die Autoren betonen, dass sich Akzeptanz durch eine Einbindung der Mitarbeiter leichter gewinnen lässt (Stowasser et al., 2020). ln Anbetracht der Tatsache, dass Kl-basierte Tools wie People Analytics in vielen Unternehmen noch weit vor einer Einführung stehen, stellt Change-Management einen praktikablen und nutzenbringenden Ansatz zur Erhöhung von Akzeptanz bei.
Explainable Artificial lntelligence, kurz ,XAl‘, ist eine Maßnahme, die durch ihren gezielten Einsatz direkt zur Akzeptanzerhöhung beim Mitarbeiter beiträgt (Gianfagna & Di Cecco, 2021, S. 2). XAl bedeutet „erklärbare künstliche lntelligenz“ und ist ein neuartiger Ansatz. Dieser kombiniert verschiedene Tools und Methoden mit dem Ziel, Machine bzw. Deep Learning für den Menschen im Nach hinein erklärbar zu machen. Entscheidungen, die durch künstliche Intelligenz getroffen wurden, sollen auf diese Weise nachvollzogen werden können. Eine Übersicht über mögliche Tools und deren Funktionsweise wird in Tabelle sechs dargestellt.
Tab. 6. Ausgewählte XAI-Tools
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Eigene Darstellung in Anlehnung an: Gianfagna und Di Cecco, 2021, S. 2.
Wie man in der Tabelle erkennen kann, schaffen XAI-Tools die in Kapitel 3.2 erläuterten Grundvoraussetzungen für die Akzeptanz KI-basierter Entscheidungen. Die Besonderheit von XAI-Tools ist, dass diese nicht nur für Entwickler oder Anwender interessant sind. Werden sie zielgruppenspezifisch designt, können auch Betroffene von KI-Entscheidungen angesprochen werden (Tomsett et al., 2018).
Mit dem Einsatz von XAI-Tools wird außerdem dem Phänomen Blackbox-KI entgegengewirkt. Beim Einsatz KI-basierter Entscheidungs-Tools kann man Mitarbeitern eine derartige Anwendung zur Verfügung stellen, mit der sie die Entscheidung, von der sie betroffen sind, nachvollziehen können. Die Akzeptanz wird durch das bessere Verständnis bzgl. der Entscheidungen erhöht.
Zur Datenerhebung wurde ein qualitatives Verfahren in Form der mündlichen Befragung gewählt. Qualitative Verfahren werden eingesetzt, um erste Hypothesen oder Theorien zu generieren. Phänomene sollen von „innen heraus“ und „aus der Sicht des Subjekts, verstanden werden“ (Misoch, 2019, S. 2). Aus der vorangegangenen Literaturrecherche geht hervor, dass die Thematik noch sehr neu ist und der Stand der Forschung zu ungenügend, um quantitativ vorzugehen. Im Rahmen dieser Arbeit erfolgt eine „Untersuchung eines bisher unbekannten Feldes bzw. Untersuchung bisher unbekannter Sachverhalte“ (Misoch, 2019, S. 2), was ein weiteres Kriterium der qualitativen Forschung darstellt und für eine induktive Vorgehensweise sprechen lässt.
Die mündliche Befragung wurde in Form von Leitfadeninterviews durchgeführt. Das Leitfadeninterview ist eine halb-offene Erhebungsform, bei der die Befragung mit Hilfe eines vorab angefertigten Leitfadens durchgeführt wird (Misoch, 2019, S. 65-71). Darin sind die zu stellenden Fragen bzw. Themengebiete offen formuliert, wobei eine Reihenfolge nicht unbedingt einzuhalten ist, aber alle Fragen bzw. Themengebiete zu beantworten und zu behandeln sind. Antwortmöglichkeiten werden nicht vorgegeben. Leitfadeninterviews eignen sich vor allem für die „explorative Erkundung eines Bereichs“ (Misoch, 2019, S. 280) und werden aufgrund ihrer Vielseitigkeit häufig eingesetzt. Durch die Struktur eines Leitfadens ist ein spätererVergleich der Ergebnisse möglich.
Die Leitfadeninterviews wurden größtenteils über Skype-Calls durchgeführt. Ein Teilnehmer wurde aufgrund von technischen Schwierigkeiten mit Skype über WhatsApp befragt. Eine Face-to-Face Befragung wurde nicht nur aus pandemiebedingten22 Gründen ausgeschlossen. Nach Misoch (2019, S. 169-176) bieten Telefoninterviews im Vergleich zu Face-to-Face Befragungen folgende Vorteile:
- Minimierung des Risikos für Biases durch die Gestik, Mimik des Interviewers,
- Zeitersparnis, da keine Reisetätigkeit erforderlich,
- Geografische Verteilung der Befragten ist irrelevant (Misoch, 2019, S. 169-176).
Allerdings können auch Nachteile auftreten:
- Kommunikationsprobleme durch fehlende Mimik, Gestik,
- Keine Kenntnis des Interviewers über die Umgebungssituation des Interviewten (Misoch, 2019, S. 169-176).
Bisher gibt es keine belegten Erkenntnisse darüber, welche der beiden Methoden besser für die qualitative Forschung geeignet ist (Misoch, 2019, S. 169-176). Um den Interviewprozess fokussiert, unkompliziert und so ablenkungsfrei wie möglich zu gestalten und aufgrund der oben genannten Vorteile, wurde auf die Videofunktion verzichtet. Die Interviews erfolgten rein auditiv.
Die Befragung orientierte sich an den „Prinzipien des Leitfadens: Offenheit, Prozesshaftigkeit und Kommunikation“ (Misoch, 2019, S. 74-75). Der verwendete Leitfaden wurde in Anlehnung an die „Struktur eines Leitfadens“ nach Misoch (2019, S. 74) konstruiert, die vier Phasen des Interviews unterscheidet:
- Informationsphase: Die Befragten wurden über Inhalt, Verlauf und Ziel des Interviews informiert.
- Aufwärm- und Einstiegsphase (Warm-Up): Es wurde eine Einstiegsfrage gestellt, um offen in das Thema hineinzufinden.
- Hauptphase: Die im Vorfeld formulierten Fragen und Themen wurden behandelt.
- Ausklang- und Abschlussphase: Die Befragten hatten die Möglichkeit, eigene Themen anzusprechen. Abschließend wurde über das Thema der Abschlussarbeit und die Forschungsfrage informiert und eine Zusendung der Untersuchung zugesichert (Misoch, 2019, S. 74).
Der Leitfaden umfasst fünf Themenfelder:
- Themenfeld 1: Personalentwicklung: Kenntnisse und persönliche Erfahrung
- Themenfeld 2: Entscheidungsträger: Unterschiede in derAkzeptanz
- Themenfeld 3: People Analytics: Einstellungen, Vor- und Nachteile, Voraussetzungen
- Themenfeld 4: Akzeptanzsteigernde Maßnahmen
- Themenfeld 5: Fragen mit spezifischem Kontext
Entsprechend der Themenfelder fand die Konstruktion der Fragen nach einer logischen Reihenfolge statt. Dadurch soll das Interview einer zielführenden Struktur folgen (Misoch, 2019, S. 66).
Die Fragen wurden auf Basis der Literaturrecherche und der Erkenntnisse aus den zitierten Studien entwickelt. Dabei stand stets die Forschungsfrage im Fokus. Die Leitfragen wurden im Vorfeld größtenteils ausformuliert. Durch einen hohen Strukturierungsgrad kann das Interview besser gesteuert werden - was sich für Forscher mit weniger Erfahrung empfiehlt - zudem kann ein späterer Vergleich der Daten gewährleistet werden (Misoch, 2019, S. 66).
Es wurde darauf geachtet, keine Suggestivfragen zu formulieren. Geschlossene Fragen können entsprechend dem Kontext gestellt werden, wurden aber größtenteils vermieden. Gemäß der Logik der Kommunikationssituation können durch die Person des Interviewers auch kontextbezogene Fragen spontan formuliert werden. Durch ein gewisses Maß an Offenheit und Flexibilität bzgl. der Leitfadenstruktur soll gewährleistet werden, dass ein effizienter Kommunikationsfluss während der Befragung nicht unterbrochen wird (Misoch, 2019, S. 32; S. 66-67).
Um die Konstruktion des Leitfadens und der Fragen aus Sicht des Forschers nachvollziehen zu können, werden nachfolgend die Gedankengänge bei der Konzeption dargestellt:
- Themenfeld 1: Zu Beginn des Interviews wird eine Frage zum Thema Personalentwicklung gestellt, in der der Befragte seine eigene Erfahrung reflektieren kann. Auf diese Weise wird ein persönlicher Bezug zur Thematik hergestellt. Der Begriff „Personalentwicklung“ wird dazu im Vorfeld definiert, um Unsicherheiten bzgl. der Begriffsbestimmung bei den Befragten zu vermeiden. Anschließend werden situationsbedingte Fragen gestellt. Es soll abgeklärt werden, ob bereits Erfahrungen zu KI-basierten Entscheidungen bzw. People Analytics-Tools vorliegen.
- Themenfeld 2: Es soll näher beleuchtet werden, ob die Befragten unterschiedliche Einstellungen bei der Akzeptanz haben, je nachdem, ob die Entscheidung zu einer Personalentwicklungsmaßnahme durch KI oder eine Person getroffen wird.
- Themenfeld 3: Die Befragten sollen den Einsatz eines People Analytics-Tools beurteilen und bewerten. Dabei sollen selbständig Voraussetzungen für den Einsatz des Tools geschildert werden. Mögliche Gründe für Misstrauen gegenüber derTechnologie sind zu erörtern.
- Themenfeld 4: Es erfolgt eine Evaluierung möglicher akzeptanzsteigernder Maßnahmen.
- Themenfeld 5: Gegen Ende des Interviews werden Einstellungen zu KI und das Wissen zu People Analytics abgefragt. Die Befragten erhalten die Möglichkeit zur Reflektion ihres Gefühlszustands.
Der Fachterminus People Analytics wird erst gegen Ende des Interviews erwähnt. Eine Verwendung im Vorfeld könnte bestimmte Gedankengänge triggern, die zu einer Wertung des Begriffs und damit zu sozialer Erwünschtheit bei der Beantwortung der Fragen führen (Misoch, 2019, S. 68). Insgesamt soll der hohe Grad an Strukturiertheit eine professionelle Interviewsituation gewährleisten, Orientierung an der Forschungsfrage sichern und ein Abschweifen verhindern. Der vollständige Leitfaden ist als Anhang D dieserArbeit angehängt.
Nach der Finalisierung des Interviewleitfadens erfolgte ein Pretest mit einer freiwilligen Testperson. Dabei sollten die zu verwendende Technik, das allgemeine Verständnis zu den Fragen und die zu erwartende Dauer des Interviews überprüft werden. Die befragte Testperson entsprach der Zielgruppe und wurde gemäß den Richtlinien in Kapitel 4.2.1 aufgeklärt. Die Person war nicht Bestandteil der weiteren Forschung. Beim Pretest wurden die Programme Skype, Teams und Zoom getestet.
Skype erwies sich als störungsfrei und sehr einfach zu bedienen und wurde sowohl von der Testperson, als auch vom Interviewer als das bestgeeignete Befragungsmedium bewertet und ausgewählt. Da der Pretest keine Problematik bzgl. der Konzeption oder Fragestellung aufwies, erfolgte keine Veränderung des Leitfadens oder der geplanten Vorgehensweise. Das erste Interview wurde am 19.12.2021 geführt und das letzte am 07.01.2022, was einem Befragungszeitraum von knapp drei Wochen entspricht. Aufgrund der Feiertage um Weihnachten und Neujahr und der knappen zeitlichen Ressourcen vieler (potenzieller) Interviewpartner konnte ein kürzerer Befragungszeitraum nicht realisiert werden.
In der quantitativen Forschung wird durch das Ziehen einer Zufallsstichprobe - auch Sampling genannt - das Ziel verfolgt, Rückschlüsse auf die Grundgesamtheit zu ziehen und dabei statistische Repräsentativität einzuhalten (Schreier, 2020, S. 19). Im Vergleich dazu ist das Ziel qualitativer Forschung nicht, statistische, sondern inhaltliche Repräsentativität zu erreichen (Misoch, 2019, S. 202). Im Fokus steht, durch die bewusste Wahl der Fälle einen größtmöglichen Erkenntnisgewinn zu erreichen. Das Sampling zielt ab auf „die Ziehung derjenigen Subjekte, die sich als inhaltlich adäquat im Hinblick auf die Forschungsfrage erweisen und die reichhaltige Informationen zu dieser zu liefern versprechen“ (Misoch, 2019, S. 200).
Aus diesem Grund erfolgte das Sampling gezielt und nicht per Zufall. Die Stichprobe wurde anhand von Kriterien ausgewählt, die aufgrund der vorangehenden Literaturrecherche als schlüssig für die Grundgesamtheit erschienen. Zur Grundgesamtheit gehören theoretisch alle Mitarbeiter in Deutschland, die im Personalentwicklungsprozess von einem (potenziellen) Einsatz von People Analytics betroffen sind. Konkret definiert werden kann die Grundgesamtheit jedoch nicht, da zu wenige Informationen vorliegen. Die Grundgesamtheit ist dem Forschenden somit „zumindest in den Grundzügen bekannt“ (Misoch, 2019, S. 208).
Die Kriterien, nach denen das Sampling erfolgt ist, werden nachfolgend dargestellt und begründet. Auf diese Weise ist der Auswahlprozess intersubjektiv nachvollziehbar, transparent und auf den größtmöglichen Erkenntnisgewinn ausgerichtet (Misoch, 2019, S. 212). Es wurde darauf geachtet, so wenig wie möglich, aber so viel wie nötig zu spezifizieren, um die Forschungsfrage so gut wie möglich zu beantworten und die Generierung neuer Erkenntnisse zu ermöglichen.
Darstellung der Samplestruktur:
- Beschäftigten einem Großunternehmen: Gemessen an der Unternehmensgröße ist mit über 44 % der Großteil der Arbeitnehmer in Deutschland bei Großunternehmen23 beschäftigt (Rudnicka, 2021). Ein (potenzieller) Einsatz von People Analytics ist in einem Großunternehmen aktuell wahrscheinlicher als in kleinen und mittelständischen Unternehmen (Blum, 2021, S. 256).
- Ähnlicher kultureller Hintergrund: Akzeptanz im Generellen und die Einstellung zu Kl sind stark kulturell geprägt (Choi, 2021; Hagerty & Rubinov, 2019). Die Befragung von Personen aus heterogenen Kulturkreisen (z.B. aus Asien entsendete Mitarbeiter) ist für ein Erlangen eines größtmöglichen Erkenntnisgewinns nicht zielführend.
- Tätigkeitsprofil, für das regelmäßige Personalentwicklungsmaßnahmen erfolgen: Befragte sollen von regelmäßigen Personalentwicklungsmaßnahmen betroffen sein, um sich während des Interviews in bestimmte Situationen hineinversetzen zu können.
- Nicht im HR tätig: Die Befragten sollen kein Expertenwissen über People Analytics besitzen. Die Befragung von Mitarbeitern im HR als mögliche Nutzer von People Analytics-Anwendun- gen oder als Entscheider im Personalentwicklungsbereich wird ausgeschlossen.
- Grundkenntnisse zu Begriffen im Bereich Kl: Für ein Verständnis der Interviewfragen ist ein einfaches Grundwissen zu Begriffen wie Kl, Big Data, Algorithmen, o.ä. notwendig. Eine Erklärung der Fachbegriffe würde sonst den Interviewrahmen sprengen.
- Angemessene Altersspanne: Wenn mit einer großflächigen Implementierung von People Analytics innerhalb der nächsten fünf bis zehn Jahre gerechnet wird, sind Mitarbeiter, die in diesem Zeitraum in Rente gehen, nicht vordergründig relevant. Auch Personen, bei denen aufgrund ihres Alters davon auszugehen ist, dass sie aufgrund von Ausbildung oder Studium noch nicht allzu lange im Berufsleben stehen, werden ausgeschlossen. Aus diesem Grund wird ein Alter von ca. 25 Jahren- 55 Jahren angesetzt.
- Offenheit und Fähigkeit zur Reflexion: Die Befragten sollen in der Lage sein, im Interview offen zu kommunizieren und Prozesse und Entscheidungen reflektieren zu können.
Die Festlegung der Stichprobengröße mit n=12 orientierte sich an Guest et al. (2006). Demnach ist bei n=12 ein ausreichender Sättigungsgrad bzgl. des Informationsgehalts erreicht (Guest et al., 2006).
Die Interviewpartner wurden anhand der dargestellten Samplestruktur aus dem breiten Freundesund Bekanntenkreis selektiert. Es wurden nur Personen ausgewählt, bei denen der Person des Forschers bereits aufgrund von Firmenzugehörigkeit, Position, Branche und persönlichem Wissen bekannt war, dass sie die Stichprobenkriterien erfüllen. Das potenzielle Risiko einer Beeinflussung durch vorherige Befragung sollte vermieden werden. Insgesamt wurden 25 in Betracht kommende Interviewpartner zur Teilnahme an einem anonymen Interview angesprochen, bis eine Einwilligung von 12 Teilnehmern vorlag.
Der methodischen Vorgehensweise liegt der qualitative Forschungsansatz zugrunde. Dieser Forschungsansatz beruht auf dem sozialen Konstruktivismus und einer induktiven und explorativen Forschungslogik (Misoch, 2019, S. 2). Durch eine offene Herangehensweise bei der Untersuchung sub- jektiverWirklichkeiten sollen neue Hypothesen bzw. Theorien gebildet werden.
Die klassischen Gütekriterien Objektivität, Reliabilität und Validität können in der qualitativen Forschung generell nur schwer angewendet werden. Es existiert keine einheitliche Formulierung von Gütekriterien (Flick, 2020, S. 247-249). Die empirische Untersuchung im Rahmen dieser Arbeit orientierte sich an ausgewählten, von Misoch (2019, S. 245-260) für die qualitative Forschung empfohlenen Gütekriterien:
- Neutralität: Bei der Datenerhebung und vor allem bei der Datenauswertung wurde Neutralität gewahrt. Die Persönlichkeit des Forschers floss nicht in die Methodik mit ein.
- Kontrollierte Subjektivität: Es wurde sich daran orientiert, die Subjektivität bei der Auswertung zu minimieren.
- Intersubjektive Nachvollziehbarkeit: Im gesamten Forschungsprozess wurde auf eine transparente Darstellungsweise geachtet. Die Teilprozesse sind intersubjektiv nachvollziehbar.
- Verfahrensdokumentation: Der Forschungsprozess wurde vollständig dokumentiert und in dieser Arbeit dargestellt.
- Regelgeleitetheit: Das Vorgehen orientierte sich an der theoretischen Vorgehensweise in der qualitativen Forschung (Misoch, 2019, S. 245-260).
Dabei wurden generelle basale ethische Prinzipien nach Willig (2013, S. 26) eingehalten:
- Einverständniserklärung: Die Teilnahme der Befragten erfolgte auf Grundlage der Unterzeichnung einer Einverständniserklärung. Dabei wurde im Vorfeld über den generellen Inhalt der Befragung und das Ziel informiert.
- Keine Täuschung: Die Befragten wurden in keiner Weise durch Fehlinformationen vorsätzlich getäuscht oder in die Irre geführt.
- Widerrufsrecht: Jedem Befragten stand jederzeit ein Widerruf der Teilnahme ohne zu erwartende Konsequenzen offen.
- Nachbesprechung/Debriefing: Eine vollständige Erklärung zum Begriff People Analytics erfolgte am Ende der Befragung. Es wurde kommuniziert, dass die Ergebnisse der Untersuchung den Befragten nach erfolgreicher Freigabe derArbeit in Form derThesis zugesendet werden.
- Vertraulichkeit: Personenbezogene Daten wurden gemäß der DSGVO behandelt. Alle Daten, die Rückschlüsse zur Person zulassen, wurden anonymisiert (Willig, 2013, S. 26).
Sowohl Durchführung als auch Auswertung der Interviews wurden an den zentralen Prinzipien qualitativen Forschens nach Misoch (2019, S. 25-36) ausgerichtet, die nachfolgend erläutert werden:
- Verstehen: Im Vordergrund steht das „Verstehenwollen“ des Subjekts durch den Interviewer.
- Wirklichkeit als Konstruktion: Dem Interviewer muss klar sein, dass die Ansichten des Subjekts dessen eigens konstruierte Wirklichkeit darstellen.
- Subjektbezogenheit: Das Subjekt steht im Fokus der Forschung. Es gibt keine objektive Wirklichkeit.
- Offenheit: Daten werden nicht auf standardisierte Weise erhoben, sondern durch qualitative Methoden wie z.B. das Leitfadeninterview. Forschung erfolgt erkenntnistheoretisch und setzt eine explorative Vorgehensweise voraus. Die Methodologie der Forschung ist entsprechend der Fragestellung anpassbar.
- Kommunikation: Das Interview ist ein wechselseitiger Kommunikationsprozess, jedoch wird ein asymmetrisches Verhältnis zwischen Interviewer und Interviewtem eingehalten. Der Interviewer agiert als Fragesteller, der Befragte gibt die Antworten, wobei Rückfragen nach dialogischem Prinzip möglich sind. Das Interview ist kein Alltagsgespräch, sondern eine künstlich herbeigeführte Situation.
- Flexibilität: Eine situative Anpassung der verwendeten Methodologie ist möglich.
- Prozessualität: Der Forschungsprozess kann sowohl linear als auch nicht-linear, z.B. in zyklischer Form erfolgen.
- Reflexivität: Eine Reflexion des Forschungsprozesses ist in der Hinsicht notwendig, dass durch die Kommunikationskompetenz des Interviewenden Verzerrungen ausgelöst werden, die die Ergebnisse der Untersuchung beeinflussen können.
- Explikation: Der Forschungsprozess muss insgesamt transparent und nachvollziehbar dargestellt werden (Misoch, 2019, S. 25-36).
Es sei angemerkt, dass ein Einfluss des Interviewers auf die Befragten nicht komplett ausgeschlossen werden kann, vor allem aufgrund der Tatsache, dass die interviewten Personen aus dem Bekanntenkreis stammen. Auch können Fehler in der Datenerhebung und Datenauswertung auftreten (Helfferich, 2011.S. 158, 176).
Im Vorfeld der Befragung erfolgte die Sichtung relevanter Literatur aus Fachbüchern, Fachzeitschriften, Studien und aktuellen Online-Publikationen. Dabei wurde vor allem in Kapitel zwei nach englischsprachiger Literatur und mit englischsprachigen Suchbegriffen recherchiert, da aufgrund der noch relativ neuen Thematik eine größere Fülle an Informationen zu erwarten war. Das Ziel der Untersuchung sollte sein, neue Erkenntnisse zu gewinnen, um daraus mögliche Theorien bzw. erste Hypothesen zu generieren. Zudem sollten Handlungsempfehlungen für die Praxis abgeleitet werden.
Die qualitative Inhaltsanalyse ist eine Methode zur Analyse von Texten in der sozialwissenschaftlichen Forschung. Neben weiteren Techniken wie z.B. der .Grounded Theory', ist sie die am häufigsten angewandte Methode zur Textanalyse (Mayring & Fenzl, 2019, S. 633). Während andere Auswertungsverfahren wie die Grounded Theory oder die objektive Hermeneutik explorativ und stark interpretativ ablaufen, ist die Vorgehensweise bei der qualitativen Inhaltsanalyse durch ein systematisches und regelgeleitetes Arbeiten geprägt (Mayring & Fenzl, 2019, S. 634-635).
Auf diese Weise kann sich die Methodik - im Vergleich zu anderen qualitativen Analysemethoden - an den Gütekriterien Reabilität und Validität orientieren (Schreier, 2014). Hierbei bezieht sich die Reabilität auf die Intersubjektivität der Forscher. Die sog. Intercoder-Übereinstimmung beschreibt, in welchem Ausmaß zwei verschiedene Forscher in ihren jeweiligen Ergebnissen der Codierung übereinstimmen. Kritisch gesehen, ist im Rahmen dieser Arbeit keine Reabilität gewährleistet, da aufgrund der Einzelperson des Forschers keine Intercoder-Übereinstimmung erreichbar ist. Um Validität zu erlangen, müssen Kategorien teilweise induktiv entwickelt worden sein. Diese Vorgehensweise wird bei der Codierung der Subkategorien eingehalten, womit das Kriterium der Validität erfüllt ist (Schreier, 2014).
Es existieren verschiedene Formen der qualitativen Inhaltsanalyse, z.B. nach Gläser und Laudel (2010), Kuckartz (2018) oder Mayring (2015), um einige wichtige zu nennen. Das zentrale gemeinsame Merkmal aller Verfahren ist die Orientierung an der Kategorienbildung (Schreier, 2014). Als passende Analysemethode in dieser Arbeit wurde die qualitative Inhaltsanalyse nach Kukartz mit Unterstützung der Software ,MAX Qualitative Data Analysis', kurz MAXQDA, bestimmt. Wie Mayring unterscheidet auch Kuckartz drei Haupttechniken bei der qualitativen Inhaltsanalyse (Kuckartz, 2018, S. 97-161). Bei Kuckartz sind es die inhaltlich-strukturierende, die evaluative und die typenbildende qualitative Inhaltsanalyse. Zur Auswertung der Interviews wurde das inhaltlich-strukturie- rende Verfahren der qualitativen Analyse gewählt. Strukturierend qualitative Analysen gelten „als Kern einer qualitativen Inhaltsanalyse“ (Schreier, 2014).
Das evaluative Verfahren wurde mit Blick auf die Forschungsfrage aufgrund der quantitativen Komponente der Skalierung als nicht geeignet identifiziert (Schreier, 2014). Die typenbildende Analysemethode wurde ausgeschlossen, da eine Typenbildung nicht im Fokus der Forschung stand.
Die Aneignung erforderlicher Kenntnisse zum Umgang mit der Analysesoftware erfolgte durch YouTube-Tutorials auf dem Kanal „MAXQDA VERBI“ und die Fachbücher „Analyse qualitativer Daten mit MAXQDA“ von Rädiker & Kuckartz (2018), sowie „Qualitative Inhaltsanalyse. Methoden, Praxis, Computerunterstützung“ von Kukartz (2018). MAXQDA ist ein Programm zur computerunterstützten Analyse qualitativer Daten wie beispielsweise Interviews. Die Software bietet zahlreiche Analysefunktionen, wodurch alle Schritte der empirischen Untersuchung in einem einzigen Programm abgedecktwerden können (Rädiker& Kuckartz, 2018, S. S. 1-6).
Die erste Funktion, die im Vorfeld zur Inhaltsanalyse genutzt wurde, war die Transkription der Interviews. Um zeitgemäß und zeitsparend zu arbeiten, wurden die Audio-Dateien zunächst über die Diktierfunktion in Word automatisch von Sprache zu Text umgewandelt. Diese Funktion wird in MAXQDA nicht angeboten. Der Text wurde anschließend in MAXQDA der jeweiligen Audiodatei zugeordnet und im Anschluss transkribiert. Der primäre Plan, nach dem Transkriptionssystem von Rädiker und Kuckartz (2018, S. S. 44) zu verfahren, wurde wieder verworfen, da nach einer ersten Evaluierung der Transkriptionsregeln diese nicht alle Regeln abdeckten. So war u.a. nicht definiert, wie mit Wortdoppelungen oder Versprechern verfahren werden sollte. Das Transkriptionssystem nach Dresing und Pehl (2018), auf dem auch das System nach Rädiker und Kuckartz (2018) aufbaut, bot hingegen eindeutigere Regeln, weshalb es ausgewählt wurde. Nach der einfachen, inhaltlichsemantischen Transkription nach Dresing und Pehl (2018, S. 21-22) wird wörtlich transkribiert, Sprache und Interpunktion werden etwas geglättet. Einen vollständigen Überblick über die befolgten Regeln bietet Anhang B. Zudem wurden die Hinweise zur einheitlichen Schreibweise nach Dresing und Pehl (2018, S. 24-25) eingehalten (siehe Anhang C). Von den Interviewten genannte Informationen, die mögliche Rückschlüsse auf ihre Person, Arbeitgeber o. ä. zulassen, wurden vollständig anonymisiert, indem Platzhalter eingefügt wurden.
Im ersten Durchgang wurden die Interviews in der Reihenfolge, in der sie aufgenommen wurden, transkribiert. Dabei erfolgte nach jeder Transkription eine zweite Kontrolle des erstellten Transkripts. In einem dritten Durchgang wurden die Transkripte dann nochmals auf Fehler untersucht und auf die Einhaltung derTranskriptionsregeln überprüft. Der Zeitaufwand für das reine Transkribieren betrug pro Transkript ca. 2,5 Stunden. Die Transkripte wurden mit Zeitmarken versehen und sind im Anhang F zu finden. Es wird kritisch angemerkt, dass Fehler in der Transkription nicht komplett ausgeschlossen werden können.
Als zweite Funktion in MAXQDA wurde die qualitative Inhaltsanalyse zur Auswertung der Interviews verwendet. Um Text eine Deutung zuzuschreiben, werden Textstellen innerhalb eines Kategoriensystems verschiedenen Kategorien zugewiesen (Mayring & Fenzl, 2019, S. 633). Dabei werden die Kategorien sowohl deduktiv, durch die Ableitung aus der Forschungsfrage entwickelt, als auch induktiv, aus dem Textmaterial selbst heraus. Während die theoretisch-fundierte Methodik nach Mayring als Klassiker unter den Inhaltsanalysen gilt, bietet die Vorgehensweise nach Kuckartz einen offenen Zugang zum auszuwertenden Material und damit ein geeignetes Verfahren zur gemischt deduktiv-induktiven Kategorienbildung (Schreier, 2014).
Der Prozess der Auswertung erfolgte anhand des strukturierten Ablaufschemas nach Kuckartz (2018, S. 100) (vgl. Abb. 5). Die genauen Arbeitsschritte in den einzelnen Phasen sowie die Art der Kategorienbildung werden, wie von Kuckartz (2018, S. 120-121) empfohlen, im Ergebnisbericht in Kapitel fünf erläutert.
Abb. 5. Ablaufschema der inhaltlich-strukturierten Inhaltsanalyse
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Eigene Darstellung in Anlehnung an: Kuckartz, 2018, S. 100.
Schritt 1: Initiierende Textarbeit
Im ersten Schritt wurden die Transkripte der Interviews in MAXQDA in Hinblick auf die Forschungsfrage gelesen. Während des Leseprozesses erfolgte die Erstellung von Memos zu den Antworten der Interviewten. Dabei wurde das Gesagte objektiv zusammenfasst und teilweise interpretiert. Sowohl Besonderheiten bzgl. Form und Inhalt, als auch spontane Gedankengänge der Person des Forschers wurden notiert. Zur Übersicht der Einzelfälle erfolgte nach Erstellung der Memos die stichpunktartige Fallzusammenfassung der einzelnen Interviews. Folgende Abbildung gibt beispielhaft die Fallzusammenfassung des ersten Interviews wieder.
Abb. 6. Fallzusammenfassung Interview B1
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Eigene Ergebnisse.
Fallzusammenfassungen sind rein faktenbasiert und spiegeln das Gesagte der Interviewten wider (Kuckartz, 2018, S. 58-59). Sie bieten u.a. den Vorteil, dass sie Hypothesen- und kategoriengenerierend sind. So können sie z.B. bei einer weiterführenden Untersuchung zur Typenbildung dienen. Da Fallzusammenfassungen bei der Wahl der inhaltlich-strukturierenden Methodik zwar als hilfreicher Zwischenschritt empfohlen werden, ein solcher aber nicht unbedingt notwendig ist, werden alle weiteren Fallzusammenfassungen von B2 bis B12 in Anhang E dieserArbeit aufgeführt.
Schritt 2: Entwickeln von thematischen Hauptkategorien
Abb. 7. Hauptkategorien
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Eigene Ergebnisse aus MAXQDA.
Die dargestellten neun Hauptkategorien wurden hauptsächlich aus dem Interviewleitfaden abgeleitet, wobei die finale Sortierung im sechsten Schritt erfolgte. Die gewählte Form der Kategorienbildung wird als deduktiv bzw. A-priori-Kategorienbildung, oder auch theorieorientierte Kategorienbildung bezeichnet und bildet den Gegenpol zur induktiven Kategorienbildung, welche am Material selbst stattfindet (Kuckartz, 2018, S. 97). Bei der deduktiven Vorgehensweise hat das erhobene Datenmaterial keinen Einfluss aufdie Kategorienbildung.
Die Anzahl der Hauptkategorien orientierte sich an der von Kuckartz empfohlenen Menge von „nicht größer als etwa 10 bis maximal 20 Hauptkategorien“ (Kuckartz, 2018, S. 97). Die qualitative Inhaltsanalyse sieht eine genaue Definition der abgeleiteten Kategorien vor. Es muss genau festgelegt werden, wann eine Kategorie Anwendung findet. Hierzu wird ein Beispiel aus dem Text verwendet, das als sog. „Anker“ bezeichnet wird (Rädiker & Kuckartz, 2018, S. 307). Nachfolgend ist beispielhaft die Kategoriendefinition zu „Verantwortung für Schaffen derVoraussetzungen“ dargestellt (vgl. Tab 7).
Tab. 7. Beispielhafte Kategoriendefinition
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Eigene Ergebnisdarstellung nach: Rädiker und Kuckartz, 2018, S. 307.
Alle Kategorien und zugehörigen Definitionen sind im Codebuch dokumentiert und dem Anhang beigefügt (siehe Anhang G). Es muss kritisch angemerkt werden, dass der zweite Analyseschritt nach der initiierenden Textarbeit erfolgt, womit bereits eine erste Auseinandersetzung mit den empirischen Daten vorliegt. Somit sind in die Kategorienbildung ebenfalls induktive Elemente eingeflossen, wie „1. Das Ziel der Kategorienbildung auf der Grundlage der Forschungsfrage bestimmen“ und „5. Systematisieren und Organisieren des Kategoriensystems“ (Rädiker & Kuckartz, 2018, S. 103). Mischformen bzw. mehrstufige Kategorienbildung sind jedoch kennzeichnend für die qualitative Inhaltsanalyse und somit praktikabel (Rädiker & Kuckartz, 2018, S. 97).
Schritt 3: Codieren des gesamten Materials mit den Hauptkategorien
Im nächsten Schritt erfolgte die Zuteilung des Textmaterials zu den definierten neun Hauptkategorien. Dieser Arbeitsschritt wird in MAXQDA als „Codieren“ bezeichnet. Textpassagen ohne eindeutige Zuordnung bzw. Relevanz blieben uncodiert. Einzelne Textabschnitte, die mehrere Themen enthielten, wurden mit den verschiedenen, zutreffenden Kategorien codiert. Der Prozess der Codierung orientierte sich an folgenden Prinzipien nach Kuckartz (2018, S. 104):
- „Es werden in der Regel Sinneinheiten codiert, jedoch mindestens ein vollständiger Satz.“
- „Wenn die Sinneinheit mehrere Sätze oder Absätze umfasst, werden diese codiert.“
- „Sofern die einleitende (oder zwischengeschobene) Interviewer-Frage zum Verständnis erforderlich ist, wird diese ebenfalls mitcodiert.“
- „Beim Zuordnen der Kategorien gilt es, ein gutes Maß zu finden, wie viel Text um die relevante Information herum mitcodiert wird. Wichtigstes Kriterium ist, dass die Textstelle ohne den sie umgebenden Text für sich allein ausreichend verständlich ist“ (Kuckartz, 2018, S. 104).
Schritt 4: Zusammenstellen allermitdergleichen Hauptkategorie codierten Textstellen
Der vierte Schritt wurde von MAXQDA in Form der Erstellung eines strukturierten Code-Systems automatisch realisiert.
Schritt 5: Induktives Bestimmen von Subkategorien am Material
Mit Hilfe der Guidelines für die Kategorienbildung am Material nach Kuckartz (2018, S. 83-87) wurden im fünften Schritt die Subkategorien induktiv bestimmt. Demnach werden Subkategorien auf Grundlage der Forschungsfrage am Text direkt und sequenziell gebildet und zugeordnet (vgl. Tab. 8).
Tab. 8. Beispiel zurdirekten Kategorienbildung am Material
Abbildung in dieser Leseprobe nicht enthalten
Quelle: Eigene Ergebnisdarstellung nach: Kuckartz, 2018, S. 91.
Für jede Subkategorie wurden sowohl Definition als auch Ankerbeispiele abgebildet. Im Anschluss wurde das gesamte Kategoriensystem in Hinblick auf die Forschungsfrage überprüft und im Codebuch (siehe Anhang G) fixiert (Kuckartz, 2018, S. 88-94).
Schritt 6: Codieren des kompletten Materials mitdem ausdifferenzierten Kategoriensystem
Dieser Schritt stellt den letzten vor der Analyse der Daten dar. Das mit den Hauptkategorien codierte Textmaterial wurde in einem finalen Durchlauf mit den zugehörigen Subkategorien codiert. Die Kategorien wurden dabei entsprechend einer sinnvollen Reihenfolge zur Beantwortung der Forschungsfrage strukturiert. Die Gesamtübersicht zu Codes und Häufigkeiten ist in Anhang H visuell dargestellt.
Schritt 7: Einfache und komplexe Analysen, Visualisierungen
Die Analysephase bildet den letzten Schritt im Auswertungsprozess. Kuckartz (2018, S. 118) unterscheidet „sechs Formen einfacher und komplexer Auswertung bei einer inhaltlich strukturierenden Analyse“:
- „Kategorienbasierte Auswertung der Hauptkategorien,
- Zusammenhänge der Subkategorien innerhalb einer Hauptkategorie,
- Zusammenhänge zwischen Hauptkategorien,
- Kreuztabellen - qualitativ und quantitativ,
- Konfigurationen von Kategorien,
- Visualisierung von Zusammenhängen“ (Kuckartz, 2018, S. 118).
Da im Rahmen dieser Arbeit die Generierung von neuen Hypothesen und Theorien im Mittelpunkt steht, wurde die „Kategorienbasierte Auswertung“ nach Kuckartz (2018, S. 118) als die adäquate Analysemethode gewählt. Hierbei wird das Gesagte zu Themen und Subthemen hinsichtlich der Beantwortung der Forschungsfrage dargestellt und analysiert. Eine Typenbildung bzw. Fallvergleiche werden nicht angestrebt. Die Auswertung erfolgt themenspezifisch, wobei Häufigkeiten nur erörtert werden, wenn diese relevant im Sinne der Forschungsfrage sind. Auswertung und Präsentation der Ergebnisse erfolgen im nächsten Kapitel.
[...]
3 Als War for Talents wird der Kampf um die besten Talente auf dem Arbeitsmarkt definiert (Hansen & Hauff, 2019, S. 41).
4 Das Akronym VUCA steht für Volatility, Uncertainty, Complexity und Ambiguity und bezeichnet die Herausforderungen in der heutigen Arbeitswelt (Hodler & Pfeiffer, 2018, S. 241).
5 Die Great Resignation bezeichnet die große Kündigungswelle, die in den USA während der Lockdown-Pha- sen entstanden ist und sich in Europa bereits merkbar macht (Schneider, 2022).
6 Künstliche Intelligenz basiert auf der Erforschung intelligenten Problemlösungsverhaltens durch Computer (Siepermann, n.d.a).
7 Weiterführende Quellenangaben: Harbinger (2022), Vulpen (n.d.) und Sturm (2020).
8 Als „Machine Learning“, zu deutsch maschinelles Lernen, wird die Kompetenz des Selbstlernens einer künstlichen Intelligenz bezeichnet (Bendel, Machine Learning, n.d.b).
9 Big Data bezeichnet die aktuell großen Mengen an Daten, die weltweit in unterschiedlichen Bereichen generiertwerden (Bendel, n.d.a).
10 „Deutsche Unternehmen“ bezieht sich im nachfolgenden Kontext stets auf Unternehmen, die als Arbeitgeber physisch in Deutschland ansässig sind.
11 Die Balanced Scorecard ist ein Kennzahlensystem zur Strategieimplementierung. Weiterführende Quellenangabe: Weber, n.d. Zusammenfassend lässt sich sagen, dass Personalcontrolling eine wichtige Grundlage für People Analytics darstellt. Bei genauerer Betrachtung werden jedoch die Unterschiede deutlich, durch welche People Analytics als deutlich tiefgreifender und innovativerer Ansatz differenziert wird.
12 Der Begriff .Talent Analytics' steht in diesem Zusammenhang sinnbildlich für People Analytics.
13 Unternehmen mit physischem Sitz in Nordamerika.
14 Die tatsächliche Zahl derTeilnehmer betrug n = 492.
15 Python ist Programmiersprache und zugleich Software, die zur Erstellung von Algorithmen und somit zur erweiterten Datenanalyse eingesetzt werden kann (Python, 2022).
16 Wearables sind „Computertechnologien, die man am Körper oder am Kopf trägt“ und „Teil des Internets der Dinge“ (Bendel, n.d.c.).
17 Dieses Fallbeispiel stammt aus persönlichen Erfahrungen der Person des Forschers.
18 Für einen besseren Lesefluss wird das englische Pluralwort verwendet.
19 Ein Algorithmus ist „Eine präzise, d.h. in einer festgelegten Sprache abgefasste, endliche Beschreibung eines allgemeinen Verfahrens unter Verwendung elementarer Verarbeitungsschritte zur Lösung einer gegebenen Aufgabe“ (Siepermann, n.d.b). Algorithmen können lernen, Gefühle und Verhaltensweisen zu prognostizieren (Riecke et al., 2018).
20 Hier wird die wörtliche deutsche Übersetzung zitiert und als zusätzliche Literaturquelle zum englischsprachigen Original nach Venkatesh und Bala (2008) und Moore und Benbasat (1991) angegeben.
22 Zum Zeitpunkt der Befragung herrschte die weltweite Corona-Pandemie.
23 Als Großunternehmen werden Unternehmen mit mehr als 249 Beschäftigten oder über 50 Millionen Euro Umsatz bezeichnet (Rudnicka, 2021).
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!
Kommentare