Bachelorarbeit, 2023
45 Seiten, Note: 1,7
Tabellenverzeichnis
Abbildungsverzeichnis
Anhangsverzeichnis
Abkürzungsverzeichnis
1 Problemstellung & Motivation
2 Theoretische Fundierung
2.1 Definition von KI
2.2 Entwicklung des TAM3
2.3 Definition der Faktoren des TAM3
2.4 Herleitung der Forschungsfrage
3 Methodik
3.1 Forschungsdesign
3.2 Stichprobenbeschreibung
3.3 Datenanalyse
3.4 Gütekriterien
4 Ergebnisdarstellung
4.1 Erfahrung mit KI
4.2 Wahrgenommene Nützlichkeit
4.3 Einflussfaktoren auf die Wahrgenommene Nützlichkeit
4.3.1 Einfluss von Subjektiver Norm
4.3.2 Einfluss von Image
4.3.3 Einfluss von Arbeitsrelevanz
4.3.4 Einfluss von Ergebnisqualität
4.3.5 Einfluss der Sichtbarkeit der Ergebnisse
4.4 Wahrgenommene Benutzerfreundlichkeit und ihre Determinanten
5 Ergebnis Diskussion
5.1 Erfahrung mit KI
5.1.1 Erfahrungsgradienten innerhalb der Organisation
5.1.2 Facilitating Conditions als Erfahrungsmediatoren
5.1.3 Erfahrung als doppelte Moderationsachse
5.2 Wahrgenommene Nützlichkeit: Das entscheidende Selektionskriterium
5.2.1 Arbeitsrelevanz als Nutzenanker
5.2.2 Output Quality und Result Demonstrability als Glaubwürdigkeitsfaktoren
5.2.3 Soziale Einflussfaktoren: Subjektive Norm und Image
5.2.4 Motivation als verdeckter Verstärker
5.2.5 Zwischenbilanz: Ein dreifacher Nutzenkanon
5.3 Implikationen für Theorie und Praxis
5.3.1 Implikationen für die Theoriebildung
5.3.2 Implikationen für die betriebliche Ausbildungspraxis
5.3.3 Bridging Theory and Practice
6 Limitationen & Ausblick
6.1 Limitationen
6.2 Ausblick
7 Literaturverzeichnis
Anhang
[Die Anhänge sind aus urheberrechtlichen Gründen nicht im Lieferumfang enthalten.]
Tabelle 1 Definition der Faktoren des TAM3
Tabelle 2 Merkmale der Interviewpartner
Abbildung 1 TAM3 Modell
Abbildung 2 Transkriptionsregeln
Anhang A Interviewleitfaden
Anhang B Kodierleitfaden
Anhang C Interview-Transkripte
[Die Anhänge sind aus urheberrechtlichen Gründen nicht im Lieferumfang enthalten.]
KI/AI Künstliche Intelligenz/Artificial Intelligence
TAM Technology Acceptance Model
PU wahrgenommene Nützlichkeit (Perceived Usefulness)
PEOU wahrgenommene Benutzerfreundlichkeit (Perceived Ease of Use)
BI Nutzungsabsicht (Behavioral Intention)
OECD Organisation für wirtschaftliche Zusammenarbeit und Entwicklung
BMBF Bundesministerium für Bildung und Forschung
GenAI generative KI
KMU kleinere und mittlere Unternehmen
Kaum eine Technologie steht aktuell so im Fokus wie die Künstliche Intelligenz (KI). Seit der Veröffentlichung von ChatGPT Ende 2022 erhalten wir nahezu täglich Meldungen über neue KI-Tools, Fähigkeiten und Potenziale, aber auch über Risiken. Die öffentliche Debatte schwankt dabei zwischen extremen Positionen, von KI als „Allheilmittel“ bis zum „Menschheitsrisiko“. Unstrittig ist jedoch, dass KI als Schlüsseltechnologie des 21. Jahrhunderts enorme Chancen für Wirtschaft und Bildung bietet (BMBF, 2023).
In der Wirtschaft gewinnt deshalb der Einsatz von KI immer mehr an Bedeutung. Laut einem Bericht der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD, 2024) ist der Anteil der KI-Nutzung in deutschen Unternehmen im Jahr 2023 auf 12% gestiegen. Zwar liegt man damit über dem EU-Durchschnitt von 8%, trotzdem agieren viele Betriebe noch vorsichtig bei der Einführung neuer KI-Lösungen. In seinem neuesten Bericht zur Digitalisierung der Wirtschaft warnt der Branchenverband Bitkom e.V. , dass Unternehmen vor Herausforderungen wie Kompetenzengpässen, Datenschutzbedenken, geringer Digitalisierung und einem begrenzten Bewusstsein für KI-Anwendungsfälle stehen (Bitkom e.V., 2025). Trotz dieser Hemmnisse nimmt das Interesse an KI langsam, aber stetig zu und auch in der dualen Berufsausbildung ist diese Entwicklung zu spüren. Organisationen wie der Deutschen Gewerkschaftsbund und die Plattform „Lernende Systeme“ unterstreichen die Relevanz der dualen Ausbildung, um den Fachkräftenachwuchs für eine von KI geprägte Arbeitswelt zu sichern (Dick & Herzog-Buchholz, 2023; Schmidt et al., 2024). Dass solche Hinweise Anklang finden, konnte Mühlemann (2024) anhand der Daten des Bundesinstitutes für Berufsbildung (BIBB) aufdecken, denn das Ergebnis der Auswertung zeigte, dass KI-einsetzende Firmen vermehrt Auszubildende einstellten.
In der beruflichen Bildung selbst wird das Thema KI allerdings erst ansatzweise adressiert. Laut dem Bundesministerium für Bildung und Forschung (BMBF) liegen noch wenige Studien zum KI-Einsatz in der Berufsbildung vor, die Potenziale der KI bleiben also noch weitgehend unausgeschöpft (BMBF, 2023, S. 20). Dabei steht die Ausbildungspraxis vor der Herausforderung, Lehr- und Lernprozesse und Organisationsabläufe im Zuge der KI-Entwicklung grundlegend zu überdenken und weiterzuentwickeln (Rott & Schmidt-Hertha, 2024). Gerade in kaufmännischen Ausbildungsberufen, die stark von Routineprozessen geprägt sind, könnten KI-Tools beträchtliche Mehrwerte bieten (Peissner et al., 2019). Auch die Studie des u-form Verlags zu Recruiting Trends in der Ausbildung zeigt, Unternehmen müssen in Zukunft offen für den Einsatz von KI sein, um attraktiv für potentielle Auszubildende zu bleiben und um Ausbildung effizienter zu gestalten (Beck & Ullrich, 2024). Dennoch ist unklar, unter welchen Bedingungen Ausbildungspersonal bereit ist, solche Technologien tatsächlich einzusetzen. Vor diesem Hintergrund gewinnt die Untersuchung der Akzeptanz von KI in der beruflichen Bildung sowohl wissenschaftlich als auch praktisch an Bedeutung. Die vorliegende Arbeit möchte diese Forschungslücke schließen und einen wertvollen Beitrag zur Forschung in diesem Gebiet leisten, sowie Implikationen für Theorie und Praxis der Berufsausbildung ableiten.
In dieser Arbeit werden, aufgrund der großen Anzahl an Begriffen aus dem Englischen in diesem Bereich, Begriffe wie KI und AI (Artificial Intelligence) im Austausch verwendet. Zuerst soll die Frage nach der Definition von KI geklärt werden. Da es in der Literatur keine allgemeingültige Definition von künstlicher Intelligenz gibt (Giering, 2022, S. 53), wird in dieser Arbeit folgende, breit gefasste, Definition von KI verwendet: „Künstliche Intelligenz (KI) stattet Maschinen mit Fähigkeiten aus, die mit intelligentem, menschlichem Verhalten vergleichbar sind. Unter dem Oberbegriff KI werden Problemlösungsmethoden, darunter Logik und Planungsverfahren, für die menschliche Intelligenz erforderlich wäre, zusammengefasst“ (Fraunhofer IPA, o. J.). Technisch fallen unter KI unterschiedliche Ansätze, so unterscheidet der AI Act der EU drei Hauptkategorien von KI-Techniken: maschinelles Lernen, wissens- und logikbasierte Ansätze und statistische Verfahren (Scheiter et al., 2025, S. 6). Insbesondere das maschinelle Lernen, vor allem Deep Learning, hat zuletzt große Fortschritte gemacht und bildet heute die Grundlage vieler KI-Anwendungen. Nach Röser (2021) werden Anwendungen in schwache und starke KI getrennt. Schwache KI beschreibt Systeme, die nur für konkrete Aufgaben entwickelt wurden (z. B. Sprachassistenten wie Siri oder Alexa), während starke KI Systeme bezeichnet, die auf einer menschengleichen intellektuellen Ebene angesiedelt sind. Ein aktueller Anwendungsbereich mit wachsender Bedeutung ist die generative KI (GenAI). GenAI kann eigenständig neue Inhalte (z. B. Texte, Bilder, Videos) erzeugen und basiert meist auf KI-Modellen, die mit großen Datenmengen trainiert wurden (Scheiter et al., 2025, S. 7). Hierbei werden meist verschiedene KI-Techniken kombiniert und oft in Form von Chatbots eingesetzt, wie z. B. ChatGPT.
In der Bildung werden spezielle KI-Anwendungen eingesetzt, Brandhofer et al. (2024) nennen als Beispiele intelligente Tutoren-Systeme, adaptive Lernplattformen oder automatisierte Feedbacksysteme, die Lernende individuell fördern. Gleichzeitig gelten auch Chatbots als relevant für die Bildung, da sie trotz ihres allgemeineren Charakters Lernprozesse beeinflussen können.
Als theoretische Grundlage für diese Studie wurde das Technology Acceptance Model 3 (TAM3) nach Venkatesh & Bala (2008) gewählt. Im Folgenden ist zu beachten, dass die ursprünglichen englischen Begriffe und Definitionen des TAM3 für diese Arbeit ins Deutsche übersetzt wurden. Das TAM3 ist eine Erweiterung des ursprünglichen TAM von Davis (1989) und baut auf dessen Weiterentwicklungen TAM2 und dem Determinantenmodell der wahrgenommenen Benutzerfreundlichkeit auf. Das ursprüngliche TAM erklärt die Akzeptanz der Nutzung von Technologie durch zwei zentrale Konstrukte, wahrgenommene Nützlichkeit (PU) und wahrgenommene Benutzerfreundlichkeit (PEOU), welche die Nutzungsintention (BI) und in der Folge die tatsächliche Nutzung beeinflussen. TAM2 ergänzt dieses Grundmodell um zusätzliche Einflussfaktoren, insbesondere um die Determinanten der PU abzubilden (Venkatesh & Davis, 2000). Hierzu zählen soziale Einflussfaktoren wie die subjektive Norm und das Image sowie die Arbeitsrelevanz, die Ergebnisqualität und die Sichtbarkeit der Ergebnisse. Parallel dazu entwickelte Venkatesh (2000) ein Modell um die Determinanten der PEOU abzubilden, das auf einem Anker- und Anpassungsprozess basiert. Dieses Modell identifiziert allgemeine Anker (personenbezogene Faktoren), nämlich Selbstwirksamkeit, wahrgenommene externe Kontrolle, Bedenken und intrinsische Motivation. Diese Determinanten werden durch Anpassungsfaktoren justiert, durch das technologiespezifische Vergnügen und die objektive Benutzerfreundlichkeit.
TAM3 integriert die genannten Erweiterungen zu einem Gesamtmodell, welches in Abbildung 1 dargestellt wird. PU und PEOU bleiben die Kernvariablen, die BI determinieren. BI sagt wiederum das tatsächliche Nutzungsverhalten voraus. Neu am TAM3 ist vor allem, dass nun sowohl die Determinanten der PU als auch die Determinanten der PEOU gemeinsam berücksichtigt werden. Wichtig ist, dass keine „Überkreuzeffekte“ vorhanden sind, so beeinflussen die Einflussfaktoren der PU nicht direkt die PEOU und umgekehrt. Zudem führt das TAM3 moderierende Faktoren ein. So wird etwa der Einfluss der PEOU auf die PU durch Erfahrung moderiert und auch andere Faktoren werden dadurch beeinflusst. Darüber hinaus wird nun auch die Freiwilligkeit der Nutzung als Faktor, der die BI beeinflusst, betrachtet.
Das TAM3 wurde bereits hinlänglich validiert und wird deshalb in dieser Arbeit als theoretischer Rahmen dienen, auf welchem die Akzeptanz des Einsatzes von KI in der kaufmännischen Berufsausbildung erhoben wird.
Abbildung 1 TAM3 Modell
Abb. in Leseprobe nicht enthalten
Anmerkung. Aus Venkatesh & Bala, 2008, S. 280.
Zur Übersichtlichkeit und um die, in dieser Arbeit verwendeten, deutschen Begriffe den ursprünglichen englischen Begriffen zuzuordnen, wurde eine Tabelle erstellt. In Tabelle 1 werden die Faktoren des TAM3 und ihre Definitionen dargestellt. Die zwei moderierenden Faktoren, Erfahrung und Freiwilligkeit, und BI sind nicht speziell definiert und wurden deshalb nicht in die Tabelle mitaufgenommen.
Tabelle 1 Definition der Faktoren des TAM3
Abb. in Leseprobe nicht enthalten
Anmerkung. Adaptiert aus „Technology Acceptance Model 3 and a Research Agenda on Interventions” von Venkatesh & Bala, 2008, S. 277, 279.
Nachdem in den vorangegangenen Abschnitten die Definition von KI in dieser Arbeit beleuchtet, der theoretische Rahmen des TAM3 vorgestellt und dessen Faktoren definiert wurden, gilt es nun, die spezifische Forschungsfrage dieser Arbeit abzuleiten. Die Herleitung basiert auf dem aktuellen Stand der Forschung zur Akzeptanz von KI im Bildungskontext, insbesondere in der beruflichen Bildung, und zeigt eine bestehende Forschungslücke auf, die mit dieser Arbeit adressiert werden soll.
Der Einsatz von KI in der Berufsbildung gewinnt zunehmend an bildungspolitischer, wirtschaftlicher und wissenschaftlicher Relevanz. Insbesondere seit der breiten Verfügbarkeit von GenAI wie z. B. ChatGPT hat eine intensive öffentliche und fachliche Diskussion über die Potenziale und Herausforderungen dieser Technologie für Bildungsprozesse begonnen, wie das BMBF in seinem „Aktionsplan KI“ anmerkt (BMBF, 2023). Obwohl diese Debatte vor allem in der (Hoch-) Schulbildung geführt wird, zeigt sich immer deutlicher, dass KI auch die duale Berufsausbildung, besonders am Lernort Ausbildungsbetrieb, maßgeblich beeinflusst, da hier ein direkter Bezug zur technologischen Entwicklung in den Unternehmen besteht (Gerhards & Baum, 2024). Diese Prozesse zeigen die Notwendigkeit eines Verständnisses dafür, wie KI von den beteiligten Akteuren in Unternehmen angenommen wird.
Zur Analyse der Akzeptanz von neuen Technologien hat sich das TAM3 als äußerst nützlich erwiesen. Wie in Abschnitt 2.2 dargestellt, bietet es einen umfassenden theoretischen Rahmen, der verschiedene Einflussfaktoren auf die Nutzungsabsicht und das tatsächliche Nutzungsverhalten betrachtet. Angesichts der zunehmenden Verbreitung von KI stellt sich die Frage, inwieweit dieses etablierte Modell auch zur Erklärung der Akzeptanz solch komplexer und neuartiger Technologien geeignet ist. Aktuelle Studien bestätigen die Anwendbarkeit des TAM3 im KI- und Bildungskontext. Zhang et al. (2023) und Dahri et al. (2024) nutzten beispielsweise das TAM3, um die Akzeptanz von KI-gestützten Anwendungen bei angehenden Lehrkräften zu untersuchen. Ihre Ergebnisse unterstreichen die zentrale Rolle der wahrgenommenen Nützlichkeit für die Nutzungsabsicht von KI. Auch Kleine et al. (2025) verwendeten das TAM3 als Grundlage um die Nutzung von KI-Chatbots bei Studierenden zu untersuchen und konnten den Einfluss von PU bestätigen, ähnlich wie auch Brandhofer und Tengler (2024), die in ihrer Studie die Akzeptanz von KI unter Lehrenden und Lehramtsstudierenden untersuchten.
Auch im Kontext der beruflichen Bildung gibt es erste Hinweise auf die Bedeutung der Nützlichkeitswahrnehmung. Rott und Schmidt-Hertha (2024) zeigen in einer aktuellen Untersuchung, dass Auszubildende ein hohes Interesse an KI haben und mehrheitlich einen praktischen Nutzen für ihre Ausbildung erkennen. Über 90% der Befragten sehen einen direkten Anwendungsbezug. Diese hohe Nützlichkeitserwartung deckt sich mit den Annahmen des TAM3, wonach eine positive Einschätzung des Mehrwerts die Akzeptanz fördert. Gleichzeitig betonen die befragten Lehrkräfte in derselben Studie die Wichtigkeit von unterstützenden Rahmenbedingungen, was auf die Relevanz weiterer TAM3-Faktoren wie der wahrgenommenen externen Kontrolle hindeutet.
Eine weitere aktuelle Studie in diesem Bereich kommt aus der Schweiz (Seufert, 2024). Hier wurden Ausbildungsverantwortliche u.a. zur Akzeptanz von KI in der Ausbildung befragt. Die befragten Führungskräfte schätzen die Nützlichkeit von KI hoch ein und unterstützen den Einsatz in der Ausbildung. Allerdings äußerten sie auch Skepsis bezüglich der Einführung von KI und möglicher unbeabsichtigter Folgen daraus.
Trotz dieser ersten Erkenntnisse zeigt eine genauere Betrachtung der Forschungslage, dass der Einsatz und die Akzeptanz von KI speziell in der betrieblichen Berufsausbildung noch unzureichend erforscht ist (Proeger et al., 2024, S. 1). Viele Studien konzentrieren sich auf den schulischen oder hochschulischen Bereich oder untersuchen die Akzeptanz aus Sicht der Berufsschule. Die Sichtweise des Ausbildungspersonals in den Betrieben, welches eine Schlüsselrolle bei der Einführung und Nutzung von KI im Ausbildungsalltag spielt, wurde bisher jedoch kaum systematisch untersucht.
Diese Forschungslücke wird besonders relevant, wenn man betrachtet, dass Unternehmen in Deutschland vor besonderen Herausforderungen wie begrenzten Ressourcen oder fehlender IT-Expertise bei der Einführung von KI stehen, wie eine aktuelle Studie von Deloitte zeigt (Bringmann et al., 2025). Gerade in kleinen und mittleren Unternehmen (KMU) werden diese Hemmnisse deutlich, während sie aber für rund 71% der Ausbildungsplätze in DE sorgen (BMWK, o. J.). Gerade deswegen ist die Frage zentral, ob und wie KI-Anwendungen als nützlich für die Ausbildung wahrgenommen werden, da dies maßgeblich über deren Einführung entscheiden dürfte.
Hier setzt die zentrale Bedeutung der wahrgenommenen Nützlichkeit an, die im TAM3 als Schlüsselfaktor für die Akzeptanz identifiziert wird (Eder, 2015, S. 37). Die bereits zuvor genannten Studien im Bildungskontext (z.B. Zhang et al., 2023; Dahri et al., 2024) bestätigen, dass Nutzer neue Technologien dann annehmen, wenn sie einen klaren Mehrwert für ihre Aufgaben erkennen. So wird der Einsatz von KI in der Ausbildung als „Experimentierfeld“ beschrieben, dessen Nutzen sich im konkreten Anwendungskontext erst erweisen muss (Buntins et al., 2024, S. 16; Esser, 2024, S. 3). Es scheint also, dass die wahrgenommene Nützlichkeit als eine Art Filter fungiert, der darüber entscheidet, ob eine KI-Anwendung im betrieblichen Ausbildungsalltag überhaupt in Betracht gezogen wird.
Zusammenfassend lässt sich festhalten, dass eine Forschungslücke hinsichtlich der Akzeptanz von KI aus der Perspektive des Ausbildungspersonals in kaufmännischen Ausbildungsbetrieben besteht. Während die generelle Bedeutung von wahrgenommener Nützlichkeit für Technologieakzeptanz gut belegt ist und auch erste Studien im KI-Kontext darauf hindeuten, fehlt eine spezifische Untersuchung, wie dieser Faktor die Akzeptanz von KI durch Ausbilderinnen und Ausbilder in ihrem konkreten Arbeitsumfeld prägt. Insbesondere eine qualitative Herangehensweise, wie sie in dieser Arbeit verfolgt wird, erscheint geeignet, um die individuellen Einschätzungen, Begründungen und Erfahrungen des Ausbildungspersonals zu erfassen und zu verstehen. Dies wurde in bisherigen, oft quantitativ ausgerichteten Studien zur KI-Akzeptanz im Bildungsbereich vernachlässigt.
Aus der dargestellten Forschungslücke und der theoretischen Fundierung durch das TAM3, insbesondere der zentralen Rolle der wahrgenommenen Nützlichkeit, leitet sich die folgende Forschungsfrage für diese Bachelorarbeit ab:
Wie beeinflusst der Faktor der wahrgenommenen Nützlichkeit des TAM3-Modells die Akzeptanz von KI in der kaufmännischen Ausbildung am Lernort Ausbildungsbetrieb?
Diese Frage zielt darauf ab, durch die Analyse der Perspektiven von Ausbildungspersonal zu verstehen, welche Aspekte der Nützlichkeit für die Akzeptanz von KI in diesem Kontext entscheidend sind. Die Untersuchung soll somit einen Beitrag leisten, die Akzeptanzbedingungen von KI in der betrieblichen Ausbildung besser zu verstehen und praxisrelevante Erkenntnisse für eine erfolgreiche Integration von KI zu gewinnen.
Um die zuvor formulierte Forschungsfrage zu beantworten, wurde für diese Arbeit ein qualitativer Ansatz gewählt. Durch leitfadengestützte, semi-strukturierte Experteninterviews sollen Eindrücke aus der Ausbildungspraxis von Verantwortlichen in Unternehmen gewonnen werden.ist begründet durch die Zielsetzung der Studie, subjektive Einschätzungen, Deutungsmuster und individuelle Entscheidungsprozesse von Akteuren im Ausbildungskontext zu rekonstruieren.
Das gewählte Forschungsdesign trägt somit der Komplexität des Untersuchungsgegenstands – der subjektiven Akzeptanz von KI im Ausbildungskontext – Rechnung und erlaubt es, theoriegeleitet, aber offen für kontextuelle Varianz, zentrale Einflussfaktoren und Muster zu rekonstruieren. Die qualitative Herangehensweise ist besonders geeignet, um die Deutungsmuster der Akzeptanz aus der Perspektive von Ausbildenden sichtbar zu machen – eine Perspektive, die in der bisherigen Forschung zur Technologieakzeptanz im Berufsbildungskontext noch unterrepräsentiert ist (Seufert, 2024; Zhang et al., 2023; Rott & Schmidt-Hertha, 2024).
Die empirische Datenerhebung dieser Arbeit erfolgte auf Grundlage eines qualitativen Designs mittels leitfadengestützter, semi-strukturierter Interviews. Ziel war es, ein vertieftes Verständnis darüber zu gewinnen, wie Ausbildende die wahrgenommene Nützlichkeit Künstlicher Intelligenz (KI) in der kaufmännischen Berufsausbildung einschätzen und wie sich diese Wahrnehmung auf ihre Akzeptanz auswirkt. Die Interviews orientierten sich an einem theoriegeleiteten Interviewleitfaden, der durch die betreuende Professur bereitgestellt wurde und zentrale Konstrukte des Technology Acceptance Model 3 (TAM3) nach Venkatesh und Bala (2008) operationalisiert (vgl. Anhang A1).
Der Leitfaden gliederte sich in drei Hauptbereiche: (1) demografische Angaben zur Person und zum Unternehmen, (2) themenspezifische Fragen zur Nutzung von KI und zur Akzeptanz, sowie (3) ein Abschnitt zur Bewertung theoretischer Zusammenhänge innerhalb des Modells. Die Formulierung der Fragen basiert auf bereits vorhandenen und getesteten Messmodellen (Jeffrey, 2015), Pletz, 2021), Scheuer, 2020), (Venkatesh & Bala, 2008)) und wurde in Bezug auf TAM3-Dimensionen strukturiert.
Insgesamt wurden fünf Interviews mit Ausbildungsverantwortlichen aus unterschiedlichen kaufmännischen Berufsfeldern geführt. Die Teilnehmenden kamen aus verschiedenen Branchen und vertraten Unternehmen unterschiedlicher Größenklassen, von kleinen Unternehmen mit unter 50 Mitarbeitenden bis hin zu Organisationen mit über 500 Beschäftigten. Die Auswahl der Interviewpartner:innen erfolgte nicht systematisch, sondern durch zufällige Ansprache über berufliche Netzwerke wie LinkedIn sowie über persönliche Kontakte via E-Mail. Die Rekrutierung orientierte sich daran, eine möglichst breite Streuung hinsichtlich Branche und Unternehmensgröße zu erreichen, um verschiedene Perspektiven innerhalb der KMU-Landschaft abzubilden.
Die Gespräche wurden im Zeitraum Ende März bis Anfang April 2025 durchgeführt. Zwei der Interviews fanden in Präsenz statt und wurden mithilfe der Sprachmemo-App eines iPhones aufgezeichnet. Drei weitere Interviews wurden digital per Microsoft Teams geführt und mit dem integrierten Teams-Aufzeichnungstool dokumentiert. Die Teilnahme an den Interviews erfolgte auf freiwilliger Basis, die Befragten wurden zu Beginn über Zweck und Ablauf der Studie informiert. Eine formale schriftliche Einverständniserklärung wurde nicht eingeholt, da alle Daten anonymisiert verarbeitet werden. Die mündliche Zustimmung zur Aufzeichnung und Auswertung wurde jeweils vor Beginn des Interviews eingeholt. Zur Einhaltung datenschutzrechtlicher Standards wurden alle Audioaufnahmen nach der Transkription gelöscht.
Die Interviews dauerten im Schnitt zwischen 60 und 90 Minuten, abhängig von der Gesprächsdynamik und den individuellen Ausführungen der Befragten. Es wurde darauf geachtet, eine offene Gesprächsatmosphäre zu ermöglichen, in der auch persönliche Einschätzungen und kritische Reflexionen Raum hatten. Aufrechterhaltungs- und Klärungsfragen wurden flexibel eingesetzt, um die Tiefe und Relevanz der Aussagen zu sichern.
Die demografischen Angaben der Interviewpartner:innen (Funktion, Branche, Unternehmensgröße, Ausbildungsberufe, Anzahl Auszubildender etc.) wurden im ersten Teil des Gesprächs systematisch erhoben und werden zur besseren Übersicht in Tabelle 1 dargestellt. Diese Angaben dienen der Kontextualisierung der Aussagen und erlauben eine Einordnung in Bezug auf Strukturmerkmale der jeweiligen Ausbildungsbetriebe.
Tabelle 2 Merkmale der Interviewpartner
Abb. in Leseprobe nicht enthalten
Anmerkung. Eigene Tabelle.
Die Auswertung der Interviewdaten erfolgt auf Grundlage der qualitativen Inhaltsanalyse nach Mayring (2022). Ziel der Analyse ist es, systematisch herauszuarbeiten, wie Ausbildungsverantwortliche die Nützlichkeit von KI im Kontext der kaufmännischen Berufsausbildung einschätzen und in welchem Verhältnis diese Wahrnehmung zur Akzeptanz der Technologie steht. Das Vorgehen orientiert sich dabei sowohl an deduktiven Kategorien, die aus dem theoretischen Rahmenmodell (TAM3) abgeleitet wurden, als auch an induktiven Ergänzungen, die aus dem empirischen Material hervorgehen.
Die Auswertung der Interviews erfolgt anhand der qualitativen Inhaltsanalyse nach Mayring (2015). Dieses Verfahren erlaubt eine systematische, theoriegeleitete Interpretation des Textmaterials durch Anwendung eines deduktiv-induktiven Kategoriensystems. Zur Sicherstellung der Reliabilität wurde ein Kodierleitfaden entwickelt, der zentrale Kategorien (z. B. „subjektiver Nutzen“, „berufspraktische Relevanz“, „Barrieren und Unsicherheiten“) sowie konkrete Ankerbeispiele und Kodierregeln enthält. Die Kategorien leiten sich aus den TAM3-Komponenten ab, werden jedoch durch induktive Ergänzungen aus dem Material ergänzt und präzisiert.
Die Interviewdaten wurden zunächst mittels der Transkriptionssoftware aTrain, basierend auf dem Whisper-Modell, automatisch vortranskribiert (Haberl et al., 2024). Anschließend erfolgte eine manuelle Nachbearbeitung der Transkripte, um eine inhaltsorientierte Transkription gemäß den Regeln nach Kuckartz (2018) sicherzustellen, siehe Abbildung 2. Die finalen Transkripte bilden die Grundlage der inhaltlichen Analyse.
Abbildung 2 Transkriptionsregeln
Abb. in Leseprobe nicht enthalten
Anmerkung. Aus U. Kuckartz, 2010, S. 44.
Die Kodierung erfolgte zunächst deduktiv, basierend auf den zentralen Konstrukten des TAM3-Modells. Diese Kategorien wurden theoriegeleitet definiert und im Kodierleitfaden mit Ankerbeispielen operationalisiert. Ergänzend dazu kamen induktive Kategorien zur Anwendung, die während des Analyseprozesses emergierten und in den Kodierleitfaden aufgenommen wurden, sofern sie für die Forschungsfrage relevant erschienen.
Die Kodeeinheiten orientierten sich an sinnhaften Texteinheiten, die thematisch abgeschlossene Aussagen der Interviewten enthalten (z. B. Sätze oder Absätze). Zur Sicherung der Interpretationsvalidität wurden kodierte Segmente regelmäßig überprüft und der Kodierleitfaden bei Bedarf angepasst.
Die konkrete analytische Tiefe – etwa in Form von Häufigkeitsanalysen, Kategorienvernetzungen oder kontrastierenden Fallanalysen – wird im weiteren Auswertungsschritt dem empirischen Material angepasst. Ziel ist es, über die Kategorisierung hinaus auch typische Argumentationsmuster, Kontextfaktoren und subjektive Bedeutungszuschreibungen der Ausbildenden zu rekonstruieren. Die qualitative Inhaltsanalyse erlaubt es dabei, sowohl theoriegeleitete Hypothesen zu prüfen als auch neue Einsichten zu generieren, die in das bestehende Akzeptanzmodell integriert werden können.
Die Ergebnisse der Kodierung bilden die Grundlage für die nachfolgende Ergebnisdarstellung und Diskussion. Sie erlauben Rückschlüsse darauf, inwieweit die wahrgenommene Nützlichkeit – als zentrales Konstrukt des TAM3 – die technologische Akzeptanz von KI in Ausbildungsprozessen beeinflusst und welche Bedingungen diese Wahrnehmung fördern oder hemmen. Der Kodierleitfaden, eine zusammenfassende Übersicht über das Kategoriensystem und beispielhafte Ankerzitate, findet sich im Anhang (vgl. Anhang A2).
Eine qualitative Inhaltsanalyse kann erst dann als vollwertige sozialwissenschaftliche Forschungsmethode gelten, wenn ihre Güte systematisch geprüft wird (Mayring, 2015, S. 123). Während in klassischen Methodendebatten vor allem Reliabilität – verstanden als Stabilität und Genauigkeit der Messung bei konstanten Bedingungen – und Validität – verstanden als Messadäquatheit – diskutiert werden, weist Mayring darauf hin, dass diese quantitativ geprägten Kategorien nur eingeschränkt zu interpretativen Verfahren passen. Er schlägt daher ein sechsfaches Kriterienset vor, das speziell auf qualitative Forschung zugeschnitten ist: (1) Verfahrensdokumentation, (2) argumentative Interpretationsabsicherung, (3) Gegenstandsnähe, (4) Regelgeleitetheit, (5) kommunikative Validierung und (6) Triangulation (Mayring, 2015, S. 123).
1 Verfahrensdokumentation – Transparenz sichern
Alle Analyseschritte werden lückenlos protokolliert, sodass Dritte das methodische Vorgehen nachvollziehen und – zumindest in Teilen – replizieren können. Im vorliegenden Projekt werden Forschungsdesign, Kodierregeln und Entscheidungstagebücher detailliert offengelegt; sämtliche Leitfäden sind dem Anhang beigefügt (Mayring, 2015, S. 125 f.).
2 Argumentative Interpretationsabsicherung
Jede Interpretation wird theoretisch wie empirisch begründet, um intersubjektive Nachvollziehbarkeit zu gewährleisten (Baur & Blasius, 2014, S. 413). Eine unabhängige dritte Person überprüft Testkodierungen und diskutiert Abweichungen, womit eine reliabilitätsorientierte Qualitätssicherung erfolgt (Mayring, 2015, S. 125 f.).
3 Nähe zum Gegenstand
Hohe Validität in interpretativer Forschung setzt Vertrautheit mit dem Feld voraus. Der Autor verfügt über persönliches Interesse an dem Themenbereich und hat sich im Laufe der letzten Jahre subtiles Wissen angeeignet, was die Kontextsensitivität der Analyse erhöht (Mayring, 2015, S. 123 ff.).
4 Regelgeleitetheit
Trotz ihres offenen Charakters folgt die Analyse festen Regeln – beispielsweise den Reduktions‑ und Abstraktionsprinzipien Mayrings. Diese Standardisierung fördert die Vergleichbarkeit der Ergebnisse und reduziert idiosynkratische Fehlinterpretationen (Mayring, 2015, S. 125 f.).
5 Kommunikative Validierung
Vorläufige Ergebnisse werden– soweit möglich – mit den Interviewten diskutiert. Dieser Dialog erlaubt Korrekturen, schärft die Kategorien und steigert die Glaubwürdigkeit („credibility“) der Befunde (Mayring, 2015, S. 125 f.).
6 Triangulation
Die Kombination unterschiedlicher Datenquellen (Experteninterviews, Literatur) sichert Befunde wechselseitig ab. Durch methodische Triangulation lassen sich zudem negative Fälle identifizieren und die theoretische Sättigung erhöhen (Mayring, 2015, S. 123 ff.).
Während des gesamten Forschungsprozesses werden weitere Qualitätsaspekte reflektiert, etwa potenzielle Bias‑Quellen (Interviewereffekte, Sampling‑Bias) sowie Prüfungen von Konfirmabilität und Transferierbarkeit. Diese kontinuierliche Selbstkontrolle ergänzt das Kriterienset um projektspezifische Dimensionen und stellt sicher, dass die Analyse nicht nur formalen Standards genügt, sondern auch inhaltlich robuste und praxisrelevante Erkenntnisse liefert (Mayring, 2015, S. 129).
Baur, N., & Blasius, J. (Hrsg.). (2014). Handbuch Methoden der empirischen Sozialforschung. Springer Fachmedien Wiesbaden. https://doi.org/10.1007/978-3-531-18939-0
Mayring, P. (2015). Qualitative Inhaltsanalyse: Grundlagen und Techniken (12., überarb. Aufl). Beltz.
Alle fünf befragten Personen gaben an, dass KI in ihren Unternehmen bereits in unterschiedlicher Form und Intensität genutzt wird (K1.1). Die genannten Anwendungsbereiche reichen von KI-basierten Produkten und Dienstleistungen (B1, S. 1; B5, S. 1) über interne Prozessunterstützung bis hin zu spezifischen Tools für einzelne Abteilungen. Mehrfach genannt wurden Chatbots oder virtuelle Assistenten, sei es als internes System (B1, S. 1) oder im Bewerbungsprozess (B4, S. 1). Auch der Einsatz von Microsoft CoPilot oder ähnlichen unternehmensinternen Versionen generativer KI wurde von drei Interviewten bestätigt (B1, S. 1; B3, S. 1; B5, S. 1). Weitere Beispiele umfassen KI in der Bildbearbeitung, im Marketing zur Textgenerierung und in Übersetzungs-Apps (B2, S. 1), im Gebrauchtwagenvertrieb zur Preiskalkulation, sowie zur automatisierten Dokumentenverarbeitung (B5, S. 1). In einigen Unternehmen gibt es zudem spezielle Teams oder Projektgruppen, die sich mit der Evaluation und Implementierung von KI beschäftigen (B3, S. 1; B5, S. 8).
Hinsichtlich des gezielten Einsatzes von KI im Ausbildungskontext (K1.3) ergibt sich ein gemischtes Bild. Lediglich B2 berichtete von einer aktiven und spezifischen Nutzung durch Auszubildende im Marketing, etwa durch die Adobe KI in Photoshop oder KI-Tools im Newsletter-Bereich (B2, S. 1). Er erwähnte zudem, dass Auszubildende ChatGPT zur Texterstellung nutzen (B2, S. 1). B5 nannte die Dokumentenverarbeitung, was Auszubildende jedoch eher indirekt betrifft (B5, S. 1, 13), und einen abgebrochenen Piloteinsatz der Lernplattform „Simpleclub“ (B5, S. 8).
Die Mehrheit der Befragten gab an, dass derzeit keine spezifischen KI-Systeme gezielt für oder im Rahmen der Ausbildung von Unternehmensseite zur Verfügung gestellt oder deren Nutzung vorgeschrieben wird (K1.4) (B1, S. 2; B3, S. 1-2; B4, S. 2; B5, S. 2, 13). B4 betonte sogar die aktuell geringe Relevanz im Ausbildungskontext aufgrund des hohen Kundenkontakts in seiner Branche (Banken), bei dem der menschliche Aspekt im Vordergrund stehe (B4, S. 5). Zwar haben Auszubildende in einigen Unternehmen Zugriff auf allgemeine KI-Tools wie den unternehmensinternen CoPilot (B3, S. 1; B5, S. 2), dies geschieht jedoch nicht im Rahmen einer strukturierten Einbindung in die Ausbildungsinhalte.
Trotz der aktuell noch zurückhaltenden Integration äußerten mehrere Interviewpartner Interesse oder konkrete Pläne, KI zukünftig stärker in die Ausbildung einzubinden, beispielsweise durch digitale Berichtshefte mit KI-Funktionen, KI-gestützte Lernplattformen oder Weiterbildungsangebote (B1, S. 2; B3, S. 2; B4, S. 1-2).
Unabhängig vom Einsatz im Unternehmen gaben alle fünf Interviewpartner an, KI-Systeme auch privat zu nutzen (K1.5). Das mit Abstand am häufigsten genannte Tool ist ChatGPT (K1.7), das von allen Befragten genutzt wird (B1, S. 2; B2, S. 2; B3, S. 3; B4, S. 2; B5, S. 2). Die Anwendungsfälle reichen hier von der Unterstützung bei der Erstellung von Lehrinhalten (B1, S. 2), über Recherche für Studium oder private Projekte (B2, S. 2; B3, S. 3), bis hin zur Formulierungshilfe (B4, S. 4) und allgemeiner Informationssuche.
Vier der fünf Befragten äußerten grundsätzlich die Meinung, dass KI das Potenzial hat, die Produktivität und Effektivität in der Ausbildung zu steigern (K2.3) (B1, S. 3; B2, S. 2; B3, S. 4; B5, S. 3). B3 formulierte dies folgendermaßen: "Ja, also meiner Meinung nach würde ich sagen (…) dass das auf jeden Fall zur Produktivität und Effektivität beiträgt" (B3, S. 4).
Ein Aspekt, der hervorgehoben wurde, ist die Zeitersparnis (K2.1). Besonders bei Aufgaben, wie der Recherche und Vorbereitung von Aufgaben (B1, S. 3-4) wird ein klares Potenzial gesehen.
Auch die Unterstützung bei der Prüfungsvorbereitung (K2.2), wurde positiv erwähnt. Ein Interviewpartner nannte Lernplattformen, die auf Basis bisheriger Ergebnisse individuelle Unterstützung bieten (B5, S. 3).
Allerdings wurde die Nützlichkeit nicht pauschal bejaht. Interviewpartner B4 vertrat die Ansicht, dass KI aktuell in seinem Ausbildungskontext keine Produktivitäts- oder Effektivitätssteigerung bringe (K2.4). Er argumentierte, dass die persönliche Betreuung und das gemeinsame Lernen in Gruppen effektiver seien, insbesondere für die Lernbereitschaft der aktuellen Auszubildenden-Generation (B4, S. 3).
Übereinstimmend wurde von allen fünf Interviewpartnern bestätigt, dass die wahrgenommene Nützlichkeit einen sehr hohen oder entscheidenden Einfluss darauf hat, ob die Absicht besteht, KI zu nutzen (K31.1). B3 formulierte dies folgendermaßen: "Ja, also, ich denke, das ist schon wichtig. Deswegen, glaube ich, machen ja viele Unternehmen das (...) quasi aufzeige, warum ist denn das so nützlich für uns, dass halt auch mehr dann letztendlich die KI nutzen" (B3, S. 14). B5 begründete den hohen Einfluss damit, dass ohne wahrgenommenen Mehrwert das Tool schlicht nicht eingesetzt würde: "Also ich würde das Tool jetzt nicht nutzen, wenn ich keinen Mehrwert darin sehen würde" (B5, S. 17). Auch die anderen Befragten bestätigten diesen starken Zusammenhang (B1, S. 14; B2, S. 13; B4, S. 14).
Im Folgenden werden die Einschätzungen der Interviewpartner zu den im TAM3-Modell vorgesehenen Determinanten Subjektive Norm, Image, Arbeitsrelevanz, Ergebnisqualität und Sichtbarkeit der Ergebnisse dargestellt.
Im beruflichen Kontext wird die Einstellung von Vorgesetzten (K4.6) mehrheitlich als positiv und offen wahrgenommen (B3, S. 5; B4, S. 4). Es wurde berichtet, dass Vorgesetzte die Nutzung unterstützen würden, da KI als zukunftsträchtig angesehen wird (B4, S. 4) oder sie selbst das Thema im Unternehmen vorantreiben (B3, S. 5).
Bei Kollegen (K4.5) zeigte sich ein gemischteres Bild, das oft mit dem Alter oder der Generation der jeweiligen Personen in Verbindung gebracht wurde (B1, S. 5; B3, S. 5; B5, S. 4). Während jüngere Kollegen als tendenziell offener gelten (K4.1) (B1, S. 5), wurde bei älteren Kollegen teilweise Skepsis oder fehlendes Verständnis beobachtet (K4.2) (B3, S. 5).
Die generelle Unternehmenskultur (K4.3) wurde von den meisten als offen und neugierig beschrieben (B1, S. 5; B3, S. 5). Es gäbe eine Bereitschaft, Dinge zu testen, und oft sogar Formate wie KI-Stammtische oder Projektteams (B1, S. 5; B3, S. 1). Kein Befragter berichtete von einer generellen Ablehnung von KI im Unternehmen (K4.4), wie Interviewpartner B1 zusammenfasste: "Was aber gleichzeitig ganz klar ist, also ich glaube, keiner hier sagt mir, nein, da mache ich jetzt nicht mit, das ignorieren wir jetzt" (B1, S. 6).
Im privaten Umfeld (K4.7) wurde die Einstellung zur KI-Nutzung durchweg als positiv oder unterstützend wahrgenommen (B3, S. 5; B4, S. 4; B5, S. 4). Dies wurde darauf zurückgeführt, dass viele Personen im privaten Kreis selbst KI-Tools nutzen und deren Vorteile kennen.
Entsprechend dieser Beobachtungen schätzten vier der fünf Interviewpartner den Einfluss der subjektiven Norm auf die wahrgenommene Nützlichkeit als hoch ein (K18.1). Dies wurde damit begründet, dass positive Beispiele und Unterstützung aus dem Umfeld die eigene Akzeptanz und Nutzungsbereitschaft fördern (B2, S. 10; B3, S. 11; B5, S. 13). Interviewpartner B5 drückte dies mit „Also ich glaube einen hohen Einfluss (…) ich glaube, wenn es sowohl in der Praxis gesehen wird von Leuten, die für mich Bezugspersonen sind, als auch positiv bewertet wird, glaub ich, hat es einen positiven Einfluss“ (B5, S. 13) aus.
Die Einschätzung des Images der Ausbilder, wenn sie KI nutzen oder befürworten, fiel überwiegend positiv aus (K5.1.1). Interviewpartner B5 formulierte: "Ich glaube, es wirkt eher modern, digital, am Zahn der Zeit, als jetzt irgendwie, menschenfremd oder automatisiert und kühl" (B5, S. 5). Allerdings wurde vereinzelt auch ein negativer Beigeschmack erwähnt (K5.1.2). Interviewpartner B2 sprach vom "Faulheitsbeigeschmack", dass man die KI arbeiten lasse, statt es selbst zu tun (B2, S. 4).
Bezüglich des Images der Auszubildenen bei KI-Nutzung war eine zentrale Sorge, dass die KI-Nutzung als Zeichen von Faulheit oder mangelnder Lernbereitschaft interpretiert werden könnte (K6.1.2) (B2, S. 4; B3, S. 6). Es wurde die Angst geäußert, dass Auszubildende "ja gar nichts mehr lernen" (B3, S. 6) oder sich nur noch auf die KI verlassen, ohne selbst aktiv zu werden. Interviewpartner B4 merkte an, dass in seiner "alteingesessenen Bank" mit "alter Schule" das Verständnis für KI-nutzende Auszubildende durch Kollegen oft noch fehle (K6.2.2) (B4, S. 4-5).
Gleichzeitig wurde aber auch eine positive Seite des Images von KI-nutzenden Auszubildenden gesehen, insbesondere wenn die Nutzung als zukunftsorientiert und kompetent wahrgenommen wird (K6.1.1) (B2, S. 10; B5, S. 5). Interviewpartner B5 betonte, dass die junge Generation generell anders mit diesen Tools aufgewachsen sei und die Nutzung oft positiv gesehen werde, insbesondere unter Gleichaltrigen (K6.4.1) (B5, S. 5).
Die Frage nach dem Einfluss des Images auf die wahrgenommene Nützlichkeit ergab ein uneinheitliches Bild. Zwei Befragte (B1, B4) schätzten diesen Einfluss als gering ein (B1, S. 12; B4, S. 11). Sie argumentierten, dass die Nützlichkeit eines Tools von seiner Funktionalität abhänge und nicht davon, wie die Nutzung das Image beeinflusst.
Drei Befragte (B2, B3, B5) hingegen bewerteten den Einfluss als hoch (B2, S. 10; B3, S. 11; B5, S. 14). Interviewpartner B3 erklärte, dass ein positives Image dazu führe, dass man eher bereit ist, die Nützlichkeit zu erkennen (B3, S. 11).
Die Einschätzung der aktuellen Arbeitsrelevanz von KI für Auszubildende fiel mehrheitlich negativ aus (K7.2). Drei der fünf Befragten gaben an, dass KI momentan für die Kernaufgaben ihrer Auszubildenden nur eine geringe oder keine Relevanz besitzt (B2, S. 4; B4, S. 5; B5, S. 5). Insbesondere im Bankwesen wurde der hohe Anteil an direktem Kundenkontakt betont, bei dem menschliche Interaktion im Vordergrund stehe und KI derzeit keine Rolle spiele (B4, S. 5). Interviewpartner B2 drückte dies für seinen Bereich so aus: "Es geht eher darum, wie verhalte ich mich mit meinen Kollegen, wie sind so die Unternehmensabläufe und da hilft auch keine KI" (B2, S. 4). Auch Interviewpartner B5 sah die Relevanz aktuell als gering an, da viele relevante Aufgaben spezifisches Unternehmenswissen erforderten, das externen KI-Systemen nicht zugänglich sei (B5, S. 5-6).
Im Gegensatz dazu sahen zwei Interviewpartner (B1, B3) eine grundsätzliche Relevanz (K7.1) gegeben. Interviewpartner B1 argumentierte, dass die Kenntnis aktueller Methoden, einschließlich KI, "State of the Art" sei, um Aufgaben erledigen zu können, ähnlich wie die Nutzung von PCs statt Stift und Block (B1, S. 7).
Eine zukünftige Relevanz (K7.3) wurde jedoch von fast allen Befragten gesehen, auch von denen, die die aktuelle Relevanz als gering einschätzten. Es wurde erwartet, dass KI in Zukunft eine immer größere Rolle in nahezu allen Berufsfeldern spielen wird (B2, S. 14; B3, S. 12; B4, S. 5; B5, S. 5). Interviewpartner B4, der die aktuelle Relevanz verneinte, sagte: "Also im Arbeitskontext, wenn sich das vielleicht mal ändert, aber das dauert, glaube ich, noch sehr lange, dann könnte es irgendwann relevant sein" (B4, S. 5).
Den Einfluss der Arbeitsrelevanz auf die wahrgenommene Nützlichkeit schätzten alle fünf Befragten als hoch oder groß ein (K21.1). Es herrschte Konsens darüber, dass die wahrgenommene Nützlichkeit der KI maßgeblich davon abhängt, ob sie für die eigenen Arbeitsaufgaben als relevant erachtet wird. Interviewpartner B4 beschrieb den Einfluss als "auf jeden Fall hoch" (B4, S. 11).
Alle Interviewpartner trauen KI-Systemen grundsätzlich zu, zufriedenstellende oder sogar qualitativ hochwertige Ergebnisse für Aufgaben von Auszubildenden zu generieren K8.1). Interviewpartner B4 nannte die Hilfe bei Formulierungen und der Erstellung von Texten als Bereich, in dem KI gute und zufriedenstellende Lösungen liefern kann (B4, S. 6). Auch Interviewpartner B3 berichtete von einem Fall, in dem eine Auszubildende mithilfe von KI einen Text verfasste, der sich "super angehört" habe und kaum Nachbesserung erforderte (B3, S. 7).
Zudem herrschte Konsens darüber, dass die Ergebnisse zum Teil einer Überprüfung bedürfen (K8.2). Eine blinde Übernahme der KI-Vorschläge wird als problematisch angesehen, da Fehler auftreten können oder der Kontext nicht immer korrekt erfasst wird (B1, S. 7; B2, S. 5, 11-12; B3, S. 12; B4, S. 12; B5, S. 6). Interviewpartner B1 stellte klar: "Weil es diese 100% verlässliche KI noch nicht gibt. Die KI wird nie verlässlich werden, weil die KI ein Wahrscheinlichkeitsanalyse-Tool ist" (B1, S. 7).
Bei der Bewertung des Einflusses der Ergebnisqualität auf die wahrgenommene Nützlichkeit zeigte sich eine starke Übereinstimmung. Alle fünf Befragten schätzten diesen Zusammenhang als mittel bis hoch ein. Interviewpartner B4 sah einen hohen Einfluss, da gute KI-Ergebnisse die allgemeine Arbeitsqualität verbessern könnten (B4, S. 12). Auch Interviewpartner B3 ("Mittel bis hoch", B3, S. 12) und B5 ("mittel", B5, S. 14) betonten den Zusammenhang, relativierten die Höhe des Einflusses aber leicht mit Verweis auf die weiterhin notwendige Überprüfung. Interviewpartner B2 drückte den Zusammenhang so aus: "Weil jede Minute, die du in der KI verschwendest, wo kein gescheites Ergebnis rauskommt, das du dann eh wieder überarbeiten musst, bringt nichts" (B2, S. 11), was ebenfalls auf einen hohen Einfluss hindeutet.
Die Befragten waren sich überwiegend einig, dass Auszubildende keine grundsätzlichen Schwierigkeiten haben, die Vorteile von KI-Systemen zu kommunizieren (K9.1). Vier der fünf Interviewpartner äußerten klar, dass sie den Auszubildenden zutrauen, die Ergebnisse und den Nutzen von KI überzeugend darzustellen (B1, S. 7; B3, S. 7; B4, S. 6; B5, S. 6). Interviewpartner B4 begründet dies folgendermaßen: „Die wachsen ja damit so gut auf, (…) dass die das tatsächlich vor allem der älteren Generation (…) schon gut erklären könnten“ (B4, S. 6) und Interviewpartner B2 betont: „(…) wenn sie dann eben die Ergebnisse präsentieren können, dann sehen sie auch, was das wirklich bringt“ (B2, S. 5). Allerdings schränkt B2 dies auch leicht ein, da es auf die Einstellung der anderen Person ankomme (K9.3) (B2, S. 5).
Der Einfluss der Fähigkeit, die Vorteile von KI klar zu kommunizieren, auf die wahrgenommene Nützlichkeit wurde von allen fünf Befragten als hoch eingeschätzt (K23.1). Interviewpartner B5 sprach von einem „Multiplikatoreneffekt“, da durch die Kommunikation auch die Peer Group von den Vorteilen erfahre und die Nützlichkeit so breiter wahrgenommen werde (B5, S. 14). Interviewpartner B3 betonte, dass die Fähigkeit zur Kommunikation helfe, Ängste bei anderen abzubauen, was wiederum die Nützlichkeit unterstreiche (B3, S. 12). Auch Interviewpartner B2 sah einen großen Nutzen darin, dass kommunikationsfähige Auszubildende leichter neue Anwendungsfälle identifizieren und somit die Nützlichkeit erweitern könnten (B2, S. 11).
Die von den Befragten und ihren Auszubildenden aktuell genutzten oder bekannten KI-Systeme wurden überwiegend als einfach zu benutzen eingeschätzt (K10.1). Vier Interviewpartner bewerteten die Benutzerfreundlichkeit als hoch oder gaben an, dass KI Systeme für Auszubildende leicht zu benutzen seien (B1, S. 9; B2, S. 5, 13; B3, S. 8; B5, S. 7). Interviewpartner B4 sah dies etwas differenzierter und betonte: „Ja, also ich glaube, es ist einfach zu benutzen, aber ich glaube trotzdem, dass die sich geistig schon anstrengen müssen“ (B4, S. 7).
Bezüglich der notwendigen Fähigkeiten bzw. der Selbstwirksamkeit im Umgang mit KI, ergibt sich ein gemischtes Bild. Interviewpartner B3 sieht diese teilweise vorhanden (K11.3) und sagt dazu: „Da, glaube ich, haben sie an sich die Fähigkeit (…) aber man muss schon was tun“ (B3, S. 8). Interviewpartner B2 und B4 sehen dies ähnlich, wobei B4 die Notwendigkeit von Schulungen anspricht (B4, S. 7). B5 sieht die Fähigkeiten wiederum als nicht gegeben (B5, S. 7). Auch bei dem Einfluss der Selbstwirksamkeit auf die wahrgenommene Benutzerfreundlichkeit scheiden sich die Geister. Während B1 und B2 nur einen mittleren bis geringen Einfluss sehen (B1, S. 13; B2, S. 11), schätzen B3, B4 und B5 den Einfluss als hoch bis sehr hoch ein (B3, S. 12; B4, S. 12-13, B5, S. 15).
Bei der Frage nach den Bedenken bei der Nutzung von KI gibt der Großteil der Interviewpartner an, dass sie nicht glauben, dass dies eine große Rolle bei Auszubildenden spielt (K12.1) (B1, S. 9, B2, S. 6, B4, S. 7). Gleichzeitig haben sie aber selbst Bedenken, wenn ihre Auszubildenden KI nutzen (K13.1) (B1, S. 9; B2, S. 7; B4, S. 7). Dies spiegelt sich auch wider in ihrer Einschätzung, wie stark der Einfluss der Bedenken auf die wahrgenommene Benutzerfreundlichkeit ausfällt. Alle Interviewpartner geben dabei an, dass der Einfluss hoch ist (B1, S. 13; B2, S. 11-12; B3, S. 13; B4, S. 13; B5, S. 15).
Als externe Faktoren, die den Einsatz von KI fördern oder hindern (K14.1), wurden die Unternehmenskultur (B1, S. 10) und das Thema Datenschutz (B2, S. 7-8; B4, S. 8; B5, S. 10) genannt. Die wahrgenommene externe Kontrolle wurden im Hinblick auf die Benutzerfreundlichkeit als weniger einflussreich bewertet (K27.1) (B1, S. 13; B2, S. 12; B4, S. 13).
Die Intrinsische Motivation bei Umgang von KI wurde von allen Befragten als gegeben angesehen (K15.1). So waren sich alle Interviewpartner sicher, dass Auszubildende Freude am Umgang mit KI haben und kreativ beim Einsatz sind (B1, S. 11; B2, S. 8; B3, S. 10; B5, S. 11), allerdings betonte B4, dass es auch abhängig von den Auszubildenden selbst ist (B4, S. 10). Der Einfluss der intrinsischen Motivation auf die wahrgenommene Benutzerfreundlichkeit wurde dementsprechend von der Mehrheit als hoch eingestuft (K28.1) (B2, S. 13; B3, S. 13; B4, S. 13; B5, S. 15).
Bei der Frage, ob die Nutzung von KI für Auszubildende angenehm und unterhaltsam ist, gaben alle Interviewpartner an, dass sie dem zustimmen (K16.1). So nannte B2 ein Beispiel aus der Bildbearbeitung (B2, S. 8-9) und B3 betonte, dass KI durch das schnellere Lösen von Aufgaben angenehm sei (B3, S. 10). Den Einfluss des technologiespezifischen Vergnügens (K29.1) schätzen B1 und B4 hoch ein (B1, S. 13; B4, S. 13), während B2, B3 und B5 den Einfluss niedriger einschätzten (B2, S. 13; B3, S. 13-14; B5, S. 16).
Bezüglich der objektiven Benutzerfreundlichkeit (K17) wurde die intuitive Natur vieler Tools wurde hervorgehoben (B5, S. 15), ebenso wie die hohe Benutzerfreundlichkeit von Systemen wie ChatGPT (B3, S. 14; B4, S. 14).
Abschließend sahen alle fünf Befragten, ähnlich wie bei der Nützlichkeit, einen deutlichen bis sehr hohen Einfluss der wahrgenommenen Benutzerfreundlichkeit auf die Nutzungsintention (K32.1). Die Einfachheit der Bedienung wird als wichtige Voraussetzung dafür gesehen, dass ein KI-System überhaupt genutzt wird oder die Bereitschaft besteht, es zu testen. Interviewpartner B4 formuliert dies folgendermaßen: "(…) Wenn die das als benutzerfreundlich wahrnehmen, dann hat das natürlich auch einen Einfluss das zu nutzen" (B4, S. 14). Interviewpartner B1 unterstreicht die Bedeutung der Benutzerfreundlichkeit mit: "Und alles, was mühsamer als vorher erscheint, wird nicht verwendet" (B1, S. 9).
Die folgende Diskussion ordnet die empirischen Befunde dieser Arbeit in einen aktuellen Forschungsdiskurs zum Technologietransfer in Ausbildungsgängen ein. Aufbauend auf dem qualitativ erhobenen Datenkorpus werden zunächst die Erfahrungen des Ausbildungspersonals mit Künstlicher Intelligenz (KI) reflektiert (Abschnitt 5.1) und anschließend die herausgehobene Rolle der wahrgenommenen Nützlichkeit vertieft analysiert (Abschnitt 5.2). Aus beiden Analyseschritten werden Implikationen für Theorieentwicklung und didaktisch‑organisatorische Praxis abgeleitet (Abschnitt 5.3). Auf Ausblick und Limitationen wird an dieser Stelle bewusst noch nicht eingegangen, um die Fokussierung auf die gegenwärtigen Befunde beizubehalten.
Die Interviews zeigen ein ambivalentes Erfahrungsprofil. Einerseits berichten sämtliche Befragten, KI bereits privat einzusetzen – vor allem generative Dialogsysteme wie ChatGPT und Microsoft Copilot. Andererseits ist der formalisierte Einsatz im Ausbildungskontext noch marginal. Dieses Spannungsfeld spiegelt den typischen Übergang von einer diffusen „Consumer Experience“ zu einer strukturierenden organisationalen Implementierung, wie ihn Venkatesh und Bala (2008, S. 291) in ihrer Längsschnittstudie beschreiben: In frühen Phasen dominieren explorative Nutzungsformen, während klare Prozess‑ und Rollenfestlegungen noch fehlen.
Die Interviewdaten offenbaren deutliche Binnenunterschiede. Jüngere Beschäftigte und Auszubildende verfügen häufig über größere Hands‑on‑Erfahrung mit generativen KI‑Systemen als ihre Vorgesetzten. Diese „Bottom‑up‑Kompetenz“ äußert sich in Kreativ‑Anwendungen (etwa Text‑ oder Bildgenerierung) und in der Bereitschaft, Workarounds für fehlende Unternehmensrichtlinien zu entwickeln. Entsprechende Generationsunterschiede berichten Zhang et al. (2023, S. 14): Dort zeigte sich, dass AI‑Selbstwirksamkeit und Perceived Enjoyment weiblicher Lehramtsstudierender besonders stark auf die wahrgenommene Benutzerfreundlichkeit einzahlen – ein Indiz, dass Lebenswelt‑Erfahrung maßgeblich zur positiven Technikbewertung beiträgt.
Umgekehrt verdeutlichen die Aussagen der älteren Ausbilder, dass Erfahrung auch zu „Technologie‑Erosion“ führen kann. Mehrfach wird auf eine historisch gewachsene Folge konkurrierender Systeme verwiesen, die die „Adoption Capital“ der Organisation schmälern. Jeffrey (2015, S. 131) weist in seinem TAM3‑Stresstest empirisch nach, dass Change Fatigue (β = –.422) die Nutzungsabsicht signifikant mindert. Das qualitative Material illustriert dieses Phänomen eindrücklich: Befragte beklagen, dass KI‑Lösungen häufig als „Hype“ gestartet, aber nicht nachhaltig ins Curriculum integriert würden – eine klassische Inkonsistenz zwischen Initiierung und Verstetigung digitaler Innovation.
Die Aussagekraft organisationaler Unterstützung tritt im Datenkorpus klar zutage. In Betrieben mit etablierten „AI‑Taskforces“ und Peer‑Learning‑Routinen wird Erfahrung schneller in produktive Nutzung übersetzt. Dieses Muster korrespondiert mit dem Pfad Perceptions of External Control → PEOU in Venkatesh und Bala (2008, S. 291) sowie mit den Tagebuch‑Analysen von Kleine et al. (2024, S. 9): Dort fungieren Facilitating Conditions als indirekter Verstärker, indem sie Benutzerfreundlichkeit erhöhen, was wiederum die Nützlichkeit steigert.
Besonders aufschlussreich ist, dass Support nicht nur technischer Natur sein muss. Einige Interviewpartner verweisen auf „KI‑Stammtische“, in denen neue Prompting‑Strategien oder Data‑Privacy‑Fragen informell diskutiert werden. Diese Formate adressieren sowohl die kognitive Dimension (Kompetenzaufbau) als auch die affektive Dimension (Abbau von Computer Anxiety) – zwei Ankerfaktoren, die im TAM3 als Basisdeterminanten von PEOU konzeptualisiert sind (Venkatesh & Bala, 2008, S. 279).
Die qualitative Analyse bestätigt somit, dass Erfahrung im Sinne des TAM3 zweifach wirkt:
Mit zunehmender Routine sinkt der mentale Aufwand für die Bedienung, sodass Nutzer ihre Aufmerksamkeit stärker auf den konkreten Nutzen der Technologie richten können – dadurch gewinnt der Einfluss der wahrgenommenen Benutzerfreundlichkeit auf die wahrgenommene Nützlichkeit an Gewicht (Venkatesh & Bala, 2008, S. 291).
Sie schwächt aber auch die direkte Wirkung von PEOU auf die Nutzungsintention, da die anfängliche Faszination durch Pragmatismus ersetzt wird – eine Entwicklung, die besonders deutlich wird, wenn Change Fatigue einsetzt (Jeffrey, 2015, S. 131).
Für die betriebliche Ausbildungspraxis impliziert dieses Spannungsfeld, dass Erfahrung aktiv gestaltet werden muss. Neugier ist eine endliche Ressource; um sie in nachhaltige Akzeptanz zu transformieren, bedarf es organisationaler Lern‑ und Reflexionsräume, die den Wertbeitrag neuer Systeme transparent machen.
Die Interviews illustrieren mit bemerkenswerter Klarheit, dass KI‑Werkzeuge nur dann Akzeptanz finden, wenn ihre Nützlichkeit im unmittelbaren Arbeitskontext evident ist. Vier von fünf Befragten attestieren KI ein Potenzial zur Effizienzsteigerung; dennoch erfolgt kaum eine institutionalisierte Integration in die Ausbildungscurricula. Diese Diskrepanz lenkt den Blick auf die feingliedrigen Determinanten der PU im TAM3.
Auf Basis der qualitativen Daten kristallisiert sich Job Relevance als primärer Nutzenfaktor heraus. Diejenigen Interviewpartner, die KI bereits für marketingspezifische oder dokumentationsbasierte Routineaufgaben einsetzen, berichten von messbaren Zeitersparnissen. Das statistische Gewicht dieses Prädiktors wird durch Jeffrey (2015, S. 91) unterstrichen (β = .488) und bestätigend von Venkatesh und Bala (2008, S. 290) repliziert. Interessant ist, dass Interviewte aus dem Bankwesen PU skeptischer beurteilen, da ihre Arbeitsprozesse stark von persönlicher Interaktion geprägt sind. Dies verdeutlicht, dass Arbeitsrelevanz nicht nur technisch, sondern auch dienstleistungskulturell verortet ist.
Output Quality. Das Vertrauen in KI‑Ergebnisse bleibt konditioniert: Alle Befragten betonen die Notwendigkeit menschlicher Qualitätssicherung. Dennoch wird die Basiskorrektheit generierter Texte und Analysen überwiegend positiv bewertet. Hier deckt sich das qualitative Urteil mit den hohen PEOU‑ und PU‑Werten, die Rinn et al. (2025) für ihren Lernbegleiter fanden (PU M ≈ 5,1).
Result Demonstrability. Besonders manifest wird dieser Faktor, wenn Auszubildende die Möglichkeit haben, KI‑gestützte Produktivitätsgewinne vor Peers oder Vorgesetzten zu präsentieren. Die empirische Evidenz von Seufert (2024, S. 12) untermauert, dass Use‑Cases mit sichtbarem pädagogischen Mehrwert (adaptive Tutoren, personalisierte Lernpfade) höhere Akzeptanz finden als abstrakte Kompetenzmodellierungen. In unseren Interviews spricht B5 explizit von einem „Multiplikatoreneffekt“, wenn erfolgreiche Anwendungsbeispiele kommuniziert werden.
Im untersuchten Setting besitzen soziale Einflussgrößen eine sekundäre Schlagkraft. Die Meinung von Führungskräften wird zwar als positiv wahrgenommen, aber nicht als entscheidender Treiber der PU identifiziert. Dies deckt sich mit Jeffrey (2015, S. 92), der zeigt, dass Subjektive Norm und Image ihre Signifikanz verlieren, sobald Job Relevance, Output Quality und Result Demonstrability kontrolliert werden.
Gleichwohl lassen sich subtile Imageeffekte nicht gänzlich negieren. Einige Befragte äußern die Befürchtung, dass KI‑Nutzung als Zeichen von Faulheit interpretiert werden könnte – ein Thema, das insbesondere in konservativen Branchen virulent ist. Dieses ambivalente Image korrespondiert mit der Beobachtung von Kleine et al. (2024, S. 10), wonach AI‑Anxiety (selbst bei geringer Ausprägung) indirekt über PEOU und PU auf die Nutzungsintensität wirkt.
Die Rolle motivationaler Variablen wird im TAM3 meist über Computer Playfulness oder Perceived Enjoyment abgebildet. Die erhobenen Daten aus den Interviews dieser Arbeit legen jedoch nahe, dass tiefer liegende Lernmotivationen – zum Beispiel Prüfungsdruck oder der Wunsch nach Kompetenzbeweis – PU flankieren. Rybandt et al. (2025, S. 134) demonstrieren, dass eine hohe wahrgenommene Herausforderung Output Quality (R² = .14) und PU (R² = .14) positiv beeinflusst. Übertragen auf die Ausbildungspraxis heißt das: Wenn Auszubildende KI als Werkzeug begreifen, um anspruchsvolle Aufgaben zu meistern, steigt ihre Nutzenwahrnehmung signifikant.
Die Analyse verdichtet sich somit zu einem dreistufigen Nutzenkanon:
Kontextuelle Passung (Job Relevance) – KI muss an konkrete Arbeitsprozesse andocken.
Qualitativer Output (Output Quality) – Ergebnisse müssen fachlich tragfähig sein.
Narrativierbarkeit (Result Demonstrability) – Erfolge müssen kommunizierbar und sichtbar sein.
Sofern dieser Kanon erfüllt ist, übertrumpft PU konkurrierende Einflussfaktoren und wird – wie Jeffrey (2015, S. 126) zeigt – zum doppelt so starken Prädiktor der Nutzungsabsicht wie PEOU. Unsere qualitative Befunde bestätigen diesen Mechanismus: Wo Ausbilder einen klaren Mehrwert erleben, artikulieren sie eine hohe Implementierungsbereitschaft, ungeachtet möglicher Imageschäden oder Datenschutzbedenken.
Die Zusammenführung von Interviewbefunden und dem aktuellen empirischen Forschungsstand erlaubt es, präzise Ableitungen für modelltheoretische Weiterentwicklungen und für praxisnahe Einführungsstrategien zu formulieren.
1. TAM3 um organisationale und motivationale Variablen erweitern.
Die Daten aus den Interviews belegen, dass Facilitating Conditions, Change Fatigue und differenzierte Motivationskomponenten (z. B. Kompetenz‑Herausforderung) PU und PEOU substantiell moderieren. Diese Befunde sprechen für eine modulare Erweiterung des TAM3, in der organisationale Ressourcen und psychologische Statusvariablen nicht nur als Anker der PEOU, sondern auch als direkte Prädiktoren der PU modelliert werden.
2. Erfahrung dynamisch fassen.
Das dichotome Erfarungsmaß in TAM3 (viel vs. wenig) greift zu kurz, um Phänomene wie Tool‑Inflation oder Lernkurvenabflachung zu erfassen. Theoretisch sinnvoll erscheint ein mehrdimensionales Konstrukt, das „qualifizierte Erfahrung“ (durch Schulung gestützt) von „saturierter Erfahrung“ (Change Fatigue) abgrenzt.
3. Regulatory Assurance als PEOU‑Determinante.
Datenschutz‑ und compliancebedingte Sicherheitsbedürfnisse kristallisieren sich als eigenständiger Einfluss auf die wahrgenommene Einfachheit heraus. Theoretisch sollte daher ein Faktor Perceived Regulatory Support eingeführt werden, der sowohl formale Richtlinien als auch informelle Vertrauenskulturen abbildet.
A. Arbeitsrelevanz strategisch herstellen.
– Curriculare Anbindung: KI‑Module sollten an reale Routine‑ und Projektaufgaben gekoppelt werden, um direkte Erfolgserlebnisse zu erzeugen. – Proof‑of‑Concept‑Messungen: Zeit‑ und Qualitätsindikatoren (Fehlerquoten, Durchlaufzeiten) dienen als Evidenzbasis und stärken Result Demonstrability.
B. Transparente Qualitätssicherung etablieren.
– Vier‑Augen‑Prinzip: KI‑Output wird systematisch durch Auszubildende und Fachausbilder gegengeprüft, um Vertrauen aufzubauen und Lerngelegenheiten zu schaffen. – Use‑Case‑Bibliotheken: dokumentierte Best‑Practice‑Fälle fördern organisationsintern die Glaubwürdigkeit qualitativ hochwertiger KI‑Ergebnisse.
C. Unterstützungsstrukturen institutionalisieren.
– Peer‑Learning‑Formate (KI‑Stammtische, Prompt‑Workshops) adressieren Selbstwirksamkeit und gemeinsames Wissensmanagement.
– Micro‑Learning & On‑Demand‑Tutorials erhöhen PEOU; sie sollten in Learning‑Management‑Systeme integriert werden, sodass Lernende adaptive Hilfestellungen erhalten.
D. Change Fatigue vorbeugen.
– Iteratives Roll‑out: Neue Tools in wohldosierten Schritten ausrollen, jede Stufe durch Nutzungs‑ und Qualitätsdaten evaluieren.
– „Digital Sabbath“: Phasen ohne Einführung weiterer Tools schaffen, um Aufnahmefähigkeit zu sichern und Explorationserfolge zu konsolidieren.
E. Freiwilligkeit und soziale Norm austarieren.
– Anreizsysteme nutzen: Badges oder Zertifikate für KI‑gestützte Projektaufgaben erhöhen wahrgenommenen persönlichen Nutzen.
– Role‑Model‑Management: Führungskräfte demonstrieren KI‑Nutzung authentisch, um normative Effekte zu setzen, ohne Zwang auszuüben.
F. Motivation gezielt stimulieren.
– Kompetenz‑Orientierung: Aufgaben so gestalten, dass sie als herausfordernd, aber erreichbar wahrgenommen werden – ein Faktor, der laut Rybandt et al. (2025, S. 134) PU fördert. – Gamifizierte Lernpfade: Levels, Ranglisten oder „Boss‑Battles“ gegen KI‑Fehloutputs erhöhen Perceived Enjoyment und damit PEOU.
G. Regulatory Assurance sicherstellen.
– Leitfäden für datensensible Prompts und Model‑Governance‐Dokumente eliminieren Unsicherheiten. – Pilot‑Sandboxen für KMU: Cloudbasierte geschützte Testumgebungen erlauben risikolose Experimentierphasen.
Zusammengeführt ergibt sich ein integratives Handlungsmodell:
- Start mit arbeitsrelevanten Piloten, die klar umrissene Prozesse adressieren und deren Outputqualität hoch ist.
- Transparente Ergebnisdemonstration durch Kennzahlen und Storytelling, um PU breitenwirksam zu verankern.
- Unterstützende Ökologie (technisch, didaktisch, sozial) als Dauerstruktur, nicht als Einmalmaßnahme.
- Motivationale Hebel (Gamification, Kompetenzentwicklung) zur Aufrechterhaltung von Wahrnehmungs‑ und Nutzungsbereitschaft.
- Iterative Skalierung mit klaren Pausen, um Change Fatigue vorzubeugen und Erfahrungslernen auszuwerten.
Dieses Modell operationalisiert die in Abschnitt 5.2 herausgearbeiteten Nutzenfaktoren und bettet sie in einen organisationsentwicklerischen Rahmen ein. Es adressiert damit zugleich die theoretisch identifizierten Moderationen (Erfahrung, Freiwilligkeit, Regulationssicherheit) und liefert ein praxisorientiertes Rezept, wie KI vom opportunistischen Tool zum strukturellen Bestandteil der kaufmännischen Ausbildung avancieren kann.
Trotz der theoretischen Verankerung im TAM3‑Modell, der systematischen Datenerhebung und der regelgeleiteten Auswertung weist die vorliegende Arbeit Einschränkungen auf, welche bei der Interpretation und Übertragbarkeit der Ergebnisse berücksichtigt werden müssen. Zunächst basiert die Analyse auf lediglich fünf leitfadengestützten Experteninterviews; damit liefert sie dichte Einzelfallvignetten, erlaubt jedoch keine statistische Verallgemeinerung. Zugleich erfolgte die Rekrutierung über persönliche Netzwerke und digitale Plattformen, was nahelegt, dass digitalaffine Betriebe eher erreichbar waren als Unternehmen mit geringerem Innovationsgrad. Infolgedessen könnte das Sample eine tendenziell KI‑freundliche Haltung überrepräsentieren. Auch der Branchenfokus legt Beschränkungen offen: Zwar beziehen sich die Fälle auf unterschiedliche kaufmännische Felder, doch Produktions‑, Handwerks‑ oder Pflegeberufe – Bereiche, in denen Arbeitsabläufe und Datenschutzregelungen anders gesetzt sind – bleiben unterbeleuchtet. Hinzu tritt eine zeitliche Begrenzung. Die Interviews wurden im Frühjahr 2025 geführt, also vor dem endgültigen Inkrafttreten des EU‑AI‑Acts; regulatorische Verschärfungen oder technologische Sprünge – etwa multimodale Large‑Language‑Modelle – können Akzeptanzmuster rasch verschieben und damit die Aktualität einzelner Befunde relativieren.
Methodisch ist zu berücksichtigen, dass alle Angaben auf rückblickenden Selbstauskünften der Befragten beruhen. Ein möglicher Effekt sozialer Erwünschtheit – etwa das Bestreben, sich besonders fortschrittlich darzustellen – kann dabei die Einschätzung von Nützlichkeit und Bedienfreundlichkeit positiv verzerren und gleichzeitig Bedenken wie Datenschutzprobleme oder Qualifikationsängste in den Hintergrund treten lassen. Da objektive Nutzungsprotokolle oder Beobachtungen im Arbeitsprozess nicht erhoben wurden, bleiben solche Effekte unkontrolliert. Zudem, und das ist jeder qualitativen Inhaltsanalyse immanent, hängen Kategorienbildung und Interpretation von den Entscheidungspfaden der Forschenden ab. Peer‑Debriefing und ausführliche Verfahrensdokumentation mindern diese Gefahr zwar, können sie aber nicht vollständig eliminieren. Schließlich wurde die Analyse strikt im Raster des TAM3 vorgenommen. Neuere Akzeptanzdeterminanten wie „Trust in AI“, wahrgenommenes ethisches Risiko oder Transparenzanforderungen blieben dadurch weitgehend unberücksichtigt, obgleich sie in aktuellen KI‑Diskursen massiv an Bedeutung gewinnen.
Aus diesen Limitationen ergeben sich konkrete Perspektiven für künftige Forschung. In einem nächsten Schritt ließe sich die vorliegende Typologie durch ein breiter angelegtes Mixed Methods Design validieren: Eine standardisierte Befragung mit größerem Stichprobenumfang, flankiert von System Logdaten, würde erlauben, die prognostische Stärke der hier identifizierten Einflussfaktoren – insbesondere Job Relevance, Result Demonstrability und Change Fatigue – statistisch zu testen und gleichzeitig sozial erwünschte Antworttendenzen abzufedern. Gerade weil Erfahrung im TAM3 als dynamischer Moderator wirkt, empfiehlt sich zudem ein längsschnittliches Panel, das Ausbilderinnen und Ausbilder über mehrere Ausbildungsjahre hinweg begleitet. Experimentelle Pilotstudien, in denen beispielsweise KI gestützte Berichtsheft Apps eingeführt und unterschiedliche Supportformate – Micro Learning, Prompt Coaching oder Peer Mentoring – systematisch variiert werden, könnten zeigen, welche Interventionen PEOU und PU nachhaltig steigern.
Für die Weiterentwicklung des Modells erscheint es darüber hinaus sinnvoll, Kontext und Vertrauensdimensionen aufzunehmen. Die Integration von Konstrukten wie „Perceived Transparency“ oder „Regulatory Assurance“ dürfte insbesondere in hochregulierten Branchen Aufschluss darüber geben, ob rechtliche Klarheit selbst zu einer Facette der Benutzer freundlichkeit wird. Vergleichende Fallstudien zwischen kaufmännischen, technischen und handwerklichen Ausbildungsberufen könnten aufzeigen, ob sich der Nutzenkanon aus Arbeitsrelevanz, Ergebnisqualität und Ergebnis¬demonstration auch in Umgebungen reproduzieren lässt, in denen körperliche Arbeit, Produktsicherheit oder Prozessautomation dominieren. Ebenso offen ist, in welchem Maße situative Motivationszustände die Wahrnehmung von Nützlichkeit und Bedienbarkeit modulieren. Hier bieten die experimentellen Ansätze von Rybandt et al. (2025) erste Anhaltspunkte: Variationen in Aufgabenschwierigkeit oder Gamification Elemente könnten in Auszubildendenstudien gezielt eingesetzt werden, um die kausale Richtung zwischen Motivation und PU/PEOU zu klären.
Schließlich verlangt der kommende Rechtsrahmen der EU einen praxisnahen Transfer. Forschung sollte nicht bei theoretischen Modellen stehenbleiben, sondern Handreichungen erarbeiten, die Betrieben dabei helfen, KI Projekte rechtssicher und lernwirksam aufzusetzen: Checklisten für datensensible Prompts, Open Source Promptbibliotheken, Leitfäden zur Einrichtung geschützter Sandbox Umgebungen oder Blaupausen für unternehmensinterne „AI Stammtische“ könnten das Spannungsfeld zwischen Innovation und Compliance produktiv auflösen.
Es lässt sich somit sagen, dass die vorliegende Arbeit ein exploratives, auf TAM3 fundiertes Bild der Akzeptanzdeterminanten von KI in der kaufmännischen Berufsausbildung zeichnet; zugleich macht sie deutlich, dass breitere, methodisch vielfältigere und kontextsensitivere Untersuchungen erforderlich sind, um die rasante technische und regulatorische Entwicklung adäquat abzubilden und praxisorientierte Empfehlungen weiter zu präzisieren.
Beck, C., & Ullrich, F. (2024). Azubi Recruiting Trends.
Bitkom e.V. (2025). Digitalisierung der Wirtschaft 2025.
BMBF (2023). BMBF-Aktionsplan Künstliche Intelligenz: Neue Herausforderungen chancenorientiert angehen. (Stand: November 2023). BMBF Referat Künstliche Intelligenz.
BMWK (o. J.). Politik für den Mittelstand. Gefunden am 01.05.2025 unter https://www.bmwk.de/Redaktion/DE/Dossier/politik-fuer-den-mittelstand.html)
Brandhofer, G., Gröblinger, O., Jadin, T., Raunig, M., & Schindler, J. (2024). Von KI lernen, mit KI lehren: Die Zukunft der Hochschulbildung. Projektbericht.
Brandhofer, G., & Tengler, K. (2024). Zur Akzeptanz von KI-Applikationen bei Lehrenden und Lehramtsstudierenden. R&E-SOURCE, 11 (3), 7–25. 10.53349/resource.2024.i3.a1277
Bringmann, B., Fach, P., Becker, S. J., Schamberger, M., & Wendland, P. (2025). Deloitte's State of Generative AI in the Enterprise: German Cut.
Buntins, K., Reichow, I., & Rashid, F. (2024). Eine Typologie zur Analyse des Einsatzes von KI-Methoden in der beruflichen Bildung. Berufsbildung in Wissenschaft und Praxis, 53 (1), 13–17.
Dahri, N. A., Yahaya, N., Al-Rahmi, W. M., Aldraiweesh, A., Alturki, U., Almutairy, S., Shutaleva, A., & Soomro, R. B. (2024). Extended TAM based acceptance of AI-Powered ChatGPT for supporting metacognitive self-regulated learning in education: A mixed-methods study. Heliyon, 10 (8), e29317. 10.1016/j.heliyon.2024.e29317
Davis, F. D. (1989). Perceived Usefulness, Perceived Ease of Use, and User Acceptance of Information Technology. MIS Quarterly, 13 (3), 319. 10.2307/249008
Dick, O., & Herzog-Buchholz, E. (2023). Ausbildungsreport 2023. DGB-Bundesvorstand, Bereich Jugend.
Eder, A. (2015). Akzeptanz von Bildungstechnologien in der gewerblich-technischen Berufsbildung vor dem Hintergrund von Industrie 4.0: Acceptance of educational technologies in (technical) vocational education in the context of industry 4.0. Institut für Erziehungswissenschaft, Abteilung Berufspädagogik mit Schwerpunkt Technikdidaktik. 115734
Esser, F. H. (2024). Künstliche Intelligenz – Heilsbringer oder Jobkiller?. Berufsbildung in Wissenschaft und Praxis, 53 (1), 3.
Fraunhofer IPA (o. J.). What is Artificial Intelligence?. Gefunden am 28.04.25 unter https://www.ipa.fraunhofer.de/en/about-us/guiding-themes/ai/definition.html#faq_faqitem-answer
Gerhards, C., & Baum, M. (2024). AI in the workplace: who is using it and why? A look at the driving forces behind artificial intelligence in German companies, Communication Papers of the 19th Conference on Computer Science and Intelligence Systems (FedCSIS) (S. 45–52). PTI. 10.15439/2024F2752
Giering, O. (2022). Künstliche Intelligenz und Arbeit: Betrachtungen zwischen Prognose und betrieblicher Realität. Zeitschrift für Arbeitswissenschaft, 76 (1), 50–64. 10.1007/s41449-021-00289-0
Haberl, A., Fleiß, J., Kowald, D., & Thalmann, S. (2024). Take the aTrain. Introducing an interface for the Accessible Transcription of Interviews. Journal of Behavioral and Experimental Finance, 41, 100891. 10.1016/j.jbef.2024.100891
Jeffrey, D. (2015). Testing the Technology Acceptance Model 3 (TAM 3) with the Inclusion of Change Fatigue and Overload, in the Context of Faculty from Seventh-day Adventist Universities: A Revised Model. 10.32597/dissertations/1581
Kleine, A.-K., Schaffernak, I., & Lermer, E. (2025). Exploring predictors of AI chatbot usage intensity among students: Within- and between-person relationships based on the technology acceptance model. Computers in Human Behavior: Artificial Humans, 3, 100113. 10.1016/j.chbah.2024.100113
Kuckartz, U. (2018). Qualitative Inhaltsanalyse: Methoden, Praxis, Computerunterstützung. (4. Auflage). Beltz Juventa.
Mayring, P. (2022). Qualitative Inhaltsanalyse: Grundlagen und Techniken. (13., überarbeitete Auflage). Beltz.
Mühlemann, S. (2024). AI adoption and workplace training. Universität Zürich IBW - Institut für Betriebswirtschaftslehre.
OECD (2024). OECD-Bericht zu Künstlicher Intelligenz in Deutschland. OECD. 10.1787/8fd1bd9d-de
Peissner, M., Kötter, F., & Zaiser, H. (2019). Künstliche Intelligenz – Anwendungsperspektiven für Arbeit und Qualifizierung. Berufsbildung in Wissenschaft und Praxis, 48 (3), 9–13.
Pletz, C. (2021). Technologieakzeptanz von virtuellen Lern- und Arbeitsumgebungen.
Proeger, T., Alhusen, H., & Meub, L. (2024). ChatGPT in der beruflichen Bildung des Handwerks. Anwendungsfelder, Prompts, Chancen und Risiken. Volkswirtschaftliches Institut für Mittelstand und Handwerk an der Universität Göttingen. 10.47952/gro-publ-223
Röser, A. M. (2021). Charakterisierung von schwacher und starker Künstlicher Intelligenz. MA Akademie Verlags- und Druck-Gesellschaft mbH. 234520
Rott, K. J., & Schmidt-Hertha, B. (2024). KI in der Berufsbildung implementieren – Bedarfe und Anforderungen von Auszubildenden und Lehrkräften. Berufsbildung in Wissenschaft und Praxis, 53 (1), 24–27.
Scheiter, K., Bauer, E., Omarchevska, Y., Schumacher, C., & Sailer, M. (2025). Künstliche Intelligenz in der Schule: Eine Handreichung zum Stand in Wissenschaft und Praxis.
Scheuer, D. (2020). Akzeptanz von Künstlicher Intelligenz: Grundlagen intelligenter KI-Assistenten und deren vertrauensvolle Nutzung. Springer Vieweg. 10.1007/978-3-658-29526-4
Schmidt, C. M., Suchy, O., Stich, A., & et al. (2024). KI für die Fachkräftesicherung nutzen.
Seufert, S. (2024). Artificial Intelligence in Vocational Education and Training (VET): Evaluating VET Leaders’ Acceptance of AI in Switzerland. 10.21203/rs.3.rs-4628645/v1
Venkatesh, V. (2000). Determinants of Perceived Ease of Use: Integrating Control, Intrinsic Motivation, and Emotion into the Technology Acceptance Model. Information Systems Research, 11 (4), 342–365. 10.1287/isre.11.4.342.11872
Venkatesh, V., & Bala, H. (2008). Technology Acceptance Model 3 and a Research Agenda on Interventions. Decision Sciences, 39 (2), 273–315. 10.1111/j.1540-5915.2008.00192.x
Venkatesh, V., & Davis, F. D. (2000). A Theoretical Extension of the Technology Acceptance Model: Four Longitudinal Field Studies. Management Science, 46 (2), 186–204. 10.1287/mnsc.46.2.186.11926
Zhang, C., Schießl, J., Plößl, L., Hofmann, F., & Gläser-Zikuda, M. (2023). Acceptance of artificial intelligence among pre-service teachers: a multigroup analysis. International Journal of Educational Technology in Higher Education, 20 (1). 10.1186/s41239-023-00420-7
Anhang A Interviewleitfaden
Anhang B Kodierleitfaden
Anhang C Interview-Transkripte
[Die Anhänge sind aus urheberrechtlichen Gründen nicht im Lieferumfang enthalten.]
[...]
Der GRIN Verlag hat sich seit 1998 auf die Veröffentlichung akademischer eBooks und Bücher spezialisiert. Der GRIN Verlag steht damit als erstes Unternehmen für User Generated Quality Content. Die Verlagsseiten GRIN.com, Hausarbeiten.de und Diplomarbeiten24 bieten für Hochschullehrer, Absolventen und Studenten die ideale Plattform, wissenschaftliche Texte wie Hausarbeiten, Referate, Bachelorarbeiten, Masterarbeiten, Diplomarbeiten, Dissertationen und wissenschaftliche Aufsätze einem breiten Publikum zu präsentieren.
Kostenfreie Veröffentlichung: Hausarbeit, Bachelorarbeit, Diplomarbeit, Dissertation, Masterarbeit, Interpretation oder Referat jetzt veröffentlichen!
Kommentare