Jump to content

Rund die Hälfte der Unternehmen in Europa hat bereits KI-Module im Einsatz – Tendenz stark steigend. Laut der Lufthansa-Studie AI-ready Enterprise 2024 planen sogar 92 % der Unternehmen, ihre Nutzung in den nächsten drei Jahren deutlich auszubauen. Viele Organisationen setzen KI schon heute in Pilotprojekten für Automatisierung, Entscheidungsunterstützung oder HR-Prozesse ein. Was bislang vor allem als Innovations- und Effizienztreiber gesehen wurde, steht nun unter neuen Vorzeichen: Seit dem 1. August 2024 gilt der erste umfassende Rechtsrahmen für Künstliche Intelligenz in Europa.

Im Kern geht es dabei um die Schnittstelle KI und Mensch. Die Technologie kann enorme Chancen eröffnen, entfaltet ihren Wert aber nur dann, wenn sie verantwortungsvoll, nachvollziehbar und im Einklang mit den Menschen im Unternehmen genutzt wird. Genau hier setzt der EU AI Act an: Er fordert nicht nur technische Sicherheit, sondern auch Kompetenz, Transparenz und eine reflektierte Nutzung von KI.

Die entscheidende Frage lautet daher nicht: „Welche KI setzen wir ein?“, sondern: „Wie gelingt es uns, die notwendigen Kompetenzen, Strukturen und eine passende Kultur so zu entwickeln, dass KI und Mensch regelkonform, vertrauenswürdig und zukunftsorientiert zusammenwirken?“ 

EU AI Act in der Praxis: Artikel 4 als Schlüssel zu Kompetenz und Kultur

Das Ziel des EU AI Act ist es, Risiken zu kontrollieren und zugleich die Chancen von KI verantwortungsvoll nutzbar zu machen. Für Unternehmen bedeutet das: Sie müssen sich nicht nur technisch, sondern auch organisatorisch und kulturell neu aufstellen. Besonders wichtig ist Artikel 4, der das Thema AI Literacy ins Zentrum rückt. 

Was bedeutet AI Literacy?
AI Literacy bezeichnet die Fähigkeit, Künstliche Intelligenz zu verstehen, ihre Ergebnisse kritisch einzuordnen und verantwortungsvoll damit umzugehen. Dazu gehören: 

Grundverständnis von Funktionsweise und Grenzen von KI 

Kompetenz im reflektierten Umgang mit KI-Ergebnissen 

Fähigkeit, Chancen und Risiken für das eigene Arbeitsumfeld zu bewerten 

Verantwortungsbewusstsein bei Einsatz und Kontrolle von KI-Systemen 

Für Unternehmen bedeutet das konkret: 

  • Kompetenzen aufbauen: Mitarbeitende müssen in die Lage versetzt werden, KI-Systeme zu verstehen, zu bewerten und im Alltag sicher zu nutzen.
  • Transparenz schaffen: Entscheidungen, die mit oder durch KI getroffen werden, müssen nachvollziehbar und erklärbar sein.
  • Aufsicht gewährleisten: Menschen bleiben in der Verantwortung, auch wenn KI-Prozesse automatisiert laufen.
  • Alle Ebenen einbeziehen: AI Literacy betrifft nicht nur Spezialist:innen oder Führungskräfte, sondern reicht von operativen Mitarbeitenden bis ins Top-Management. 

Der Gesetzgeber möchte damit also einen reflektierten, verantwortungsvollen KI-Einsatz fördern – im Sinne von Responsible AI. Gemeint ist ein Ansatz, der nicht nur die Einhaltung von Regeln sichert, sondern auch Transparenz, Fairness und menschliche Verantwortung in den Mittelpunkt stellt. 

Der blinde Fleck in vielen Unternehmen: Warum KI-Umsetzung oft an der Kultur scheitert

In vielen Unternehmen sind die technischen Grundlagen für KI bereits geschaffen. Systeme laufen, erste Use Cases sind produktiv und doch stockt die Umsetzung. Der Grund liegt selten in fehlender Technologie, sondern viel häufiger in der kulturellen Verankerung. 

Typische Herausforderungen lassen sich klar benennen: 

  • Überforderung und Unsicherheit: Mitarbeitende fühlen sich nicht ausreichend eingebunden oder haben Sorge, dass KI ihre Rolle infrage stellt.
  • Fehlendes Verständnis: Wer die Funktionsweise von KI nicht nachvollziehen kann, entwickelt eine leichte Skepsis, die oft in passivem Widerstand mündet.
  • Unvorbereitete Führungskräfte: Viele Führungspersonen wissen, dass sie KI gestalten und vorleben sollen, fühlen sich in dieser Rolle aber noch unsicher.
  • Unklare Governance und Rollen: Gerade in komplexen Matrixstrukturen fehlt es oft an klarer Verantwortung für KI-Themen. Ohne eindeutige Zuständigkeiten entstehen Lücken zwischen Compliance, Fachbereichen und IT. 

Solange die kulturelle Dimension vernachlässigt wird, bleibt der EU AI Act für Unternehmen vor allem eine Pflichtübung. Erst wenn KI-Kompetenz und Akzeptanz im Alltag verankert sind, kann das volle Potenzial der Technologie entfaltet werden. 

Der MHP-Ansatz: Mit AI4Human zur echten Verankerung von KI im Unternehmen

Der EU AI Act macht deutlich: KI verändert Rollen, Verantwortlichkeiten und ganze Organisationsstrukturen. Effizienzgewinne durch KI sind nur nachhaltig, wenn sich auch die Rollen der KI-Nutzenden mitentwickeln und neue Aufgabenfelder geschaffen werden, die es bislang im Unternehmen nicht gab.

Mit dem AI4Human Framework verbindet MHP regulatorische Compliance mit kulturellem Wandel. Ziel ist es, eine KI-Strategie und -Kultur zu etablieren, in der KI als vertrauenswürdiger und akzeptierter Teil der Arbeit verankert wird.

Die Umsetzung basiert auf drei Säulen: 

  • Enablement & AI Literacy: Mitarbeitende werden befähigt, KI zu verstehen und verantwortungsbewusst einzusetzen. Bevor es in die konkreten Lernformate geht, erfolgt eine Standortbestimmung: Wo stehen Unternehmen und Mitarbeitende in Bezug auf AI- und Change-Readiness? Auf dieser Basis können passgenaue Maßnahmen entwickelt werden. In Workshops, intensiven Schulungen oder spielerischen Lernformaten erleben sie ganz praktisch, wie KI Entscheidungen trifft und lernen so, Chancen und Grenzen selbst zu erkennen.
  • Leadership & Rollenklärung: Führungskräfte übernehmen Verantwortung, gestalten aktiv und dienen als Vorbilder – sei es als Change Agents, die den kulturellen Wandel vorantreiben, als Pilotanwender:innen, die KI frühzeitig im Arbeitsalltag erproben und Erfahrungen teilen, oder als Sponsor:innen, die Ressourcen bereitstellen und die strategische Bedeutung von KI im Unternehmen sichtbar machen. Dabei unterstützt MHP mit Coachings, die helfen, eine klare Haltung zu entwickeln und neue Rollen im Unternehmen zu definieren, etwa durch die Einführung dedizierter Domänen-Owner, die Verantwortung für spezifische KI-Anwendungsbereiche übernehmen und damit klare Zuständigkeiten schaffen.
  • Change & Kommunikation: Veränderungen werden transparent begleitet, Strukturen und Narrative fördern Vertrauen in KI. So können interne Kommunikationsmaßnahmen wie beispielsweise Newsletter oder Change Stories sichtbar machen, welchen Mehrwert KI bereits heute liefert und damit Akzeptanz schaffen. 

Auf diese Weise schafft MHP eine Brücke zwischen AI Compliance und AI Culture. Das Ergebnis: eine schnellere Umsetzung, höhere Akzeptanz und langfristige Resilienz im Umgang mit KI. 

Fazit: Der Mensch entscheidet über den Erfolg des EU AI Act

Der EU AI Act ist ein starkes Signal für einen verantwortungsvollen Umgang mit Künstlicher Intelligenz. Er geht über rein technische oder juristische Vorgaben hinaus und eröffnet die Chance, KI als Treiber für Vertrauen, Teilhabe und nachhaltige Wertschöpfung zu etablieren. Entscheidend ist, ob Unternehmen ihn lediglich als regulatorische Pflicht verstehen oder als Impuls für echten kulturellen Wandel.

Mit AI4Human zeigt MHP, wie sich dieser Anspruch in die Praxis übersetzen lässt: Regulatorische Anforderungen werden in konkrete Maßnahmen für Kommunikation, Führung und Qualifizierung überführt. So entwickelt sich der EU AI Act nicht zum bürokratischen Pflichtprogramm, sondern zu einem Hebel für Effizienz, Resilienz und Innovation.

Unternehmen, die frühzeitig in kulturelle Verankerung investieren, verschaffen sich einen klaren Wettbewerbsvorteil. KI wird damit nicht zum Störfaktor, sondern zu einem Motor für Zukunftsfähigkeit und nachhaltigen Erfolg. 

FAQ

Was ist der Unterschied zwischen technischer Compliance und AI Culture?

Technische Compliance bedeutet, die formalen Vorgaben des EU AI Act einzuhalten, etwa Dokumentationen, Risikoanalysen oder Kontrollmechanismen. AI Culture geht darüber hinaus und sorgt dafür, dass Menschen im Unternehmen die Technologie verstehen, akzeptieren und verantwortungsvoll nutzen– und erfüllt damit zugleich den Zweck von Artikel 4 des EU AI Act, der ausdrücklich AI Literacy und die Befähigung der Mitarbeitenden fordert. Erst das Zusammenspiel beider Dimensionen macht KI nachhaltig wirksam. 

Werden bei der Implementierung auch ethische, rechtliche und kulturelle Fragen adressiert?

Ja, denn der EU AI Act macht deutlich, dass KI nicht nur technisch sicher ist, sondern auch rechtlich, ethisch und gesellschaftlich verantwortbar eingesetzt werden soll. Mit AI4Human werden diese Aspekte bewusst integriert, indem regulatorische Anforderungen in Kommunikationsmaßnahmen, kulturelle Programme und Führungsverantwortung übersetzt werden. 

Wie müssen wir unsere Governance-Strukturen anpassen, um compliant zu sein? Brauchen wir ein AI Governance Board oder Ethik-Komitee?

Governance-Strukturen müssen erweitert werden, damit Verantwortlichkeiten, Risiken und Entscheidungswege für KI klar geregelt sind. Viele Unternehmen entscheiden sich für die Einrichtung eines AI Governance Boards oder Ethik-Komitees, um regulatorische, ethische und kulturelle Fragestellungen gemeinsam zu steuern. Ob ein eigenes Gremium notwendig ist, hängt von der Größe und der Komplexität des Unternehmens ab. Entscheidend ist jedoch immer ein klarer organisatorischer Rahmen mit definierten Rollen. 

Wie stellen wir sicher, dass auch Lieferanten und Partner den EU AI Act einhalten?

Der AI Act bezieht ausdrücklich die gesamte Wertschöpfungskette mit ein. Unternehmen müssen deshalb sicherstellen, dass auch Partner und Lieferanten die gleichen Standards umsetzen. Das gelingt über vertragliche Vereinbarungen, Nachweise zu Risikoanalysen oder gemeinsame Audits. Wichtig sind dabei eine transparente Kommunikation und abgestimmte Prozesse entlang der Lieferkette. 

Wie sieht eine gute Risikoabschätzung für ein KI-System aus?

Eine solide Risikoabschätzung prüft zunächst, in welche Risikokategorie das System fällt und ob es potenziell als Hochrisiko-Anwendung gilt. Sie untersucht darüber hinaus mögliche Verzerrungen, die Transparenz und Nachvollziehbarkeit der Ergebnisse sowie die Sicherstellung menschlicher Aufsicht. Neben technischen Aspekten gehören auch ethische und gesellschaftliche Auswirkungen in die Bewertung. Dokumentation und kontinuierliches Monitoring sorgen dafür, dass Risiken nicht nur einmalig, sondern dauerhaft im Blick bleiben.

Mehr Details und praktische Tipps finden Sie in unserem Artikel „EU AI Act verstehen und umsetzen: So gelingt die rechtskonforme KI-Nutzung“. Jetzt weiterlesen und vertiefen. 

Welche Rolle spielt Führung bei der Umsetzung von Artikel 4 (AI Literacy)?

Führungskräfte sind zentrale Multiplikatoren. Sie geben Orientierung, schaffen Vertrauen und leben den reflektierten Umgang mit KI vor. Artikel 4 verpflichtet Unternehmen deshalb ausdrücklich, Führungskräfte zu befähigen, Wissen zu vermitteln, Mitarbeitende zu begleiten und den Einsatz von KI verantwortungsvoll zu gestalten. Ohne klare Führungsrollen bleibt AI Literacy wirkungslos. 

Welchen Einfluss hat der EU AI Act auf unsere tägliche Arbeit mit KI?

Der AI Act verändert den Arbeitsalltag, weil Prozesse rund um KI strukturierter und transparenter gestaltet werden müssen. Entscheidungen, die durch KI unterstützt werden, müssen nachvollziehbar sein, Dokumentationen werden verpflichtend und Mitarbeitende benötigen Schulungen, um kompetent mit den Anwendungen umgehen zu können. Das bedeutet zusätzliche Aufgaben, schafft aber zugleich Sicherheit, Vertrauen und Effizienz. 

Welche Vorteile bringt ein human-zentrierter Ansatz für die Umsetzung des EU AI Act?

Ein human-zentrierter Ansatz stellt den Menschen ins Zentrum. Das führt dazu, dass KI nicht nur als regulatorische Pflicht verstanden wird, sondern als Chance für bessere Zusammenarbeit, höhere Innovationskraft und mehr Vertrauen in die Technologie. Mitarbeitende fühlen sich eingebunden, Führungskräfte gewinnen an Handlungssicherheit und Unternehmen können KI schneller und nachhaltiger verankern. 

Wie bereiten wir Führungskräfte konkret auf ihre Rolle im Umgang mit KI vor?

Führungskräfte werden durch gezielte Programme unterstützt, die Wissen, Rollenverständnis und praktische Umsetzung kombinieren. Sie lernen, welche rechtlichen und technischen Grundlagen sie kennen müssen, wie sie ihre Verantwortung als Vorbilder und Gestalter wahrnehmen können und wie sie KI im Arbeitsalltag sinnvoll einsetzen und kommunizieren. Auf diese Weise entsteht Sicherheit im Umgang mit KI und eine Vorbildfunktion, die in die gesamte Organisation ausstrahlt. 

Über unsere Autorin

Ein "Better tomorrow" geht nicht ohne:

  1. Sturktur im Chaos
  2. Echte Empathie und Zusammenarbeit
  3. Kommunikation mit Wirkung

Mein Herz schlägt schneller für…:

 ...Meine Familie, Reisen & neue Perspektiven, Kreative Konzeption

Alicia Kofler

Consultant

Über unsere Autorin

Ein "Better tomorrow" geht nicht ohne:

  1. Innovation und Transparenz
  2. Gutem Zusammenspiel von Mensch, Technik und Organisation
  3. Teamwork

Mein Herz schlägt schneller für…:

 ...clever gelöste Komplexität in der Wertschöpfungskette.

Antonia Weber

Consultant

Über unsere Autorin

Ein "Better tomorrow" geht nicht ohne:

  1. Vertrauen und Veränderungsbereitschaft
  2. klare Kommunikation, effektive Zusammenarbeit und starker Teamgeist
  3. Zusammenspiel von Mensch, Methode und Technologie

Mein Herz schlägt schneller für…:

 ...Momente, die mich antreiben – für meine Familie, echte Begegnungen, spannende Herausforderungen, Teams, die gemeinsam Großes bewegen und für alles, was mich mit Leidenschaft erfüllt.

Lisa Voss

Manager