KI-Regulatorik im Projekt: Warum Projektmanagement zur Schlüsselrolle zwischen Innovation und Compliance wird

Künstliche Intelligenz ist in vielen Organisationen längst kein Zukunftsthema mehr. Sie ist Bestandteil laufender oder geplanter Projekte – sei es in Form von Automatisierung, Entscheidungsunterstützung, Prognosemodellen oder datengetriebenen Services.

Parallel dazu treten mit dem EU AI Act sowie begleitenden Regelwerken wie DORA neue regulatorische Anforderungen in Kraft, die den Einsatz solcher Systeme strukturieren und begrenzen sollen. In der Praxis erlebe ich jedoch häufig, dass diese beiden Entwicklungen getrennt voneinander betrachtet werden:

KI als technisches Innovationsvorhaben, Regulatorik als juristisches oder Compliance-Thema.

Genau an dieser Trennlinie geraten Projekte ins Stocken.

Nicht, weil KI technisch nicht umsetzbar wäre.

Und auch nicht, weil regulatorische Anforderungen unbekannt wären.

Sondern weil es an einer Instanz fehlt, die beides zusammenführt, übersetzt und steuerbar macht.

Aus meiner Erfahrung ist das kein Randproblem, sondern ein strukturelles:

KI-Regulatorik ist kein Zusatzthema – sie wird projektkritisch.

1. Wo KI-Projekte heute real scheitern

In der Projektpraxis zeigen sich bei KI-Vorhaben wiederkehrende Muster – unabhängig von Branche oder Organisationsgröße.

Ein zentrales Problem ist die unklare Verantwortungsverteilung.

KI-Projekte bewegen sich typischerweise zwischen Fachbereich, IT, Datenschutz, Recht und Compliance. Oft ist allen Beteiligten bewusst, dass regulatorische Anforderungen existieren. Unklar bleibt jedoch, wer diese im Projektkontext konkret verantwortet.

Das führt zu Situationen wie:

  • Projektziele werden definiert, ohne regulatorische Auswirkungen mitzudenken.
  • Risiken werden technisch beschrieben, aber nicht steuernd bewertet.
  • Entscheidungen werden vertagt, „bis es rechtlich klarer ist“.

Für Projekte bedeutet das: Stillstand, Reibung oder permanente Nachsteuerung.

Ein zweites Muster ist die Entkopplung von Innovation und Governance.

KI-Initiativen werden häufig als experimentell oder agil eingeordnet. Fachlich ist das nachvollziehbar – kollidiert aber mit regulatorischen Erwartungen an Nachvollziehbarkeit, Dokumentation und Verantwortlichkeit.

Wenn Governance erst am Ende „aufgesetzt“ wird, ist das Projekt meist bereits falsch strukturiert.

Ein drittes, oft unterschätztes Problem ist die fehlende Steuerbarkeit auf Portfolio-Ebene. KI-Anwendungen entstehen selten isoliert. Sie entwickeln sich parallel in verschiedenen Projekten und Bereichen. Ohne ein übergreifendes Verständnis darüber, welche Systeme Entscheidungen beeinflussen, entstehen genau dort blinde Flecken, wo Regulatorik ansetzt.

Die Folge:

  • steigende Unsicherheit
  • wachsender Abstimmungsaufwand
  • Verlust an Entscheidungsfähigkeit

Nicht wegen fehlender Kompetenz – sondern wegen fehlender Struktur.

2. Was EU AI Act und DORA für Projekte konkret verändern

Der EU AI Act und DORA verändern Projekte nicht abstrakt, sondern sehr konkret – und zwar ab Projektstart.

2.1 Ziele werden überprüfbar, nicht nur erreichbar

Projektziele wie „KI-gestützte Entscheidungsunterstützung einführen“ oder „Effizienz steigern“ reichen künftig nicht mehr aus.

Ein Projektziel muss auch beantworten:

  • Welche Entscheidungen werden beeinflusst?
  • Welche Risiken entstehen daraus?
  • Wer trägt dafür Verantwortung?

Praxisansatz:

Projektziele sollten früh um eine regulatorische Zielkomponente ergänzt werden, etwa:

„Das System ist nachvollziehbar, auditfähig und regulatorisch einordbar.“

Regulatorik wird damit kein Zusatz, sondern ein Qualitätsmerkmal des Projekterfolgs.

2.2 Rollen werden verbindlich, nicht nur benannt

Regulatorik stellt eine einfache, aber unbequeme Frage:

Wer ist verantwortlich – fachlich, technisch und organisatorisch?

In vielen Projekten sehe ich:

  • Product Owner ohne regulatorische Verantwortung
  • Projektleitungen ohne Entscheidungskompetenz
  • Governance-Stellen ohne echte Einbindung

Praxisansatz:

In KI-Projekten bewährt sich eine erweiterte Rollenklärung, die mindestens festlegt:

  • Systemverantwortung
  • Verantwortung für Datenherkunft und -qualität
  • Entscheidungsinstanz bei Zielkonflikten zwischen Innovation und Compliance

Diese Klärung gehört in den Projektauftrag – nicht in ein späteres Gremium.

2.3 Risiken werden steuerungsrelevant, nicht nur dokumentiert

Risiken im Sinne des EU AI Acts sind keine klassischen Projektrisiken. Es geht nicht primär um Termine oder Budgets, sondern um:

  • Entscheidungsfolgen
  • Verzerrungen
  • Fehlklassifikationen
  • Haftungs- und Reputationsrisiken

Praxisansatz:

Für KI-Projekte empfiehlt sich ein separates regulatorisches Risikoregister, eng angebunden an das Projekt, aber nicht darin versteckt.

Jedes Risiko braucht:

  • eine klare Einstufung
  • eine verantwortliche Rolle
  • eine konkrete Steuerungsmaßnahme

2.4 Entscheidungen müssen nachvollziehbar sein, nicht nur richtig

Regulatorik verlangt nicht Perfektion, sondern Nachvollziehbarkeit.

Nicht: War die Entscheidung optimal?

Sondern: Warum wurde sie so getroffen – und von wem?

Praxisansatz:

Projektleitungen sollten Entscheidungsprozesse bewusst strukturieren:

  • Welche Entscheidungen trifft das Projektteam?
  • Welche müssen eskaliert werden?
  • Welche werden dokumentiert – und wie?

Das ist einer der wirksamsten Hebel für regulatorische Sicherheit.

3. Warum Projektmanagement zur Schlüsselrolle wird

Aus diesen Veränderungen ergibt sich eine klare Konsequenz:

Projektmanagement wird im KI-Kontext zur vermittelnden Steuerungsinstanz

zwischen Technologie, Regulierung und Organisation.

Nicht als juristische oder technische Disziplin, sondern als Funktion, die:

  • Komplexität strukturiert
  • Verantwortung sichtbar macht
  • Entscheidungen ermöglicht
  • Organisationen handlungsfähig hält

4. Drei Denk- und Handlungsmodelle aus der Praxis

4.1 Steuerbarkeit vor Geschwindigkeit

Nicht das schnellste Projekt ist erfolgreich, sondern das steuerbarste.

4.2 Regulatorik als Rahmen, nicht als Gegner

Früh integrierte Regulatorik verbessert Projekte – sie bremst sie nicht.

4.3 Der Projektauftrag ist ein Governance-Dokument

Er definiert nicht nur Ziel und Zeit, sondern Verantwortung, Risikoakzeptanz und Übergang in den Betrieb.

5. Fazit

KI wird in immer mehr Projekten eine Rolle spielen.

Der EU AI Act und DORA machen sichtbar, was zuvor oft verdeckt war:

Viele Organisationen bewegen sich bereits am Rand ihrer Steuerungsfähigkeit.

Die entscheidende Frage lautet daher nicht:

Wie setzen wir KI ein?

Sondern:

Wie stellen wir sicher, dass wir sie steuern können?

Projektmanagement wird damit nicht weniger wichtig – sondern zentral.

Persönlicher Abschluss

Die besten KI-Projekte sind nicht die lautesten, sondern die ruhigsten.

Dort, wo klar ist, wer was verantwortet, warum entschieden wird und wie Risiken gesteuert werden.

Das ist keine Frage der Technologie.

Es ist eine Frage von Struktur, Haltung – und gutem Projektmanagement.

Einladung zum Austausch

Ich freue mich über den fachlichen Austausch zu diesen Themen – aus Projekt-, Programm- oder PMO-Perspektive.

Viele Fragen lassen sich besser gemeinsam klären als allein im Projektalltag.

Kommentare

* Diese Felder sind erforderlich

Keine Kommentare

Autoren

Christian Baumann ist Senior IT- und Projektmanagement-Experte mit über 15 Jahren Erfahrung in hochregulierten Umfeldern wie Banken, Versicherungen und KRITIS. Seine Leidenschaft gilt der Frage, wie komplexe Vorgaben wie der EU AI Act oder DORA wirksam, prüfungsfest und zugleich praxistauglich umgesetzt werden können. Er verbindet tiefes regulatorisches Verständnis mit spürbarer Freude daran, Ordnung, Klarheit und echte Steuerbarkeit in anspruchsvolle Projekte zu bringen.

hallo@ki-gov.de