Deployer-Pflichten im EU AI Act

Deployer-Pflichten im EU AI Act

Deployer-Pflichten

Deployer-Pflichten

Die meisten Unternehmen, die KI nutzen, entwickeln sie nicht selbst. Sie setzen fertige Systeme ein, integrieren sie in bestehende Prozesse und arbeiten damit. Im Sprachgebrauch des EU AI Act sind sie damit Deployer, auf Deutsch: Betreiber. Diese Rolle bringt eigene Pflichten mit sich, die sich deutlich von denen eines Anbieters unterscheiden.

Die drei Rollen im Überblick

Der EU AI Act unterscheidet drei zentrale Rollen entlang der KI-Wertschöpfungskette. Die Rolle bestimmt, welche Pflichten ein Unternehmen treffen.

Provider (Anbieter) entwickeln KI-Systeme oder lassen sie entwickeln und bringen sie unter eigenem Namen in Verkehr. Sie tragen die umfassendsten Pflichten: Konformitätsbewertung, technische Dokumentation, CE-Kennzeichnung, Qualitätsmanagementsystem. Für die meisten kleinen und mittleren Unternehmen ist das nicht die relevante Rolle.

Deployer (Betreiber) nutzen KI-Systeme in eigener Verantwortung für berufliche Zwecke. Wer ein KI-gestütztes HR-Tool einsetzt, einen Chatbot auf der Website betreibt oder Microsoft Copilot im Arbeitsalltag nutzt, ist Deployer. Die Pflichten sind weniger umfangreich als beim Provider, aber keineswegs trivial.

Distributor (Händler) machen KI-Systeme auf dem EU-Markt verfügbar, ohne sie selbst zu entwickeln oder einzusetzen. Für die meisten Anwenderunternehmen spielt diese Rolle keine Rolle.

Die Rollenbestimmung erfolgt pro KI-System. Ein Unternehmen kann für verschiedene Systeme unterschiedliche Rollen einnehmen. Ein vollständiges KI-Register dokumentiert nicht nur die vorhandenen Systeme, sondern auch die jeweilige Rolle.

Wann ein Deployer zum Provider wird

Ein wichtiger Sonderfall: Unter bestimmten Umständen wird ein Deployer zum Provider und übernimmt dessen umfangreiche Pflichten. Das passiert in drei Fällen. Erstens, wenn das KI-System unter eigenem Namen oder eigener Marke vertrieben wird. Zweitens, wenn eine wesentliche Veränderung am System vorgenommen wird. Drittens, wenn die Zweckbestimmung so geändert wird, dass ein bisher unkritisches System zum Hochrisiko-System wird.

Wesentliche Veränderungen sind dabei mehr als bloße Konfiguration. Fine-Tuning mit eigenen Daten, das Trainieren neuer Modelle oder grundlegende Anpassungen der Funktionsweise können den Rollenwechsel auslösen. Wer nur Einstellungen anpasst oder Prompts optimiert, bleibt Deployer.

Pflichten abhängig von der Risikoklasse

Die konkreten Deployer-Pflichten hängen davon ab, welcher Risikoklasse das eingesetzte KI-System zugeordnet ist. Für Hochrisiko-Systeme gelten die umfassendsten Anforderungen nach Artikel 26. Für Systeme mit begrenztem Risiko greifen Transparenzpflichten nach Artikel 50. Für Minimales Risiko gibt es keine spezifischen Deployer-Pflichten über die allgemeine KI-Kompetenz hinaus.

Hochrisiko: Die vollständige Pflichtenliste

Deployer von Hochrisiko-KI-Systemen müssen geeignete technische und organisatorische Maßnahmen treffen, um das System gemäß der Betriebsanleitung des Providers zu nutzen. Das klingt selbstverständlich, ist aber in der Praxis oft der größte Schwachpunkt. Die Anleitung muss nicht nur vorhanden sein, sondern auch befolgt und die Einhaltung dokumentiert werden.

Die menschliche Aufsicht ist eine weitere zentrale Pflicht. Deployer müssen natürlichen Personen, die über die erforderliche Kompetenz, Ausbildung und Befugnis verfügen, die Überwachung übertragen. Das System darf nicht vollständig autonom entscheiden, wenn Menschen betroffen sind. Wer diese Aufsicht ausübt, muss entsprechend qualifiziert sein.

Eingabedaten, soweit sie der Kontrolle des Deployers unterliegen, müssen der Zweckbestimmung entsprechen und repräsentativ sein. Wer ein Recruiting-Tool mit verzerrten oder unvollständigen Daten füttert, verletzt diese Pflicht.

Die Protokollierung verlangt, automatisch erzeugte Logs mindestens sechs Monate aufzubewahren. Diese Protokolle sind relevant für Audits, Vorfallanalysen und den Nachweis ordnungsgemäßer Nutzung.

Die Überwachungspflicht bedeutet, den Betrieb anhand der Betriebsanleitung zu beobachten und bei Risiken oder schwerwiegenden Vorfällen den Provider und die Marktüberwachungsbehörde zu informieren. Bei erkannten Risiken muss die Nutzung ausgesetzt werden.

Arbeitgeber, die Hochrisiko-Systeme am Arbeitsplatz einsetzen, haben zusätzliche Informationspflichten gegenüber Arbeitnehmervertretern und betroffenen Mitarbeitern. Das gilt vor der Inbetriebnahme, nicht erst danach.

Bestimmte Deployer müssen zudem eine Grundrechte-Folgenabschätzung durchführen. Das betrifft öffentliche Stellen, Unternehmen die öffentliche Dienste erbringen sowie Banken und Versicherungen bei Kreditwürdigkeitsprüfungen oder Risikobewertungen.

Limited Risk: Transparenz steht im Vordergrund

Bei KI-Systemen mit begrenztem Risiko sind die Pflichten überschaubarer. Artikel 50 verlangt primär Transparenz. Nutzer müssen wissen, dass sie mit einer KI interagieren. Das betrifft Chatbots, Deepfakes und KI-generierte Inhalte. Die Kennzeichnungspflicht liegt teilweise beim Provider, teilweise beim Deployer.

Der praktische Startpunkt

Bevor Pflichten erfüllt werden können, muss klar sein, welche KI-Systeme im Unternehmen existieren und welcher Risikoklasse sie angehören. Die Risikoklasse ergibt sich nicht aus dem System selbst, sondern aus dem konkreten Anwendungsfall. Dasselbe KI-Modell kann je nach Einsatzzweck minimal oder hochriskant sein.

Ein systematischer Erfassungsprozess schafft die notwendige Grundlage. Vom Asset zum Anwendungsfall, vom Anwendungsfall zur Risikoklasse, von der Risikoklasse zu den konkreten Pflichten. Das NADOVO Framework bildet diesen Weg strukturiert ab. Die DISCOVER-Phase erfasst die Assets, die DEFINE-Phase ordnet ihnen Anwendungsfälle und Risikoklassen zu.

Die Deployer-Pflichten sind kein Grund zur Panik, aber auch keine Formalität. Wer sie früh versteht und systematisch angeht, vermeidet Hektik vor dem August 2026 und schafft gleichzeitig die Basis für verantwortungsvollen KI-Einsatz.


Über den Autor

Jochen Stier ist AI Compliance Experte mit über 20 Jahren Erfahrung in Prozessmanagement und IT Service Management. Er unterstützt deutsche KMUs dabei, die Anforderungen des EU AI Act systematisch und pragmatisch umzusetzen. Sein 5-Phasen Framework NADOVO verbindet regulatorische Anforderungen mit praktischer Umsetzbarkeit, ohne Enterprise-Budgets oder komplexe Tools.

Weiterführende Informationen:

Weitere Blogartikel

© 2026 Jochen Stier / Contoro Solutions