5. Was regelt die KI-Verordnung? – Überblick zu den Risikoklassen
Die KI-Verordnung teilt KI-Systeme in verschiedene Risikokategorien ein. Die Pflichten hängen davon ab, wie stark die KI Menschen gefährden kann:
Risikoklasse |
Beschreibung |
Beispiele |
Pflichten |
Unannehmbares Risiko |
Verbotene KI-Anwendungen |
Social Scoring, Gesichtserkennung |
Verbot, keine Nutzung oder Vermarktung |
Hohes Risiko |
Streng regulierte Systeme |
Personalwahl, Kreditvergabe, Medizin |
Risikomanagement, Transparenz, Dokumentation |
Begrenztes Risiko |
Erhöhte Transparenzpflichten |
Chatbots, Deepfakes |
Nutzer müssen informiert werden |
Minimales Risiko |
Geringe Regulierung |
Übersetzungstools |
Kaum Vorgaben |
Diese Klassifizierung ist zentral für Unternehmen, weil sie über Pflichten und Haftungsrisiken entscheidet.
Was regelt die KI-Verordnung konkret?
Die KI-Verordnung enthält eine Vielzahl an technischen, organisatorischen und rechtlichen Vorgaben. Sie unterscheidet klar zwischen den verschiedenen Rollen und verpflichtet Unternehmen zu präzisen Maßnahmen.
Zentrale Inhalte:
• Artikel 4: KI-Kompetenz
• Artikel 50: Transparenzpflichten für Anbieter und Betreiber bestimmter KI-Systeme
• Regelungen zu Risikobewertung, Transparenz, Schulung, Überwachung, Kennzeichnung
️
Für Sie bedeutet das: Jedes KI-System muss geprüft und korrekt eingestuft werden. Die Maßnahmen richten sich danach, in welcher Risikokategorie sich Ihr System befindet.
6. Die wichtigsten Artikel der KI-Verordnung
Die KI-Verordnung der EU ist kein reines Technikgesetz – sie schafft klare rechtliche Vorgaben für den Einsatz von Künstlicher Intelligenz im Unternehmensalltag. Besonders relevant sind dabei Artikel 4 und Artikel 50, die für Unternehmen konkrete Pflichten definieren.
Artikel 4: Allgemeine Anforderungen an KI-Systeme
Artikel 4 der KI Verordnung ist Teil der Allgemeinen Bestimmungen und legt den Grundstein für das gesamte Regelwerk. Er stellt klar, dass alle KI-Systeme – unabhängig von ihrer Risikoklasse – bestimmte Grundpflichten erfüllen müssen.
Artikel 4 legt die grundsätzlichen Verpflichtungen für alle Akteure entlang der KI-Wertschöpfungskette fest – also für Anbieter, Importeure, Händler und Betreiber von KI-Systemen.
Was wichtig ist:
- Artikel 4 gilt immer – unabhängig davon, ob ein KI-System als Hochrisiko eingestuft wird oder nicht.
- Er verpflichtet zu einem sicheren, menschenzentrierten und grundrechtskonformen Umgang mit KI.
- Unternehmen müssen sicherstellen, dass KI-Systeme verlässlich, nachvollziehbar und kontrollierbar sind.
- Der Artikel ist eng verbunden mit anderen Regeln der Verordnung – etwa zu Datenqualität, menschlicher Aufsicht und Risikomanagement.
Kernaussagen aus Artikel 4:
- Anbieter und Betreiber von KI-Systemen müssen sicherstellen, dass Systeme so entwickelt und verwendet werden, dass sie sicher und grundrechtskonform sind.
- Bei Hochrisiko-KI-Systemen gelten besondere technische und organisatorische Anforderungen (z. B. Risikomanagement, Protokollierung, Datenqualität).
- Verantwortlichkeiten werden entlang der Wertschöpfungskette zugewiesen (z. B. Entwickler, Händler, Betreiber).
Was bedeutet das konkret?
Auch wenn ein KI-System nicht als Hochrisiko eingestuft wird, gilt: Es darf keine Risiken für Gesundheit, Sicherheit oder Grundrechte darstellen. Anbieter sollten diese Anforderungen dokumentieren – und ihre Nutzer informieren.
Artikel 4 ist das „Dach über allem“ – ohne seine Einhaltung ist keine seriöse Nutzung oder Vermarktung von KI-Systemen in der EU möglich. Wer hier nachlässig ist, riskiert womöglich nicht nur Sanktionen, sondern auch Reputationsverluste.
Schon bei der Entwicklung oder Auswahl eines KI-Systems kann ein Anwalt prüfen, ob die gesetzlichen Anforderungen eingehalten werden – und ob Ihre Dokumentation rechtssicher ist.
Hilfreich ist auch das aktuelle Hinweispapier KI-Kompetenzen nach Artikel 4 KI-Verordnung der Bundesnetzagentur.
Artikel 50: Transparenzpflichten für KI-Systeme
Artikel 50 der KI Verordnung ist für Unternehmen besonders praxisrelevant – vor allem, wenn sie KI in Kundenschnittstellen einsetzen, etwa bei Chatbots, Sprachassistenten oder automatisierten Bewerbungsprozessen.
Artikel 50 schreibt konkrete Informationspflichten gegenüber Nutzern vor – und zwar unabhängig von der technischen Komplexität der KI.
Warum das wichtig ist:
- Viele KI-Anwendungen im B2B- und B2C-Bereich (z. B. Chatbots, Textgeneratoren, Empfehlungssysteme) interagieren direkt mit Menschen – und fallen damit unter Art. 50.
- Es geht nicht nur um Ethik – sondern um rechtlich einklagbare Pflichtinformationen, die nachweislich erbracht werden müssen.
- Auch Inhalte wie synthetisch erzeugte Bilder, Stimmen oder Videos sowie redaktionelle Inhalte, die für die Allgemeinheit/Öffentlichkeit bestimmt sind, müssen gekennzeichnet werden – besonders relevant in Werbung, Medien und HR.
- Fehlende Transparenz kann schnell als Irreführung gewertet werden – mit Konsequenzen im Datenschutz-, Verbraucher- und Wettbewerbsrecht.
Inhalt von Artikel 50:
- Wenn ein KI-System mit Menschen interagiert, muss klar und verständlich darauf hingewiesen werden, dass es sich um eine KI handelt.
- Wenn KI Inhalte generiert (Text, Bild, Ton), muss deutlich erkennbar sein, dass diese künstlich erzeugt wurden – insbesondere bei synthetischen Medien („Deepfakes“).
- Bei Systemen zur Emotionserkennung oder biometrischen Kategorisierung: Es ist vorab eine klare Information an die betroffenen Personen nötig.
Relevanz für Unternehmen:
- Transparenz ist Pflicht, keine Option – schon bei einfachen KI-Anwendungen wie automatisierten Chats oder Bewerberrankings.
- Verstöße gegen Art. 50 können zu Bußgeldern führen.
- Schulungen für Mitarbeiter sind ratsam, um diese Pflicht umzusetzen.
Artikel 50 bringt sichtbare Regeln in die tägliche KI-Nutzung. Gerade Unternehmen, die KI kommerziell einsetzen oder anbieten, sollten diese Transparenzpflichten ernst nehmen – sie sind zentral für Vertrauen, Rechtssicherheit und Compliance.
Es kann sinnvoll sein, Ihre Nutzerinformationen oder Kennzeichnungen juristisch prüfen zu lassen – insbesondere bei automatisierter Kommunikation oder KI-generierten Inhalten.
7. Risikoklassifizierung und Risikoklassen der KI-Verordnung
Die Risikoklassifizierung ist das Herzstück des AI Acts. Je nach Risiko für Grundrechte und Sicherheit gelten unterschiedliche Anforderungen.
Die 4 Risikoklassen:
1. Verbotene KI (u. a.)
- Verdeckte Beeinflussung (z. B. psychologische Manipulation)
- Sozialbewertungssysteme durch Behörden (Social Scoring)
- Biometrische Überwachung im öffentlichen Raum (weitgehend verboten)
2. Hochrisiko-KI
- KI in sicherheitsrelevanten Bereichen wie Medizin (z. B. Diagnose-Unterstützung), Justiz (z. B. Urteilsvorschläge), Personalwesen (z. B. Bewerbervorauswahl)
- Pflicht zur Registrierung und Konformitätsprüfung
3. Begrenztes Risiko
- Transparenzpflicht bei Chatbots, Deepfakes, Generativen Modellen (z. B. GPT, DALL·E)
- Nutzer müssen über den Einsatz der KI informiert werden
4. Minimales Risiko
- Keine regulatorischen Vorgaben
- Beispiele: Spamfilter, Empfehlungsalgorithmen im E-Commerce
8. KI-Verordnung und Schulungspflicht
Für den sicheren Einsatz von KI verlangt die Verordnung, dass alle Beteiligten ausreichend geschult werden – besonders bei Hochrisiko-KI.
Wer muss geschult werden?
- Anbieter und Betreiber von KI-Systemen
- Mitarbeiter, die direkt mit der KI arbeiten (z. B. HR, IT, Medizin)
- Führungskräfte, die Entscheidungen treffen
- Datenschutz- und Compliance-Verantwortliche
Inhalte einer gesetzeskonformen Schulung:
- Verständnis der KI-Funktion und ihrer Grenzen
- Erkennen von Risiken
- Notfallmaßnahmen
- Umgang mit Fehlentscheidungen und menschlicher Kontrolle
- Transparenzpflichten
- Datenschutzgrundsätze (DSGVO)
- Meldepflichten bei Zwischenfällen
Die Schulung ist als Pflicht in der Verordnung verankert.
Ein Anwalt kann Sie dabei unterstützen, eine gesetzeskonforme Schulung zu entwickeln – und diese gegenüber Behörden nachweisbar zu dokumentieren.