KI Verordnung - Kennzeichnungspflicht & Schulungspflicht ab 2025
Verbotene KI-Praktiken & der richtige Umgang mit künstlicher Intelligenz
Künstliche Intelligenz revolutionierte das Online-Marketing und viele andere Branchen. Sie verändert die Art, wie wir Inhalte erstellen, Kampagnen planen und Unternehmen digital sichtbar machen. Sie hilfet, Prozesse zu beschleunigen / automatisieren, Arbeitsabläufe effizienter gestalten und kreative Ideen zu entwickeln. Doch mit den neuen Möglichkeiten kamen auch klare Regulierungen: Ab Februar 2025 traten mit der EU-KI-Verordnung (AI Act 2024/1689) neue Regeln in Kraft, die verbindliche Vorgaben für alle, die KI einsetzen, festlegen - von Marketingagenturen bis hin zu kleinen Betrieben.
Gleichzeitig wurde der Aufbau von KI-Kompetenz immer wichtiger – denn KI war kein Ersatz für menschliche Intelligenz, sondern ein Werkzeug, das sinnvoll und verantwortungsvoll genutzt werden musste.
Stand Oktober 2025
Inkrafttreten & Zeitplan
- 12. Juli 2024: Veröffentlichung im Amtsblatt der EU.
- 1. August 2024: Verordnung in Kraft.
- 2. Februar 2025: Verbotene KI-Praktiken (unvertretbares Risiko) treten in Kraft.
- 2. August 2025: Regeln für KI-Systeme mit allgemeinem Verwendungszweck (z. B. ChatGPT, Claude usw.) gelten.
- 2. August 2026: Hauptteil der Verordnung – u. a. Kennzeichnungspflichten, Transparenz und Risikomanagement – wird verbindlich.
- 2. August 2027: Letzte Übergangsfrist für bestehende Hochrisiko-Systeme endet.
Verbotene KI-Praktiken ab Februar 2025
Die EU setzt mit dem AI Act eine klare Regulierung von KI-Anwendungen um. Während viele KI-gestützte Tools weiterhin erlaubt sind, gibt es klare Verbote für Praktiken, die als hochriskant oder ethisch bedenklich gelten. Dazu gehören:
Manipulative oder irreführende KI – Systeme, die bewusst Emotionen oder Verhalten manipulieren, um Entscheidungen zu beeinflussen.
Soziales Scoring durch KI – Eine Einstufung von Personen basierend auf ihrem Verhalten oder persönlichen Merkmalen (ähnlich dem Social Credit System in China).
Eingriffe in die Entscheidungsfreiheit – KI, die Nutzer in eine bestimmte Richtung drängt oder Entscheidungswege bewusst einschränkt.
Massenüberwachung ohne Rechtsgrundlage – KI-Systeme, die Gesichts- oder Verhaltenserkennung im öffentlichen Raum ohne Zustimmung nutzen.
Diskriminierende Algorithmen – KI, die auf Vorurteilen basiert oder Menschen benachteiligt, z. B. in Bewerbungsprozessen oder Finanzentscheidungen.
Verbot von biometrischer Echtzeit-Überwachung im öffentlichen Raum (Ausnahme: schwerste Kriminalität).
Verbot von Predictive Policing, wenn keine ausreichende Rechtsgrundlage besteht. (Vorhersage von Straftaten)
Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen ist untersagt.
Unternehmen, die KI nutzen, müssen künftig nachweisen, dass ihre Anwendungen ethisch vertretbar, sicher und datenschutzkonform sind. Für viele wird es also darauf ankommen, KI-Tools gezielt und mit Bedacht einzusetzen.
Der risikobasierte Ansatz der EU
Die KI-Verordnung teilt Anwendungen in vier Stufen. Je höher das Risiko, desto strenger sind die Dokumentations-, Sicherheits- und Schulungspflichten.
Unvertretbares Risiko
Bedeutung: verboten
Beispiel: Social Scoring, manipulative Deep Fakes, unzulässige biometrische Überwachung
Hohes Risiko
Bedeutung: zulässig mit strengen Auflagen
Beispiel: Bewerbungs-/Bonitäts-KI, Gesundheits- oder Bildungs-KI
Begrenztes Risiko
Bedeutung: Transparenzpflicht
Beispiel: Chatbots, Empfehlungssysteme
Minimales Risiko
Bedeutung: kaum reguliert
Beispiel: KI-Filter, Spam-Erkennung
Kennzeichnungspflicht & Transparenz
Ab August 2026 müssen KI-erstellte oder KI-bearbeitete Inhalte (Texte, Bilder, Videos, Audio) klar als KI-generiert gekennzeichnet sein, wenn sie realistisch wirken oder zur Täuschung geeignet sind. Dies betrifft u. a. Deep Fakes, aber auch generative Text- und Bildinhalte in journalistischen, kommerziellen oder politischen Kontexten. Plattformen wie Meta, TikTok, YouTube haben bereits freiwillige Kennzeichnungssysteme implementiert – diese werden künftig gesetzlich verpflichtend.
Deep Fakes
Realistisch wirkende Bilder oder Videos, die mit KI so bearbeitet wurden, dass Personen etwas sagen oder tun, was sie in Wirklichkeit nicht gesagt / getan haben.
Schulungspflicht & Verantwortlichkeit
Wer KI einsetzt trägt Verantwortung. Unternehmen, die KI-Systeme entwickeln oder einsetzen, müssen sicherstellen, dass Mitarbeitende geschult sind, um Risiken und Grenzen von KI zu verstehen. Diese Pflicht ergibt sich aus Art. 9 ff. AI Act („Risikomanagement“ / „Human Oversight“).
Es muss sichergestellt sein, dass Mitarbeitenden
- die Funktionsweise und Grenzen von KI Verstehen
- wissen, wie man Fehlerquellen erkennt
- und Inhalte rechtlich, ethisch und qualitativ prüft.
Diese Schulungspflicht gilt nicht nur für Entwickler, sondern auch für alle, die KI im Alltag einsetzen – von Social-Media-Teams bis zu HR-Abteilungen. Schulung bedeutet nicht nur Bedienung, sondern auch ethische Nutzung, Datenschutz und Qualitätskontrolle.
Nutzer / Betreiber (z. B. Agenturen, Marketingfirmen, Hoteliers) müssen:
- KI-Einsatz dokumentieren,
- Kennzeichnung und Datenschutz sicherstellen,
- über KI-Einsatz informieren (z. B. Hinweis auf Website oder im Impressum).
Verstöße können mit Geldbußen bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes geahndet werden.
Was Unternehmen jetzt tun sollten
- KI-Nutzung intern prüfen: Welche Tools werden eingesetzt? Wie sicher sind sie?
- Schulungskonzept aufbauen: Mitarbeiter:innen regelmäßig fortbilden.
- Transparenz schaffen: KI-Einsatz offen kommunizieren – etwa in Datenschutz- und Impressumshinweisen.
- Risikokategorie bewerten: Einstufung jedes KI-Tools nach der EU-Verordnung.
- Compliance-Roadmap erstellen: Pflichten bis 2026 und 2027 planen.
Tipps für den richtigen Umgang mit KI-Tools
KI kann ein mächtiges Werkzeug sein – wenn man es richtig einsetzt. Hier einige Best Practices, um KI optimal zu nutzen:
Prompts gut formulieren
Je klarer die Anweisung, desto besser das Ergebnis. Detaillierte, kontextbezogene Prompts liefern bessere Inhalte.
Nicht alles glauben & Fakten checken
KI kann überzeugend klingen, aber auch Fehler produzieren. Deshalb immer gegenprüfen.
Eigene Sprache anpassen / Markenstil beibehalten
KI-Texte sind nur Rohmaterial (oft generisch). Individualität, Tonalität und Stil sollten immer nachbearbeitet werden - von Menschen kommen.
Hirn eingeschaltet lassen
KI ist ein Werkzeug, keine Denkmaschine. Der Mensch muss die Verantwortung übernehmen.
KI als Unterstützung, nicht als Ersatz nutzen
KI beschleunigt Prozesse, hilft bei Recherchen und kann Ideen liefern. Aber fachliche Kompetenz muss vorhanden sein.
Gefahr: Einheitsbrei vermeiden
Wenn alle dieselbe KI nutzen, verschwinden Individualität und Vielfalt. Deshalb: KI-Inhalte immer kreativ und einzigartig weiterverarbeiten.
Urheberrechte beachten
KI-Bilder oder Texte dürfen nicht automatisch als „frei nutzbar“ gelten.
Herausforderungen & Risiken bei KI-Nutzung
Einheitsbrei & fehlende Individualität – KI-generierte Inhalte können sich stark ähneln. SEO-Optimierung wird dadurch schwieriger.
Fachliche Richtigkeit & Faktencheck – KI kann Fehlinformationen produzieren. Unkontrolliertes Copy-Paste kann zu rechtlichen Problemen führen.
Tonalität & Markenidentität – KI kann keine Marke "fühlen". Texte müssen immer an den individuellen Stil angepasst werden.
Rechtliche Risiken & Urheberrechte – KI-Texte und Bilder können Urheberrechte verletzen. Immer prüfen, ob Inhalte eigenständig genutzt werden dürfen.
Datenquellen & Transparenz – Woher stammen die KI-Informationen? Sind sie aktuell und vertrauenswürdig?
Fazit: KI kann viel – aber nicht alles. Der Mensch bleibt entscheidend. Wer KI intelligent nutzt, profitiert von mehr Effizienz und besseren Ergebnissen, ohne die eigene Fachkompetenz zu vernachlässigen. Gehirn einschalten, Quellen prüfen und KI als Unterstützung nutzen – nicht als Ersatz für menschliches Wissen.
Mehr zu diesem Thema:
Unser Team hat sich intensiv mit diesem Thema auseinandergesetzt – von den verbotenen KI-Praktiken bis hin zur Frage, wie Unternehmen ihre KI-Kompetenz strategisch aufbauen können. >> Teamausflug