EU AI Act — was bedeutet er für deinen Job?
Welche Berufe entstehen, welche verändern sich, welche verschwinden. Pragmatisch erklärt — ohne Hype, ohne Panik.
Der EU AI Act ist seit dem 1. August 2024 in Kraft. Verbote gelten seit Februar 2025, GPAI-Pflichten seit August 2025, die vollständigen Hochrisiko-Anforderungen ab August 2026. Für die meisten Berufstätigen heißt das: 2026 ist das Jahr, in dem sich die Regulierung im echten Arbeitsalltag bemerkbar macht — manchmal stark, manchmal kaum spürbar, je nach Rolle.
Wer ist betroffen?
Vereinfacht: jedes Unternehmen, das KI-Systeme entwickelt, importiert, vertreibt oder produktiv einsetzt — also nahezu alle. Die konkreten Pflichten unterscheiden sich aber massiv nach Risiko-Klassifikation:
- Verbotene Anwendungen (Social Scoring, biometrische Massenüberwachung): unzulässig — komplett.
- Hochrisiko-Anwendungen (HR-Screening, Bonitätsprüfung, kritische Infrastruktur, Medizin): umfassende Dokumentations-, Audit- und Mensch-im-Loop-Pflichten.
- Begrenztes Risiko (Chatbots, Deepfakes): Transparenzpflichten — Nutzer:innen müssen wissen, dass sie mit KI interagieren.
- Minimales Risiko (Empfehlungs-Algorithmen, Spam-Filter): keine spezifischen Pflichten.
Welche neuen Berufe entstehen?
Die offensichtlichsten: AI Compliance Officer, AI Auditor, AI Risk Manager und AI Governance Lead. In DACH-Konzernen sind diese Rollen seit Ende 2025 in spürbarer Zahl ausgeschrieben, mit Median-Gehältern zwischen 92.000 und 115.000 EUR brutto pro Jahr. Quereinstieg häufig aus Datenschutz/DSGVO, Audit (Big-4), IT-Recht oder Information Security.
Weniger sichtbar, aber genauso real: bestehende Rollen verändern sich. AI Product Manager müssen Risiko-Klassifikation in jedes Discovery-Dokument einbauen. Procurement-Verantwortliche brauchen Vendor-Bewertungs-Frameworks. Marketing- und PR-Teams brauchen Transparenz-Standards für KI-Inhalte. Recruiter müssen wissen, wann ihr Hiring-Tool unter die Hochrisiko-Kategorie fällt.
Welche Berufe verschwinden?
Kurze ehrliche Antwort: in den nächsten 12–24 Monaten kaum welche durch den AI Act. Der Wandel kommt eher durch die KI-Tools selbst — Junior-Texter:innen, einfache Übersetzer:innen, einfache Entwickler-Tasks werden zunehmend automatisiert. Der AI Act schafft eher neue Pflichten und Rollen, als dass er bestehende abschafft.
Was du jetzt tun solltest
- Lies den AI Act im Original. Nicht die Zusammenfassungen — der Text selbst ist lesbarer als sein Ruf, und die Details entscheiden über die Klassifikation deines Use-Cases.
- Mappe die KI-Systeme deines Unternehmens auf die Risiko-Kategorien. Das ist die erste Hausaufgabe jedes Compliance-Teams 2026.
- Wenn dein Beruf an Daten, Personalauswahl, Bonitätsprüfung oder Kund:innen-Interaktion grenzt — bilde dich gezielt fort. Hier sind 2026 die größten Chancen und Risiken gleichzeitig.
- Beobachte die Bußgeld-Praxis. Bis zu 7 % des weltweiten Jahresumsatzes oder 35 Mio. EUR sind ein scharfes Schwert — die ersten Präzedenzfälle in DACH werden den Markt prägen.
Häufige Fragen
- Brauche ich Jura-Studium für eine AI-Compliance-Rolle?
- Hilfreich, aber nicht zwingend. Erfahrung in Datenschutz, Audit oder Information Security plus Hands-on-AI-Wissen sind oft wertvoller als ein zweites Staatsexamen ohne Tech-Bezug.
- Gilt der EU AI Act auch für US-Cloud-Anbieter?
- Ja, sobald ihre Modelle/Systeme in der EU eingesetzt werden — das Marktortprinzip gilt analog zur DSGVO. OpenAI, Anthropic, Google und Co. sind alle betroffen.
- Wann muss mein KMU damit konform sein?
- Wenn ihr ausschließlich minimales oder begrenztes Risiko habt: vor allem ab August 2026 die Transparenzpflichten beachten. Bei Hochrisiko-Einsatz: spätestens August 2026 vollständig konform.
snipKI ist die Trainings-Schwester von ki-jobs.net — hands-on, deutschsprachig, mit konkreten Use-Cases für Marketing, HR, Vertrieb, Beratung und Führung.
snipki.de besuchen →