ki-jobs.net
Blog · 10. April 2026

EU AI Act — was bedeutet er für deinen Job?

Welche Berufe entstehen, welche verändern sich, welche verschwinden. Pragmatisch erklärt — ohne Hype, ohne Panik.

Verfasst von Jens PolomskiGründer snipKIAktualisiert 10. April 2026

Der EU AI Act ist seit dem 1. August 2024 in Kraft. Verbote gelten seit Februar 2025, GPAI-Pflichten seit August 2025, die vollständigen Hochrisiko-Anforderungen ab August 2026. Für die meisten Berufstätigen heißt das: 2026 ist das Jahr, in dem sich die Regulierung im echten Arbeitsalltag bemerkbar macht — manchmal stark, manchmal kaum spürbar, je nach Rolle.

Wer ist betroffen?

Vereinfacht: jedes Unternehmen, das KI-Systeme entwickelt, importiert, vertreibt oder produktiv einsetzt — also nahezu alle. Die konkreten Pflichten unterscheiden sich aber massiv nach Risiko-Klassifikation:

  • Verbotene Anwendungen (Social Scoring, biometrische Massenüberwachung): unzulässig — komplett.
  • Hochrisiko-Anwendungen (HR-Screening, Bonitätsprüfung, kritische Infrastruktur, Medizin): umfassende Dokumentations-, Audit- und Mensch-im-Loop-Pflichten.
  • Begrenztes Risiko (Chatbots, Deepfakes): Transparenzpflichten — Nutzer:innen müssen wissen, dass sie mit KI interagieren.
  • Minimales Risiko (Empfehlungs-Algorithmen, Spam-Filter): keine spezifischen Pflichten.

Welche neuen Berufe entstehen?

Die offensichtlichsten: AI Compliance Officer, AI Auditor, AI Risk Manager und AI Governance Lead. In DACH-Konzernen sind diese Rollen seit Ende 2025 in spürbarer Zahl ausgeschrieben, mit Median-Gehältern zwischen 92.000 und 115.000 EUR brutto pro Jahr. Quereinstieg häufig aus Datenschutz/DSGVO, Audit (Big-4), IT-Recht oder Information Security.

Weniger sichtbar, aber genauso real: bestehende Rollen verändern sich. AI Product Manager müssen Risiko-Klassifikation in jedes Discovery-Dokument einbauen. Procurement-Verantwortliche brauchen Vendor-Bewertungs-Frameworks. Marketing- und PR-Teams brauchen Transparenz-Standards für KI-Inhalte. Recruiter müssen wissen, wann ihr Hiring-Tool unter die Hochrisiko-Kategorie fällt.

Welche Berufe verschwinden?

Kurze ehrliche Antwort: in den nächsten 12–24 Monaten kaum welche durch den AI Act. Der Wandel kommt eher durch die KI-Tools selbst — Junior-Texter:innen, einfache Übersetzer:innen, einfache Entwickler-Tasks werden zunehmend automatisiert. Der AI Act schafft eher neue Pflichten und Rollen, als dass er bestehende abschafft.

Was du jetzt tun solltest

  1. Lies den AI Act im Original. Nicht die Zusammenfassungen — der Text selbst ist lesbarer als sein Ruf, und die Details entscheiden über die Klassifikation deines Use-Cases.
  2. Mappe die KI-Systeme deines Unternehmens auf die Risiko-Kategorien. Das ist die erste Hausaufgabe jedes Compliance-Teams 2026.
  3. Wenn dein Beruf an Daten, Personalauswahl, Bonitätsprüfung oder Kund:innen-Interaktion grenzt — bilde dich gezielt fort. Hier sind 2026 die größten Chancen und Risiken gleichzeitig.
  4. Beobachte die Bußgeld-Praxis. Bis zu 7 % des weltweiten Jahresumsatzes oder 35 Mio. EUR sind ein scharfes Schwert — die ersten Präzedenzfälle in DACH werden den Markt prägen.

Häufige Fragen

Brauche ich Jura-Studium für eine AI-Compliance-Rolle?
Hilfreich, aber nicht zwingend. Erfahrung in Datenschutz, Audit oder Information Security plus Hands-on-AI-Wissen sind oft wertvoller als ein zweites Staatsexamen ohne Tech-Bezug.
Gilt der EU AI Act auch für US-Cloud-Anbieter?
Ja, sobald ihre Modelle/Systeme in der EU eingesetzt werden — das Marktortprinzip gilt analog zur DSGVO. OpenAI, Anthropic, Google und Co. sind alle betroffen.
Wann muss mein KMU damit konform sein?
Wenn ihr ausschließlich minimales oder begrenztes Risiko habt: vor allem ab August 2026 die Transparenzpflichten beachten. Bei Hochrisiko-Einsatz: spätestens August 2026 vollständig konform.
Praxis-Vertiefung — bei snipKI

snipKI ist die Trainings-Schwester von ki-jobs.net — hands-on, deutschsprachig, mit konkreten Use-Cases für Marketing, HR, Vertrieb, Beratung und Führung.

snipki.de besuchen →
Stand: 29. April 2026 · Autor: Jens Polomski.