Social Scoring, manipulative KI, Echtzeit-Biometrie.
Verbote nach Art. 5. Anwendbar seit Februar 2025. Maximale Bußgelder 35 Mio. € oder 7% des weltweiten Umsatzes.
Wir klassifizieren Ihre KI-Systeme nach Anhang III, bereiten die Konformitätsbewertung und technische Dokumentation vor, setzen Risikomanagement nach Art. 9 und menschliche Aufsicht nach Art. 14 um und bauen ein KI-Managementsystem nach ISO 42001 auf. GPAI- und Verbotsprüfungen enthalten.
Antwort innerhalb eines Werktages. Klare nächste Schritte und indikative Vergütung.
Verbote nach Art. 5. Anwendbar seit Februar 2025. Maximale Bußgelder 35 Mio. € oder 7% des weltweiten Umsatzes.
Pflichten nach Art. 8-15: Risikomanagement, Datengovernance, technische Dokumentation, menschliche Aufsicht, Genauigkeit.
Foundation- und Frontier-Modelle. Transparenz, Model Cards, Urheberrecht, systemische Risikopflichten seit August 2025.
System-Inventar und Klassifizierung, Konformitätsbewertung, technische Dokumentation, Risikomanagement nach Art. 9, menschliche Aufsicht nach Art. 14, Integration mit DSGVO Art. 35 DSFA.
Unabhängige Prüfung der AI-Act-Pflichten, die für Ihre Rolle relevant sind (Anbieter, Betreiber, GPAI). Reifegrad, priorisiertes Lückenregister, Bericht für die Geschäftsleitung.
Aufbau des KI-Managementsystems nach ISO 42001. Geeignet für Organisationen, die externe Zertifizierung oder kundenseitige Absicherung suchen.
Hochrisiko-KI-Systeme verarbeiten meist personenbezogene Daten. Pflichten aus Art. 35 (DSFA) und die KI-Konformitätsbewertung überlappen sich. Unsere Vorlage deckt beides ab, und die technische Dokumentation verweist auf beide Pflichtsätze.
Fine-Tuning eines Foundation-Modells kann Sie vom Betreiber zum Anbieter machen. Aufsichtsbehörden haben klargestellt, dass wesentliche Änderungen den Pflichtensatz verschieben.
FRIA nach Art. 27 ist für öffentliche Stellen und bestimmte private Betreiber hochriskanter Systeme erforderlich. Die Vorlage unterscheidet sich von der DSGVO-DSFA, beide werden aber typischerweise integriert.
Die meisten Organisationen können ihre Systeme schnell klassifizieren. Der langsame Schritt ist die Erstellung der technischen Dokumentation nach Art. 11, die einer Notified-Body-Prüfung standhält.
Verbote und KI-Kompetenzpflichten gelten seit Februar 2025. GPAI-Pflichten seit August 2025. Pflichten für hochriskante Systeme ab August 2026 (mit einigen sektorspezifischen Verlängerungen). Betreiber hochriskanter Systeme haben ein 24-monatiges Fenster ab Markteinführung für die operativen Pflichten.
Sie sind Anbieter, wenn Sie ein KI-System entwickeln oder entwickeln lassen und es unter Ihrem Namen auf den Markt bringen. Sie sind Betreiber, wenn Sie ein KI-System unter Ihrer Aufsicht einsetzen. Wesentliche Änderungen an einem System eines Dritten können Sie zum Anbieter machen. Wir bestätigen das im Klassifizierungsschritt.
Hochriskante KI-Systeme verarbeiten in der Regel personenbezogene Daten, sodass DSFA-Pflichten nach Art. 35 DSGVO parallel gelten. Unsere Praxis erstellt eine kombinierte DSFA, die beide Regulierungen abdeckt. Die technische Dokumentation nach Art. 11 referenziert die DSGVO-Nachweisarchitektur.
Sie sind Betreiber für dieses Modell. Ihre Pflichten umfassen menschliche Aufsicht, Monitoring, Transparenzhinweise und Vorfallmeldung. Wenn Sie das Modell wesentlich nachtrainieren, können Sie für die nachtrainierte Version zum Anbieter werden, was die vollen Anbieterpflichten auslöst.
Nein, der AI Act schreibt ISO 42001 nicht vor. Der Standard ist ein nützlicher strukturierter Rahmen für das KI-Management und wird zunehmend von Kunden und Ausschreibungen verlangt. Organisationen, die externe Zertifizierung oder kundenseitige Absicherung suchen, verfolgen oft beides: AI-Act-Konformität und ISO 42001.
Wir antworten in Ihrem Namen, bereiten die Nachweise vor, briefen die Geschäftsleitung und nehmen am Termin teil. Die nach Art. 11 vorbereitete technische Dokumentation ist der primäre Nachweis. Pre-Aufsichts-Reviews sind Teil des AI-Act-Programm-Retainers.
Phasen-Umsetzungsplan abgestimmt auf den AI-Act-Anwendungsplan. Anhang-III-Mapping und FRIA-Vorlage enthalten.
Visueller Entscheidungsbaum für die Rollen Anbieter, Betreiber, Einführer und Händler. Deckt Fine-Tuning und wesentliche Änderungen ab.
Einheitliche Vorlage für DSFA nach Art. 35 DSGVO und Grundrechte-Folgenabschätzung nach Art. 27 AI Act.
DSFA nach Art. 35 erweitert sich auf kombinierte DSGVO- und AI-Act-Bewertungen. Gleicher DSB, gleiche Nachweisarchitektur.
Praxis öffnen →Cybersicherheitspflichten für hochriskante KI nach Art. 15 überlappen mit Kontrollen aus ISO 27001 Anhang A.
Praxis öffnen →Meldung schwerwiegender Vorfälle für hochriskante Systeme (Art. 73). Gleiche Krisenteam-Koordination.
Praxis öffnen →Kostenloses Erstgespräch. Klare nächste Schritte. Indikative Vergütung innerhalb eines Werktages.