EU AI Act klasificira AI sustave prema razinama rizika i uvodi obveze za sve organizacije u Hrvatskoj koje koriste ili razvijaju AI. Od klasifikacije sustava do dokumentacije sukladnosti, pomažemo vam ispuniti sve zahtjeve na vrijeme.

Procjena vaših AI sustava prema razinama rizika: zabranjeni, visokorizični, ograničeni i minimalni.
Tehnička dokumentacija, procjene sukladnosti i registracija visokorizičnih sustava u EU bazi.
Sustav upravljanja rizicima za visokorizične AI sustave prema zahtjevima EU AI Acta.
Mehanizmi za objašnjavanje AI odluka i ispunjavanje zahtjeva transparentnosti za korisnike.
Sustavi za praćenje performansi, otkrivanje pristranosti i redovito testiranje usklađenosti.
Programi edukacije zaposlenika o odgovornom korištenju AI sustava prema zahtjevima EU AI Acta.
EU AI Act uvodi stroge sankcije za neusklađenost — i za hrvatske tvrtke koje koriste ili razvijaju AI sustave:
Za zabranjene AI prakse kazne do 35 mil. € ili 7% globalnog prometa. Za neispunjavanje obveza za visokorizične sustave do 15 mil. € ili 3% prometa.
Nesukladni visokorizični AI sustavi ne smiju se staviti na EU tržište. Nadzorna tijela mogu narediti povlačenje sustava.
Netransparentne AI odluke narušavaju povjerenje. Organizacije koje ne ispune zahtjeve transparentnosti riskiraju reputaciju na hrvatskom i EU tržištu.
Revidirana Direktiva o odgovornosti za proizvode (PLD) i nacionalno odštetno pravo omogućuju pokretanje postupaka za naknadu štete uzrokovane nesukladnim AI sustavima pred hrvatskim sudovima.
EU AI Act klasificira AI sustave u četiri kategorije rizika s različitim obvezama. Primjenjuje se izravno u Hrvatskoj kao EU uredba.
Mapiramo sve AI sustave u vašoj organizaciji i klasificiramo ih prema razinama rizika. Za hrvatske tvrtke posebno provjeravamo AI u zapošljavanju, financijskim uslugama i javnom sektoru.
Za visokorizične sustave provodimo detaljnu procjenu — upravljanje rizicima, kvaliteta podataka, dokumentacija, ljudski nadzor i GDPR usklađenost.
Izrađujemo tehničku dokumentaciju, uspostavljamo sustave praćenja, implementiramo mehanizme transparentnosti i edukujemo zaposlenike o AI pismenosti.
Redovito testiranje performansi, praćenje pristranosti, ažuriranje dokumentacije i prilagodba promjenama u regulativi i smjernicama hrvatskog nadzornog tijela.

EU AI Act je prva sveobuhvatna regulativa za umjetnu inteligenciju na svijetu. Kao EU uredba, izravno se primjenjuje u Hrvatskoj bez potrebe za nacionalnom provedbom. Stupio je na snagu u kolovozu 2024., a primjena je postupna: zabranjene prakse i obveze AI pismenosti od veljače 2025., obveze za GPAI od kolovoza 2025., a puna primjena za visokorizične sustave od kolovoza 2026.
AI sustav je visokorizičan ako se koristi u: kritičnoj infrastrukturi (energetika, transport, vodoopskrba), medicinskim uređajima, obrazovanju i profesionalnom osposobljavanju, zapošljavanju i upravljanju radnicima, pristupu javnim uslugama, provedbi zakona ili pravosudnom sustavu. U Hrvatskoj to posebno pogađa tvrtke u zdravstvu, financijskom sektoru i javnoj upravi.
Kazne ovise o vrsti kršenja: do 35 mil. € ili 7% globalnog godišnjeg prometa za zabranjene AI prakse, do 15 mil. € ili 3% prometa za neispunjavanje obveza za visokorizične sustave, i do 7,5 mil. € ili 1% prometa za pružanje netočnih informacija nadzornim tijelima.
EU AI Act zahtijeva da organizacije osiguraju dovoljnu razinu AI pismenosti svog osoblja koje radi s AI sustavima. To uključuje razumijevanje mogućnosti, ograničenja i rizika AI sustava. Obveza AI pismenosti primjenjuje se od veljače 2025. i odnosi se na sve organizacije u Hrvatskoj.
Ako AI sustav obrađuje osobne podatke i može predstavljati visok rizik za prava pojedinaca (automatizirano odlučivanje, profiliranje, biometrija), DPIA je obavezna prema GDPR-u i AZOP-ovim smjernicama. EU AI Act zahtijeva zasebnu procjenu rizika za visokorizične sustave. Preporučujemo integrirani pristup koji pokriva oba propisa.
Transparentnost znači da korisnici moraju biti obaviješteni da komuniciraju s AI sustavom (chatbotovi), da je sadržaj generiran AI-jem (deepfake), te da visokorizični sustavi moraju imati jasnu dokumentaciju o funkcioniranju, ograničenjima i predviđenim korisnicima.
AI sustavi opće namjene (poput velikih jezičnih modela) imaju posebne obveze od kolovoza 2025.: tehnička dokumentacija, politika autorskih prava i sažetak podataka za treniranje. GPAI modeli sa sistemskim rizicima imaju dodatne obveze: evaluacija modela, testiranje na adversarijalne primjere i izvješćivanje o incidentima.
EU AI Act primjenjuje se na sve organizacije u Hrvatskoj koje razvijaju, koriste, uvoze ili distribuiraju AI sustave koji djeluju na EU tržištu. Ako koristite chatbotove, AI za zapošljavanje, automatizirano odlučivanje ili bilo koji AI sustav u poslovanju — uredba se primjenjuje na vas.
GDPR uređuje obradu osobnih podataka (uključujući putem AI sustava), dok EU AI Act regulira same AI sustave neovisno o tome obrađuju li osobne podatke. Oba propisa primjenjuju se istovremeno u Hrvatskoj — AI sustav koji obrađuje osobne podatke mora ispuniti zahtjeve i GDPR-a i AI Acta, a AZOP nadzire obje obveze.
Počinjemo odmah s inventarom i klasifikacijom AI sustava. Za organizacije s jasno definiranim AI sustavima, klasifikacija i inicijalna procjena traju nekoliko tjedana. Priprema dokumentacije za visokorizične sustave zahtijeva više vremena, ali kritične nedostatke adresiramo odmah.
Besplatan početni sastanak za klasifikaciju vaših AI sustava i procjenu obveza prema EU AI Actu. Rokovi se približavaju — odmah krećemo s radom.