HR viesti 2/2025 | Page 36

Tilanne kuitenkin muuttui helmikuussa 2025, kun useat tärkeät säännökset astuivat voimaan:
• Kiellettyjen tekoälyjärjestelmien sääntely
• Velvoite työntekijöiden tekoälylukutaidosta
• Tekoälyjärjestelmien riskiluokittelu
Vaikka AI Act voi ensi silmäyksellä tuntua rajoittavalta, sen taustalla on vahva pyrkimys lisätä läpinäkyvyyttä ja turvata ihmisten oikeuksia tekoälyn hyödyntämisessä. Kyse ei siis ole pelkästään riskienhallinnasta, vaan myös siitä, miten olla vastuullinen ja eettinen toimija – niin työnantajana kuin työntekijänä.
Olisi tärkeää nähdä tekoälyasetus myös mahdollisuuksien valossa: miten se voi edistää turvallista ja eettistä työelämää sekä varmistaa, että tekoälyä käytetään oikeudenmukaisesti ja vastuullisesti.
AI Actin neljä riskiluokkaa – HR suuririskisten joukossa EU: n tekoälyasetus jaottelee tekoälyjärjestelmät neljään eri riskiluokkaan käyttäjille aiheutuvan riskin perusteella:
1. Kielletty riski( Unacceptable Risk) – Täysin kielletyt järjestelmät( esim. tunteiden tunnistus työpaikoilla).
2. Korkea riski( High Risk) – Tiukat vaatimukset, kuten HR-järjestelmät.
3. Rajoitettu riski( Limited Risk) – Vähäisempiä vaatimuksia, kuten chatbotit.
4. Vähäinen riski( Minimal Risk) – Ei erityisiä vaatimuksia( esim. roskapostisuodattimet).
Tekoälypohjaiset HR-järjestelmät kuuluvat korkean riskin luokkaan, koska ne voivat vaikuttaa suoraan työntekijöiden
36 HR viesti 2 / 2025