Tekoälyasetus luokittelee tekoälyjärjestelmät neljään riskitasoon. Rekrytointi, luotonanto, terveydenhuolto: selvitä, pidetäänkö työkalujasi korkean riskin järjestelminä.
Euroopan unionin tekoälyasetus (asetus 2024/1689) perustuu perusperiaatteeseen: velvoitteet ovat suhteessa riskitasoon. Mitä enemmän tekoälyjärjestelmä voi vaikuttaa ihmisten elämään, terveyteen, perusoikeuksiin tai turvallisuuteen, sitä tiukemmat vaatimukset ovat.
Tämä asteittainen lähestymistapa erottaa tekoälyasetuksen binäärisemmistä sääntelyistä. Se mahdollistaa innovaation jarruttamisen välttämisen vähäisen riskin käyttötapauksissa, samalla kun arkaluonteisimpia sovelluksia säännellään tiukasti.
Johdantokappale 26 — Règlement (UE) 2024/1689
Tekoälyjärjestelmät, jotka aiheuttavat korkean riskin luonnollisten henkilöiden terveydelle, turvallisuudelle tai perusoikeuksille, olisi asetettava tiukkojen vaatimusten alaisiksi, ennen kuin ne voidaan saattaa unionin markkinoille.
Tietyt tekoälyn käyttötavat ovat yksinkertaisesti kiellettyjä (artikla 5). Sosiaalinen pisteytys, subliminaalinen manipulointi, henkilöiden haavoittuvuuksien hyväksikäyttö ja reaaliaikainen biometrinen tunnistaminen julkisissa tiloissa (poikkeuksin) ovat olleet kiellettyjä 1. helmikuuta 2025 lähtien.
Tämä on luokka, joka koskee suurinta joukkoa yrityksiä. Korkean riskin tekoälyjärjestelmät määritellään artikloissa 6 ja 7 ja luetellaan yksityiskohtaisesti asetuksen liitteessä III. Liittyvät velvoitteet ovat huomattavia: vaatimustenmukaisuuden arviointi, tekninen dokumentaatio, ihmisen suorittama valvonta, riskienhallinta, tiedonhallinta.
Järjestelmät kuten keskustelurobotit, sisällöngeneraattorit (deepfaket, tekstit) tai tunnetilantunnistusjärjestelmät, joita kielto ei kata, ovat läpinäkyvyysvelvoitteiden alaisia. Käyttäjän on tiedettävä, että hän vuorovaikuttaa tekoälyn kanssa tai että sisältö on tekoälyn tuottamaa.
Valtaosa tekoälyjärjestelmistä: roskapostisuodattimet, tuotesuositukset, oikeinkirjoituksen tarkistajat. Tekoälyasetus ei aseta erityisiä rajoituksia, vaikka artiklan 4 mukainen tekoälyosaamisen velvoite koskee edelleen kaikkia käyttöönottajia.
Asetuksen liite III luettelee alat, joilla tekoälyjärjestelmää pidetään korkean riskin järjestelmänä. Tässä ovat konkreettiset tapaukset, jotka koskevat useimpia yrityksiä.
Tämä on alue, joka yllättää eniten yrityksiä. Liitteen III kohta 4 koskee tekoälyjärjestelmiä, joita käytetään:
Liite III, kohta 4 — Règlement (UE) 2024/1689
Työllistäminen, työvoiman hallinta ja itsenäiseen ammatinharjoittamiseen pääsy, erityisesti henkilöiden rekrytointiin ja valintaan, työsuhteiden ehtojen päättämiseen, ylennyksiin ja irtisanomisiin sekä tehtävien jakamiseen, henkilöiden suorituskyvyn ja käyttäytymisen seurantaan tai arviointiin.
Käytännössä seuraavia pidetään korkean riskin järjestelminä:
Jos HR-osastonne käyttää automaattista ansioluetteloiden lajittelutyökalua tai rekrytointikeskustelurobottia, kyseessä on todennäköisesti korkean riskin järjestelmä tekoälyasetuksen määrittämässä merkityksessä.
📄Tekoäly henkilöstöhallinnolle: kattava opas HR-työn muutokseen→Liitteen III kohta 5(b) kattaa tekoälyjärjestelmät, joita käytetään:
Jokainen pankki tai vakuutusyhtiö, joka käyttää tekoälymallia luoton myöntämiseen tai epäämiseen tai vakuutusmaksun määrittämiseen, on velvoitettu. Suomessa tämä koskee suoraan toimijoita kuten OP-ryhmää ja Nordeaa, jotka molemmat käyttävät tekoälymalleja luottoprosesseissaan. Petosten havaitseminen on nimenomaisesti poistettu korkeasta riskistä — mutta huomioithan, että pisteytysjärjestelmät, jotka ylittävät pelkän havaitsemisen, voivat kuulua luokkaan.
Liitteen III kohta 1 kattaa tekoälyjärjestelmät, jotka ovat lääkinnällisiä laitteita tai niiden lisälaitteita eurooppalaisten lääkinnällisiä laitteita koskevien asetusten mukaisesti. Tämä sisältää:
Liitteen III kohta 3 koskee tekoälyjärjestelmiä, joita käytetään:
Liitteen III kohdat 6, 7 ja 8 kattavat:
Suomessa viranomaiset kuten Kela (sosiaalivakuutus) ja Verohallinto käyttävät yhä enemmän tekoälyjärjestelmiä asiankäsittelyssä, riskinarvioinnissa ja automatisoidussa päätöksenteossa. Nämä järjestelmät voivat kuulua useisiin liitteen III luokkiin sovelluksesta riippuen — erityisesti jos ne vaikuttavat henkilöiden pääsyyn sosiaalietuuksiin tai verotuspäätöksiin.
Liitteen III kohta 2 kattaa kriittisen digitaalisen infrastruktuurin, tieliikenteen sekä vesi-, kaasu-, lämmitys- ja sähköhuollon hallinnan ja toiminnan turvallisuuskomponentit.
Liitteen III kohta 7 sisältää järjestelmät, joita käytetään laittoman maahanmuuton riskin arviointiin, viisumi- ja oleskelulupahakemusten käsittelyyn sekä henkilöiden tunnistamiseen maahanmuuton yhteydessä.
Jos yksi tai useampi tekoälyjärjestelmänne on luokiteltu korkean riskin järjestelmäksi, asetus edellyttää seuraavaa:
Ennen markkinoille saattamista tai käyttöönottoa järjestelmän on läpäistävä vaatimustenmukaisuuden arviointi, joka kattaa:
Yrityksillä, jotka käyttävät korkean riskin tekoälyjärjestelmiä (käyttöönottajat), on omia velvoitteitaan:
Vaatimustenmukaisuuden ensimmäinen askel on tietää tarkasti, mitkä tekoälyjärjestelmät ovat käytössä ja mihin luokkaan ne kuuluvat.
Luettele kaikki organisaatiossanne olevat tekoälyä sisältävät työkalut. Älä unohda:
Jokaisesta tunnistetusta työkalusta määritä:
Jokaisesta korkean riskin järjestelmästä vertaa nykytilannettanne artiklojen 9–15 ja artiklan 26 vaatimuksiin. Tunnista puutteet ja priorisoi korjaavat toimenpiteet.
Kokoa vaatimustenmukaisuuskansio jokaiselle järjestelmälle, mukaan lukien luokittelu, tekninen dokumentaatio, tehdyt arvioinnit ja toteutetut valvontatoimenpiteet. Tämä rakenteinen dokumentaatio on viitteenne mahdollisessa auditoinnissa.
Jokaisen korkean riskin järjestelmän osalta ihmisvalvonnasta vastaavilla henkilöillä on oltava tarvittava osaaminen (artikla 14). Tämä liittyy artiklan 4 tekoälyosaamisen velvoitteeseen, mutta korkeammalla vaatimustasolla: näiden henkilöiden on ymmärrettävä valvomansa järjestelmän erityisominaisuudet ja rajoitukset.
Yleiskäyttöiset tekoälymallit (kuten GPT-4, Claude, Gemini) ovat erityissäännösten alaisia (artiklat 51–56). Kun yleiskäyttöinen tekoälymalli integroidaan korkean riskin tekoälyjärjestelmään, korkean riskin velvoitteet koskevat koko järjestelmää — vaikka taustalla oleva malli olisikin yleistyökalu.
Tämä tarkoittaa, että ChatGPT:n käyttäminen ehdokkaiden vastaamiseen rekrytointiprosessissa voi muuttaa “yleistyökalun” korkean riskin järjestelmän osaksi.
Ce que ça implique pour vous
Tekoälyjärjestelmiänne luokittelu ei ole teoreettinen harjoitus — se on vaatimustenmukaisuutenne kulmakivi. Jos käytätte tekoälyä rekrytoinnissa, suorituskyvyn arvioinnissa, luottoluokituksessa tai diagnostiikkatuessa, käytätte todennäköisesti korkean riskin järjestelmiä. Jokainen niihin kuuluva järjestelmä edellyttää vaatimustenmukaisuuden arviointia, teknistä dokumentaatiota, tehokasta ihmisen suorittamaa valvontaa ja koulutettuja henkilöitä sen toteuttamiseksi. Aloittakaa inventaariosta. Tänään.