Kielletyt tekoälykäytännöt: mitä yrityksesi ei enää saa tehdä

Tekoälyasetus kieltää tietyt tekoälyn käyttötavat helmikuusta 2025 alkaen. Sosiaalinen pisteytys, manipulointi, tunteiden tunnistaminen: kattava katsaus.

Tekoälyn punaiset viivat

Ennen kuin edes käsittelemme korkean riskin järjestelmiä, läpinäkyvyysvelvoitteita tai tekoälyosaamista, Euroopan unionin tekoälyasetus (asetus 2024/1689) vetää ehdottomat punaiset viivat. Artikla 5 luettelee tekoälykäytännöt, jotka ovat yksinkertaisesti kiellettyjä Euroopan unionissa.

Nämä kiellot ovat olleet voimassa 1. helmikuuta 2025 lähtien. Ne eivät ole tulevia määräaikoja: ne ovat voimassa nyt.

Artikla 5, kohta 1Règlement (UE) 2024/1689

Seuraavat tekoälykäytännöt ovat kiellettyjä: […] tekoälyjärjestelmän markkinoille saattaminen, käyttöönotto tai käyttö, jossa käytetään subliminaalisia tekniikoita […] tai tarkoituksellisesti manipuloivia tai harhaanjohtavia tekniikoita, joiden tarkoituksena tai vaikutuksena on henkilön käyttäytymisen olennainen muuttaminen […] tavalla, joka aiheuttaa tai voi kohtuudella odottaa aiheuttavan merkittävää haittaa tälle henkilölle tai toiselle henkilölle.

Kuusi kiellettyä käytäntöluokkaa

1. Sosiaalinen pisteytys

Tekoälyasetus kieltää järjestelmät, jotka arvioivat tai luokittelevat luonnollisia henkilöitä heidän sosiaalisen käyttäytymisensä tai henkilökohtaisten ominaisuuksiensa perusteella, kun pisteytys johtaa epäedulliseen kohteluun asiayhteyksissä, jotka eivät liity tietojen keruuseen, tai joka on suhteetonta käyttäytymiseen nähden.

Huomaa: toisin kuin usein luullaan, tämä kielto ei koske ainoastaan hallituksia. Se koskee myös yksityisiä toimijoita. Yritys, joka muodostaisi asiakkailleen “luotettavuuspisteen” yhdistämällä maksuhistoriaa, verkkokäyttäytymistä ja asiakaspalveluvuorovaikutuksia — ja käyttäisi tätä pistettä palvelujen epäämiseen — rikkoisi asetusta.

Konkreettisia esimerkkejä nyt laittomista käytännöistä:

  • Vakuutusyhtiö, joka kerää sosiaalisen median tietoja arvioidakseen asiakkaan “käyttäytymisperusteista riskiprofiilia”
  • Vuokranantaja, joka käyttää pistettä, joka yhdistää maksuhistoriaa, verkkotoimintaa ja sijaintitietoja vuokralaisten suodattamiseen
  • Työnantaja, joka rakentaa automaattisen “sitoutumispisteen”, joka määrittelee pääsyn etuihin
  • Suomalainen pankki kuten OP tai Nordea, joka yhdistäisi tapahtumatietoja käyttäytymisanalyysiin luodakseen yleisen “asiakaspisteen” luottoprosessin ulkopuolella

2. Subliminaalinen manipulointi ja harhaanjohtavat tekniikat

Kaikki tekoälyjärjestelmät, jotka on suunniteltu muuttamaan henkilön käyttäytymistä tämän tietämättä, ovat kiellettyjä. Tämä kattaa subliminaaliset tekniikat (tiedostamattomaan vaikuttavat ärsykkeet) ja tarkoituksellisesti manipuloivat tai harhaanjohtavat tekniikat.

Esimerkkejä:

  • Järjestelmä, joka mukauttaa verkkokaupan käyttöliittymää hyväksikäyttääkseen tekoälyn tunnistamia kognitiivisia vääristymiä (tekoälypohjaiset dark pattern -käytännöt)
  • Automaattinen neuvottelutyökalu, joka analysoi mikro-ilmeitä reaaliajassa keskustelukumppanin manipuloimiseksi
  • Dynaaminen hinnoittelujärjestelmä, joka hyväksikäyttää käyttäjän havaittua tunnetilaa

3. Haavoittuvuuksien hyväksikäyttö

Tekoälyjärjestelmät, jotka hyväksikäyttävät ikään, vammaisuuteen tai sosiaaliseen tai taloudelliseen tilanteeseen liittyviä haavoittuvuuksia henkilön käyttäytymisen olennaiseksi muuttamiseksi, ovat kiellettyjä.

Esimerkkejä:

  • Kaupallinen keskustelurobotti, joka kohdistuu erityisesti ikääntyneisiin käyttäen heidän kognitiivisiin haavoittuvuuksiinsa mukautettuja suostuttelutekniikoita
  • Kohdennettu mainosjärjestelmä, joka kohdistuu ylivelkaantuneisiin henkilöihin tarjotakseen heille kulutusluottoja
  • Verkkopeli, joka käyttää tekoälyä alaikäisten riippuvuutta aiheuttavan käyttäytymisen tunnistamiseen ja hyväksikäyttöön

4. Reaaliaikainen biometrinen tunnistaminen julkisissa tiloissa

Reaaliaikaisen etäbiometrisen tunnistamisen käyttö julkisesti saavutettavissa tiloissa lainvalvontatarkoituksiin on kielletty kolmea tiukasti säänneltyä poikkeusta lukuun ottamatta:

  • Kidnappauksien, ihmiskaupan tai seksuaalisen hyväksikäytön uhrien kohdennettu etsintä
  • Erityisen ja välittömän terroristiuhan ehkäiseminen
  • Tiettyjen vakavien rikosten teosta epäillyn henkilön paikantaminen tai tunnistaminen

Näissäkin tapauksissa vaaditaan ennakkoon tuomioistuimen lupa ja tiukat takeet.

5. Tunteiden tunnistaminen työpaikoilla ja koulutuksessa

Artikla 5, kohta 1, alakohta fRèglement (UE) 2024/1689

[Kiellettyjä ovat] tekoälyjärjestelmän markkinoille saattaminen, käyttöönotto tai käyttö luonnollisen henkilön tunteiden päättelemiseksi työpaikalla ja oppilaitoksissa, paitsi kun tekoälyjärjestelmän käyttö on tarkoitettu käyttöön otettavaksi tai markkinoille saatettavaksi lääketieteellisistä syistä tai turvallisuussyistä.

Tämä kielto on erityisen merkityksellinen yrityksille. Se kattaa:

  • Videopalaverien tunneanalyysityökalut: järjestelmät, jotka analysoivat osallistujien kasvojen ilmeitä kokouksien aikana
  • Tunnetilavalvontajärjestelmät: kamerat tai ohjelmistot, jotka havaitsevat työntekijöiden stressiä, turhautumista tai sitoutumattomuutta
  • Tunneanalyysi koulutuksessa: työkalut, jotka mittaavat oppijoiden tunnetilaa sisällön mukauttamiseksi

Ainoat poikkeukset: lääketieteelliset tarkoitukset (esim. kivun havaitseminen kommunikointikyvyttömillä potilailla) tai turvallisuustarkoitukset (esim. väsymyksen havaitseminen ammattikuljettajilla).

6. Kasvotunnistustietokantojen rakentaminen verkkosisältöä keräämällä

Tekoälyasetus kieltää kasvotunnistustietokantojen rakentamisen tai laajentamisen kohdentamattomalla kuvien keräämisellä internetistä tai videovalvonnasta. Tämä on suora vastaus Clearview AI:n kaltaisten yritysten käytäntöihin, jotka olivat rakentaneet usean miljardin kasvokuvan tietokannan imuroimalla julkisia valokuvia.

📄Tekoälyriskit yrityksessä: tunnista ja hallitse tehokkaasti

Miten tarkistat, rikkooko yrityksesi sääntöjä

Useimmat yritykset ajattelevat spontaanisti, ettei nämä kiellot koske heitä. Mutta tietyt käytännöt, erityisesti HR:ssä ja markkinoinnissa, voivat olla vaarallisen lähellä rajaa.

Tarkistuslista

Esittäkää itsellenne nämä kysymykset:

  • Pisteytys ja luokittelu: Annatko automaattisia pisteitä yksilöille (asiakkaat, työntekijät, ehdokkaat), jotka yhdistävät eri asiayhteyksistä kerättyjä tietoja?
  • Suostuttelu ja personointi: Hyväksikäyttävätkö suosittelu- tai markkinointijärjestelmänne tunnistettuja haavoittuvuuksia (ikä, taloudellinen tilanne, tunnetila)?
  • Tunnetilavalvonta: Käytättekö työkaluja, jotka analysoivat työntekijöidenne kasvojen ilmeitä, ääntä tai käyttäytymistä muuhun kuin lääketieteelliseen tai turvallisuustarkoitukseen?
  • Biometria: Käytättekö kasvontunnistusta tiloissanne? Jos kyllä, missä olosuhteissa?
  • Kasvotiedot: Ovatko tekoälytoimittajanne rakentaneet koulutustietokantansa keräämällä kuvia verkosta?

Jos vastaus johonkin näistä kysymyksistä on “kyllä” tai “ehkä”, perusteellinen analyysi on tarpeen.

Koulutuksen rooli

Työntekijöiden tietoisuus näistä kielloista on välttämätöntä. Tekoälyosaamisen velvoite (artikla 4) sisältää välttämättä sen ymmärtämisen, mikä on kiellettyä. Työntekijä, joka ei tiedä, että tunteiden tunnistaminen ammatillisessa yhteydessä on laitonta, ei voi raportoida sääntöjenvastaista käyttöä.

Tiimien kouluttaminen näistä kielloista ei ole vapaaehtoista — se on edellytys vastuulliselle tekoälyn hallinnalle.

📄Tekoälyasetus artikla 4: tekoälykoulutusvelvoite selitetty

Seuraamukset

Kielletyt käytännöt ovat tekoälyasetuksen ankarimman seuraamustason alaisia: enintään 35 miljoonaa euroa tai 7 prosenttia maailmanlaajuisesta vuotuisesta liikevaihdosta, suurempi summa määrätään. Nämä ovat ankarimmat sakot, joita eurooppalainen digitaalinen sääntely on koskaan määrännyt — korkeammat kuin GDPR:n.

Ce que ça implique pour vous

Artiklan 5 kiellot ovat olleet voimassa 1. helmikuuta 2025 lähtien. Sosiaalinen pisteytys, tekoälyllä manipulointi, tunteiden tunnistaminen työpaikalla: nämä käytännöt ovat nyt laittomia, ja seuraamukset voivat olla jopa 35 miljoonaa euroa. Yrityksille haaste on kaksinkertainen: tarkistaa välittömästi, ettei mikään käytössä oleva tekoälytyökalu ylitä näitä punaisia viivoja, ja kouluttaa tiimit tunnistamaan kielletyt käytöt ennen kuin tapahtuma sattuu.