Lausunto luonnoksesta hallituksen esitykseksi eräiden tekoälyjärjestelmien valvonnasta annetun lain muuttamiseksi (tekoälyn testiympäristö)

Lausunto työ- ja elinkeinoministeriölle 28.5.2025

Diaarinumero KKV/515/03.02/2025

Lausunto luonnoksesta hallituksen esitykseksi eräiden tekoälyjärjestelmien valvonnasta annetun lain muuttamiseksi (tekoälyn testiympäristö) VN/31658/2024

KKV esittää seuraavat yleiset kommentit hallituksen esitysluonnokseen:

Sääntelyn testiympäristö ja kokeilukulttuuri

KKV kannattaa luonnoksen ehdotusta siitä, että Suomeen muodostettaisiin yksi viranomaisvetoinen sääntelyn testiympäristö (ns. hiekkalaatikko, regulatory sandbox). EU:n tekoälyasetus edellyttää tekoälyn kehittäjille ja käyttöönottajille tarjottavaa sääntelyhiekkalaatikkoa, joka mahdollistaa järjestelmätestauksen ennen kuin tekoälyjärjestelmä tuodaan markkinalle. Suomessa ei vielä ole tekoälyasetuksen vaatimuksiin sopivaa testiympäristöä. KKV toteaa, että koska tekoälyjärjestelmien testiympäristö on tekoälyasetuksen 57 artiklassa säädetty pysyvä vaatimus, kansallisessa lakiehdotuksessa ei varsinaisesti ole kyse kokeilulaista.

KKV:n mielestä Suomen kaltaisessa toimintaympäristössä yhden sääntelyhiekkalaatikon malli on sopivasti mitoitettu. Käytännössä testiympäristön toiminta-ajatuksena olisi tekemällä oppiminen. KKV toteaa, että sääntelyhiekkalaatikosta tekee testiympäristönä erityislaatuisen se, että tekoäly on yleiskäyttöinen teknologia. Tekoälyjärjestelmä voi suoraan tai muunnoksin soveltua käytettäväksi useanlaisissa yhteyksissä.

Toimialakohtaisten teknologioiden testiympäristöihin verrattuna yhden sääntelyhiekkalaatikon mallilla voidaan saavuttaa laaja-alaisempaa keskinäistä oppimista. Samalla tavoitteiksi voidaan asettaa, että tekoälyn sääntelyhiekkalaatikolla pystytään jakamaan parhaita käytäntöjä, edistämään innovaatioita ja parantamaan oikeusvarmuutta. Yhden sääntelyhiekkalaatikon malli ei sulje pois sitä, että tekoälyjärjestelmien testaaminen erikoistuneilla alueilla vaatii alakohtaista asiantuntemusta.

KKV kannattaa ajatusta siitä, että tekoälyn sääntelyhiekkalaatikko perustettaisiin osana viranomaisen tehtäviä ja keskitetyksi yhteyspisteeksi nimettävän viranomaisen yhteyteen. Tällaiseksi viranomaiseksi on esitetty Liikenne- ja viestintävirastoa (HE 46/2025 vp).

KKV painottaa, että sekä testattavien tekoälyjärjestelmien että sääntelyhiekkalaatikon elinvoimaisuuden kannalta on erittäin tärkeää muodostaa sääntelyhiekkalaatikon ja testauksen organisointi sellaiseksi, että osallistuminen testiympäristöön nopeuttaa markkinoille pääsyä sen sijaan, että se pidentäisi sitä. Vain silloin voi tehokkaasti toteutua tavoite siitä, että testiympäristöllä helpotetaan pääsyä EU-markkinoille.

KKV kiinnittää huomiota siihen, että hallituksen esityksessä olisi syytä tuoda selkeämmin esiin, olisiko perustettava viranomaisvetoinen sääntelyhiekkalaatikko sellainen EU:n tekoälyasetuksessa tarkoitettu testiympäristö, jossa voidaan testata kaikkia tekoälyjärjestelmiä. Mikäli julkista viranomaisresurssia sitova testiympäristö rajataan koskemaan ainoastaan korkean riskin tekoälyjärjestelmiä, olisi syytä tehdä huolellista vaikutusarviointia siitä, tukeeko pelkkiin korkean riskin järjestelmiin keskittyminen riittävästi kilpailukykyä vai tulisiko vastaavasti tukea myös muun tyyppisten tekoälyjärjestelmien testausta. EU:n tekoälyasetuksen ja sen liitteen määritelmä korkean riskin järjestelmille on niin rajattu, että suuri osa esimerkiksi kuluttajiin kohdistuvista tekoälyjärjestelmistä jää määritelmän ulkopuolelle. Kuitenkin juuri kuluttajaliiketoiminnoissa tekoälyllä on jo saavutettu merkittäviä kilpailuetuja ja markkina-asemaa.

Kun sääntelyhiekkalaatikoita nyt syntyy samanaikaisesti eri maihin, perustettaviin sääntelyhiekkalaatikoihin liittyy myös huolia tarkoitushakuisesta helpoimmin läpäistävissä olevan testiympäristön etsimisestä (forum shopping). EU-tasolla olisi huolehdittava siitä, ettei eri maissa tarjottujen hiekkalaatikoiden laatu vaihtele suuresti. Tähän tarvitaan ohjeistusta ja normeja, joita parhaillaan odotetaan komissiolta. Yhden kansallisen sääntelyhiekkalaatikon malli voi olla tuloksiltaan hyödyllinen muille ja auttaa luomaan johdonmukaisia käytäntöjä maailmanlaajuisesti. Toisaalta kansallisten lakien ja toimialakohtaisten säännösten erot voivat rajoittaa sitä, miten yhdessä maassa toteutetusta testauksesta saatuja tuloksia voidaan hyödyntää muualla.

Kuluttajiin kohdistuvien tekoälyjärjestelmien testaus

Sääntelyhiekkalaatikolla toteutettavaan testaukseen osallistuvat saavat yksilöllistä tukea tekoälyjärjestelmän vaatimustenmukaisuuden varmistamisessa ennen tuotteen tuomista markkinalle. Odotusten olisi kuitenkin oltava realistisia sen suhteen, mitä testiympäristöllä voidaan saavuttaa. Hiekkalaatikko mahdollistaa kokeilun ja virheiden tekemisen, jolloin on helpompaa määrittää korkean riskin järjestelmälle esimerkiksi tekoälyasetuksen 14 artiklassa tarkoitettu ihmisen suorittama valvonta (human oversight) ja sen asianmukainen taso. Hiekkalaatikko ei kuitenkaan voi tarjota kaiken kattavaa lainmukaisuuden arviointia. Etukäteisellä järjestelmätestauksella ei saada esiin pitkäaikaisen käytön vaikutuksia eikä esimerkiksi kaikkia sellaisia kuluttajavaikutuksia, joita EU:n kuluttajansuojalainsäädäntö edellyttää arvioitavaksi järjestelmän markkinoille tuomisen jälkeen (ex post).

KKV pitää tarpeellisena, että luonnosta täydennetään kuluttajiin kohdistuvien tekoälyjärjestelmien osalta. EU:n tekoälyasetus lähtee siitä, että testauksen aikana havaittuja terveyteen ja turvallisuuteen sekä perusoikeuksiin kohdistuvia merkittäviä riskejä on asianmukaisesti vähennettävä. Luonnos jättää testiympäristön osalta avoimeksi monta keskeistä kuluttajiin kohdistuviin tekoälyjärjestelmiin liittyvää kysymystä:

– Kuinka toteutuu mahdollisuus testata tekoälyasetuksen 5 artiklassa tarkoitettujen kiellettyjen käytäntöjen rajanvetoja?

Tekoälyasetus kieltää tuomasta markkinalle mm. ihmisten käyttäytymistä vääristäviä subliminaalisia tekniikoita, manipuloivia tai harhaanjohtavia tekniikoita ja tekniikoita, joissa hyödynnetään luonnollisen henkilön tai tietyn henkilöryhmän haavoittuvuuksia.

– Kuinka toteutuu mahdollisuus testata todellisissa olosuhteissa? Ja edellytetäänkö testaukseen osallistuvilta luonnollisilta henkilöiltä aina tietoon perustuva suostumus?

Varsinkin kuluttajiin kohdistuvien tekoälyjärjestelmien testaaminen oikeissa olosuhteissa ja oikeilla ihmisillä on välttämätöntä, jotta nähdään tekoälyjärjestelmän todelliset vaikutukset. Koska jo testaukseen voi liittyvä vahingon vaara, osallistujien tulisi olla tietoisia altistumisestaan ja oikeuksistaan.

-Kuinka toteutuu mahdollisuus testata muita kuin suuririskisiä tekoälyjärjestelmiä?

Kuluttajasuhteissa jo käyttöön otetut tekoälyjärjestelmät ovat pääosin muita kuin EU:n tekoälyasetuksen tarkoittamia suuririskisiä. Todennäköisesti näin on jatkossakin, jollei tekoälyasetuksen liitettä III muuteta.

-Kuinka toteutetaan generatiivisen tekoälyn testaaminen?

Generatiivisen tekoälyn järjestelmiä tarjotaan jo kuluttajille ja niiden tarjonnan odotetaan monipuolistuvan. Tällaisen yleiskäyttöisen tekoälyn valvonnassa roolia on myös EU:n tekoälytoimistolla, mutta kuinka huolehditaan niiden testausmahdollisuuksista.

Testauksen suhde tekoälyjärjestelmien valvontaan

Osallistumalla testaukseen sääntelyhiekkalaatikolla valvontaviranomaiset saavat tietoa uusista innovaatioista ja sääntöjen soveltamisesta käytäntöön. Viranomaisten näkökulmasta testiympäristön haasteet liittyvät varsinkin toiminnan mittakaavaan sekä tarvittavaan asiantuntemukseen ja rahoitukseen.

KKV toteaa, että viranomaisten on varattava testiympäristöön sekä teknistä että oikeudellista asiantuntemusta, jotta osallistujia kyettäisiin neuvomaan ja ohjeistamaan asianmukaisesti. Kuluttajiin kohdistuvien tekoälyjärjestelmien ja varsinkin kiellettyjen käytäntöjen rajanvetojen testaukseen tarvittaisiin lisäksi sellaista käyttäytymistieteellistä analyysiä, jollaiseen valvontaviranomaisilla ei ole tällä hetkellä valmiuksia omasta takaa.

KKV kiinnittää huomiota viranomaisille syntyvään kolmoisrooliin: sama viranomainen voisi antaa testauksen aikana neuvoja ja hyväksyntöjä, testauksen jälkeen toimia tekoälyjärjestelmän käytön valvojana sekä tarvita testausta omissa tekoälyn kehityshankkeissaan. Viranomaisilla ei ole moninkertaisia resursseja vaan tekoälyosaaminen on samoilla henkilöillä, jolloin toimintoja on vaikea tiukasti eriyttää. Viranomainen joutuisi valvontatoiminnassa hankalaan asemaan, jos sen mahdollisesti etukäteen hyväksymä (ex ante) tekoälyjärjestelmä tulisi uudelleen tarkasteltavaksi markkinoille tuomisen jälkeen (ex post). Samalla valvonnan kohteena oleville yrityksille loisi epäselvyyttä se, jos sama viranomaistaho voisi osallistua tekoälyjärjestelmän testaukseen ja hyväksyttävyyden arviointiin etukäteen, mutta myös ottaa tekoälyjärjestelmän ja sen käytön valvontatoimien kohteeksi jälkikäteen.

KKV pitää hyvänä sitä, että luonnoksen 11c §:n 2 momentin (s. 107) mukaan myös muut viranomaiset kuin varsinaiset tekoälyasetuksen valvontaviranomaiset voisivat tarvittaessa osallistua testiympäristöön ja olla antamassa testauksen aikana neuvontaa, ohjausta ja tukea. Tällöin testiympäristö voi tarjota puitteita myös vuorovaikutteisille valmentavan valvonnan toimintatavoille. KKV pitää osallistumismahdollisuutta tärkeänä kuluttaja-asiamiehelle ja muille kansallisille viranomaisille, jotka on ilmoitettu komissiolle perusoikeuksia suojelevina viranomaisina tekoälyasetuksen 77 artiklan tarkoituksessa. Jo testauksen aikana on arvioitava, aiheutuuko tekoälyjärjestelmästä haitallisia vaikutuksia EU:n perusoikeuskirjassa suojatuille perusoikeuksille, ja tässä 77 artiklan viranomaiset voivat antaa tukea. Kun osallistuminen testiympäristöön on tekoälyn kehittäjille ja käyttöönottajille vapaaehtoista, tällaisille muille viranomaisille on riittävää, että ne voivat arvioida omaa osallistumistaan tarpeen mukaan.

Sen sijaan KKV pitää ongelmallisena sitä, jos muiden viranomaisten osallistumismahdollisuuden edellytyksenä olisi luonnoksen 11c §:n 2 momentissa ehdotetulla tavalla se, että ”niiden toimivaltaan kuuluvan lainsäädännön noudattamista arvioidaan testattavassa hankkeessa”. Kuluttaja-asiamiehen kohdalla tämä muotoilu tarkoittaisi, että kuluttaja-asiamies ei voisi osallistua testaukseen pelkästään tekoälyasetuksen 77 artiklan roolissa vaan vain silloin, jos testauksen yhteydessä arvioidaan tekoälyasetuksen lisäksi myös kuluttajansuojalain tai muun kuluttaja-asiamiehen valvoman lainsäädännön noudattamista. KKV:n kanta on, että sääntelyn testiympäristöä ei tulisi tällä tavoin laajentaa muiden viranomaisten osalta kattamaan muita valvottavia kysymyksiä kuin EU:n tekoälyasetus. Esimerkiksi kuluttaja-asiamiehen toimivaltaan kuuluva lainsäädäntö on erittäin laaja. Kuluttaja-asiamiehen valvontatoiminta on jälkikäteistä (ex post) ja siinä sovellettavat lait edellyttävät sen arviointia, onko tekoälyjärjestelmän markkinalle tuomisen jälkeen toteutettu menettely lainvastaista kyseisessä tosielämän tilanteessa. Kuluttaja-asiamies ei muutoinkaan anna elinkeinonharjoittajille ennakollisia hyväksyntöjä kuluttajansuojalainsäädännön mukaisuudesta eikä pidä tätä osaltaan mahdollisena tekoälyn testiympäristössäkään esimerkiksi kirjallisen todisteen ja loppuraportin muodossa.

KKV toteaa, että eri asia ja erikseen ratkaistava kysymys on se, voisivatko testiympäristö ja sen yhteydessä muodostuneet toimintatavat olla käytettävissä laajemminkin valvontatoimintaan ja viranomaisten hyödyksi. Ensinnäkin viranomaiset tarvitsevat jatkuvasti uudenlaisia tekoälypohjaisia valvontatyökaluja, joita voitaisiin kehittää ja testata yhteistyössä. Toiseksi digitalisoituvan toimintaympäristön ja markkinalle tuotujen tekoälyjärjestelmien tarkasteluun tarvitaan valvontatoiminnassa tekniikaltaan riittävän korkealaatuisia tiloja ja järjestelmiä.

KKV pitää luonnoksessa ehdotettua täydennettyä 24 §:ää seuraamusmaksun määräämättä jättämisestä erittäin ongelmallisena. Seuraamusmaksu on tahallisuuteen tai tuottamukseen perustuva rikosoikeudelliseen seuraamukseen rinnastuva sanktio, jonka käytölle on myös tekoälyasetuksen yhteydessä ehdotettu korkeaa kynnystä (HE 46/2025 vp). Vastaavasti jo lähtökohtaisesti seuraamusmaksun määräämisestä poikkeamisen kynnyksen tulisi olla korkea. Ehdotetun 24 §:n 2 momentin mukaan: ”Jos muusta unionin tai kansallisesta lainsäädännön noudattamisen valvonnasta vastaavat muut viranomaiset ovat antaneet ohjausta ja neuvontaa kyseisen lainsäädännön noudattamisesta sääntelyn testiympäristössä, hallinnollisia seuraamusmaksuja ei määrätä sen lainsäädännön velvoitteiden rikkomisesta tai laiminlyönnistä, jota kyseinen ohjaus ja neuvonta on koskenut.” Kuluttaja-asiamiehen osalta tällainen säännös olisi suoraan ristiriidassa sen kanssa, mitä kuluttaja-asiamiehen seuraamusmaksusta ja seuraamusmaksun määräämättä jättämisestä on säädetty laissa kuluttajansuojaviranomaisten eräistä toimivaltuuksista (566/2020) sekä mitä EU-asetus 2017/2394 (ns. CPC-asetus) edellyttää kuluttajansuojaviranomaisten täytäntöönpanovaltuuksilta. Mikäli ehdotettu 24.2 § säilyy luonnoksen mukaisena, se käytännössä estäisi kuluttaja-asiamiehen osallistumisen tekoälyn sääntelyn testiympäristöön.

KKV kiinnittää huomiota luonnoksen 11c §:n 3 momenttiin ja siihen, että lakisääteisesti Liikenne- ja viestintävirasto vahvistaisi tehtävänmäärityksen testaukseen osallistuville viranomaisille. Kuitenkin valvontatoimintaa tekevät viranomaiset ovat toiminnassaan riippumattomia ja itsenäisesti vastuussa resurssiensa käytöstä ja eri tehtäviensä priorisoinnista.  Esimerkiksi kuluttaja-asiamiehen on asetettava tehtävänsä tärkeysjärjestykseen kilpailu- ja kuluttajavirastosta annetun lain 11 §:n edellyttämällä tavalla. KKV pitää parempana lähtökohtana luonnoksen 11a §:n ajatusta siitä, että Liikenne- ja viestintävirasto vastaisi sääntelyn testiympäristön toiminnan järjestämisestä koordinaattorin tapaan. Luonnoksen mukaan (s. 61) valmistelussa on päädytty malliin, jossa laki ei sisältäisi säännöksiä viranomaisten välisen yhteistyön muodosta vaan valittu malli mahdollistaisi viranomaisten välisen yhteistyön järjestämisen joustavasti.