Kuvituskuva, jossa robottikäsi pitää kädessään vaakaa, jossa molemmat puolet ovat tasapainossa. Kuva: phonlamaiphoto, Adobe Stock.

Euroopan unionin tekoälyasetus pyrkii vahvistamaan ihmisten luottoa tekoälyratkaisuihin

30.09.2024

Asetus on maailman ensimmäinen tekoälyn käyttöön liittyvä sääntökokonaisuus.

Euroopan unionin tekoälyasetuksen (Artificial Intelligence Act tai AI Act) lainsäädäntöprosessi on loppumetreillä. Asetuksen tavoitteena on muun muassa tukea innovointia, hallita riskejä, sekä lisätä tekoälyn luotettavuutta.

Ketä asetus koskee?

Velvollisuudet koskevat pääasiassa tekoälyjärjestelemien kehittäjiä ja markkinoijia. Sääntely koskee niitä järjestelmiä, jotka ovat EU:n markkinoilla tai joiden käyttö muulla tavoin vaikuttaa EU:n kansalaisiin. Velvollisuudet koskevat järjestelmiä siinä kohtaa, kun ne tuodaan markkinoille.

Säädös ei siis koske järjestelmien kehitystä tai prototyyppejä. Asetuksen ulkopuolelle jäävät myös esimerkiksi kansalliseen turvallisuuteen ja maanpuolustukseen käytettävät järjestelmät, kun ne on tarkoitettu yksinomaan näihin tarkoituksiin.

Myös tekoälyratkaisuja käyttävien toimijoiden tulee olla asetuksesta tietoisia. Jos aikomuksena on ottaa käyttöön asetuksen soveltamisalaan kuuluva järjestelmä, tulee ensin varmistaa, että järjestelmä on käynyt läpi tarvittavat arvioinnit ja sen mukana tulee tarvittava dokumentaatio.

Mitä riskiperusteisella lähestymistavalla tarkoitetaan?

Järjestelmille asetetut vaatimukset määrittyvät sen mukaan, kuinka suuren riskin ne aiheuttavat. Suurin osa EU:ssa käytettävistä tekoälyjärjestelmistä kuuluu minimaalisen riskin kategoriaan, eikä asetuksessa ole niihin liittyviä vaatimuksia.

Osa tekoälyratkaisuista kuuluu suuren riskin kategoriaan. Tähän kategoriaan kuuluvat esimerkiksi kriittisen infrastruktuurin hallintaan ja käsittelyyn, yleissivistävään ja ammatilliseen koulutukseen sekä lainvalvontaan ja demokraattisiin prosesseihin liittyvät järjestelmät. Kategoriaan kuuluvat myös EU:n tuoteturvallisuusdirektiivin alle kuuluvat tuotteet kuten hissit, lääkinnälliset laitteet, autot ja lelut.

Suuririskisten järjestelmien tarjoajien tulee tehdä järjestelmille arviointi, ennen kuin ne tuodaan EU:n markkinoille. Arviointi tulee tehdä uudelleen, jos järjestelmää muutetaan merkittävästi. Kansalaisilla tulee olla mahdollisuus tehdä valituksia järjestelmistä kansallisille viranomaisille.

Osa järjestelmistä luokitellaan ei-hyväksyttävän riskin järjestelmiksi. Nämä järjestelmät on kokonaan kielletty, sillä niiden nähdään aiheuttavan uhan ihmisten perusoikeuksille. Kategoriaan kuuluvia järjestelmiä ovat esimerkiksi järjestelmät, jotka pyrkivät kansalaisten sosiaaliseen pisteyttämiseen, biometriseen luokitteluun, tai tunteiden tunnistamiseen työpaikalla ja oppilaitoksissa. Joihinkin tapauksiin on kuitenkin tarkkaan rajattuja poikkeuksia, esimerkiksi lainvalvonnan tarkoituksiin.

Generatiiviselle tekoälylle asetetaan läpinäkyvyysvelvoitteita

Generatiivisella tekoälyllä tarkoitetaan tekoälyä, jonka avulla voidaan tuottaa sisältöä. Tekoälyn avulla voidaan luoda esimerkiksi kuvia, tekstiä tai ääntä. Tämän tyyppisille tekoälyratkaisuille asetus määrittää läpinäkyvyysvelvoitteita. Käyttäjien tulisi aina tietää, että sisällön on luonut tekoäly. Sama koskee myös tekoälyn kanssa käytäviä keskusteluja.

Läpinäkyvyyttä velvoitetaan myös tekoälyn kouluttamiseen liittyvään dataan liittyen. Generatiivisten tekoälyjärjestelmien tarjoajilla tulee olla toimintaperiaatteet, joilla varmistetaan se, että kehittämisessä on noudatettu tekijänoikeuslainsäädäntöä. Lisäksi järjestelmät tulisi kehittää niin, ettei laittoman sisällön tuottaminen ole mahdollista.

Osa generatiivisesta tekoälystä nähdään sellaisina, että ne voivat aiheuttaa järjestelmällistä uhkaa. Näihin järjestelmiin lasketaan edistyneemmät tekoälymallit, kuten OpenAI:n GPT-4. Kyseisten järjestelmien tarjoajien tulee arvioida ja hallita riskejä, raportoida vakavista tapauksista komissiolle, suorittaa testausta, varmistaa kyberturvallisuus ja raportoida järjestelmän energiankulutus.

Asetuksen tavoite

Asetuksen tavoitteena on siis hallita tekoälyyn liittyviä riskejä ja suojella ihmisten perusoikeuksia. Riskienhallinnan toivotaan lisäävän ihmisten luottoa tekoälyjärjestelmiin, mikä voi osaltaan lisätä järjestelmien käyttöönottoa.

Laki velvoittaa myös kansallisia viranomaisia tarjoamaan testiympäristön, jossa niin pienet kuin suuretkin yritykset voivat testata tekoälyjärjestelmiä realistisessa ympäristössä. Tämän toivotaan lisäävän innovointia.

CyberCare Kymi on Kaakkois-Suomen ammattikorkeakoulun toteuttama hanke, jota rahoitetaan Kymenlaakson liiton kautta Euroopan unionin Oikeudenmukaisen siirtymän rahastosta (JTF). Hanke toteutetaan ajalla 1.11.2023-31.12.2025.

Lähteet:

EU:n tekoälysäädös on ensimmäinen laatuaan. 2023. Euroopan parlamentti. WWW-dokumentti. Päivitetty 19.6.2024. Saatavissa: https://www.europarl.europa.eu/topics/fi/article/20230601STO93804/eu-n-tekoalysaados-on-ensimmainen-laatuaan [viitattu 9.8.2024].

AI Act. 2024. Euroopan komissio. WWW-dokumentti. Päivitetty 8.8.2024. Saatavissa: https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai [viitattu 9.8.2024].

Artificial Intelligence – Questions and Answers. 2024. Euroopan komissio. WWW-dokumentti. Päivitetty 1.8.2024. Saatavissa: https://ec.europa.eu/commission/presscorner/detail/en/QANDA_21_1683 [viitattu 9.8.2024].

Kirjoittanut Jenna Ruuska

Kirjoittaja työskentelee TKI-asiantuntijana CyberCare Kymi -hankkeessa Kaakkois-Suomen ammattikorkeakoulussa.