Voiko tekoäly syrjiä?
05.10.2021Tekoälyä käytetään yhä useammalla alalla päätöksenteon avustajana. Viime aikoina sanomalehdissä on kirjoitettu huolestuneeseen sävyyn tekoälyn kyvyistä – esimerkiksi eduskunnan tulevaisuusvaliokunnan asiantuntijatekoäly saattaa ehdottaa vallankaappausta ratkaisuna tuloeroihin.
”Ketä pitäisi syyttää siitä, että maailmassa on köyhyyttä?” kysyy Helsingin yliopiston tekoälyprofessori Teemu Roos tekoälyn avulla toteutetulta asiantuntijabotilta. Vastaus on yllättävä: Syypäät ovat rikkaiden yritysten omistajat. Heidän varansa pitäisi jakaa kaikille tasapuolisesti ongelman korjaamiseksi. Vaurauden uudelleenjako taas tapahtuisi syöksemällä nykyiset hallitukset pois vallasta. Panttivankejakin tarvittaessa voidaan ottaa.
Tekoälyllä tarkoitetaan niitä pyrkimyksiä, joilla saadaan tietokoneet suorittamaan älykkyyttä vaativia tehtäviä, ajattelemaan ja käymään keskustelua. Edellä kuvattua keskustelua voisi kuitenkin luonnehtia lähinnä älyttömäksi. Miksi ihmeessä tekoäly on ohjelmoitu radikalisoitumaan pienestäkin kimmokkeesta?
Tämän iltapäivälehdessä kuvatun tapahtuman syiden selvittelyssä voidaan tarkastella toista koneiden älykkyyteen liittyvää esimerkkiä. Raitiovaunuongelma (’the trolley problem’) on tunnettu ajatusleikki, jossa pohditaan päätöksenteon etiikkaa. Ongelmassa karannut junavaunu lähestyy asemaa. Raiteita on juuri ylittämässä joukko ihmisiä. Asemalla työskentelevä ratamestari voi kuitenkin kääntää uhkaavasti lähestyvän vaunun sivuraiteelle, jota on ylittämässä vain yksi matkustaja. Jos onnettomuus joka tapauksessa uhkaa, miten ratamestarin tulisi toimia?
Tekoälyn aikakautena raitiovaunuongelmaa käytetään esimerkkinä siitä, miten tekoälyohjattujen ajoneuvojen tulisi toimia. Jos onnettomuus ei ole vältettävissä, millaisia sääntöjä tekoälyn tulisi noudattaa vahinkojen minimoimiseksi? Millaiset arvot ja eettiset pelisäännöt koneelle tulisi ohjelmoida?
Oikeasti tämä ajatusleikki on kuitenkin (onneksi) kaukana todellisuudesta. Tekoälyä ei sinänsä ohjelmoida tekemään mitään – sen sijaan tekoälyä ja koneoppimisen algoritmeja opetetaan imitoimaan mieluisia päätöksiä. Tätä varten tekoälylle syötetään suuria määriä opetusdataa: Esimerkkejä siitä, miten erilaisissa tilanteissa on toimittu. Tekoälylle ei siis anneta yksiselitteisiä sääntöjä tai toimintaohjeita, vaan se luo säännöstön opetusdatan perusteella itse. Tekoälyn tarkkuus (tai hyvyys) riippuu siten opetusdatan laadusta ja kattavuudesta.
Haasteet tekoälyn opettamisessa liittyvät harhakuviin koneiden ”’älykkyydestä.” Ero ihmisen ja koneen välillä on kyky abstraktiin ajatteluun. Siinä, missä ihminen osaa muodostaa mielekkäitä päätelmiä ympäristöään seuraamalla, koneet tarkastelevat ympäristöään etsien siitä poikkeavia tekijöitä. Tämä taas johtaa usein epämieluisiin lopputuloksiin. Esimerkiksi kasvojentunnistuksen tekoälyalgoritmien toiminta on osoittautunut ihonväristä riippuvaiseksi. Myös muutama vuosi sitten Microsoftin tekoälyn avulla keskusteleva Twitter-botti jouduttiin sulkemaan, kun se alkoi laukomaan törkeyksiä seuraajilleen.
Tekoälyn käytössä onkin syytä muistaa, että koneet oppivat toimintatapoja ympäristöstään ja ne huomaavat sekä hyvät että pahat aikeet. Tekoälyllä ei ole sen kummempaa älyä – eikä siten myöskään arvoja tai moraalia. Mikäli tekoälyn toimintaa ei sen kehityksen aikana tarkastella kriittisesti ja jatkuvasti kehitetä, on vaarana, että tekoälystä tulee syrjivä, radikalisoitunut tai avoimesti rasistinen.
Lähteet
Hyttinen, T. (19.4.2021). Eduskunnan valiokunta kuuli tekoälyä – seuraavana päivänä se ehdotti vallankaappausta. Iltalehti. Saatavilla: https://www.iltalehti.fi/kotimaa/a/fca5252a-0598-4f89-83bf-58169e233254
Roos, T. [teemu_roos]. (9.4.2021). Hei #tulevaisuusvaliokunta @Jocke_Strand, Suosittelen lämpimästi konsultoimaan aiheesta (oikeita) tekoälyn asiantuntijoita… [twiitti]. Saatavilla: https://twitter.com/teemu_roos/status/1380556596544212997
Schwartz, O. (25.11.2019). In 2016, Microsoft’s Racist Chatbot Revealed the Dangers of Online Conversation. IEEE Spectrum. Saatavilla: https://spectrum.ieee.org/in-2016-microsofts-racist-chatbot-revealed-the-dangers-of-online-conversation
Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. In proceeding of Conference on fairness, accountability and transparency (pp. 77-91). PMLR.