Tekoäly heijastuu luottamukseen, vuorovaikutukseen – ja käsitykseen ihmisen toimijuudesta

Elämme aikaa, jolloin tiedon ja viestinnän luonne ovat suurten muutosten kourissa. Yht’äkkiä – tai siltä vaikuttaa – edistyneet, avoimet kielimallit tuottavat luonnollista kieltä ja pystyvät kommunikoimaan älykkään oloisella tekstillä. Tuntuu siltä kuin fantasiat ihmisen kaltaisista, ajattelevista koneista olisivat viimein käyneet toteen!
Professori (Metan Chief AI Scientist) mukaan on virheellistä verrata kielimalleja (LLM, large language model) ihmisälykkyyteen, vaikka ne näyttävätkin ymmärtävän meitä ja tuottavan järkevän kuuloisia vastauksia. Tämän virhepäätelmän moni meistä näyttää kuitenkin tekevän. Onkin mielenkiintoista tarkastella, miten ihmiset päätyvät paikkaamaan tekoälyn valuvikoja – näkemään niiden toiminnassa sellaista toimijuutta ja intentioita, joita siellä ei ole, tai auttamaan tekoälyä ylittämään sen omat rajoitukset. Tämä pätee myös kaikenlaiseen muuhun autonomiseen teknologiaan robotti-imureista hyvinvointiteknologiaan.
Juuri tässä ihmisen ja koneen välisen monimuotoisen vuorovaikutuksen rajapinnassa voi syntyä ennalta-arvaamattomia heijastevaikutuksia.
Heijastevaikutus (ripple effect) on yksinkertaistetusti jonkin tietyn toiminnon tai muutoksen seuraus, joka leviää alkuperäistä tarkoitusta laajemmalle tai kokonaan toisaalle. Pienikin muutos monimutkaisessa systeemissä saattaa aiheuttaa heijastevaikutuksen.
Esimerkiksi teknologiaa kehitettäessä – ensin suunnittelupöydällä ja myöhemmin testiolosuhteissa – ei koskaan voida täysin ennustaa, miten ihmiset päätyvät sitä lopulta käyttämään.
Heijastevaikutusten empiirinen tutkimus on menneisyyteen katsovaa – silloinkin, kun aineisto kerätään tässä ja nyt, on se jo osa menneisyyttä, kun tutkimuksen tulokset julkaistaan. Nykyhetkessä havaittavat muutokset auttavat kuitenkin kuvittelemaan tekoälysovellusten yleistymiseen liittyviä tulevaisuuskuvia ja leikittelemään ajatuksilla kulman takana odottavista heijastevaikutuksista.
Seuraavassa käymme läpi kolme esimerkinomaista heijastevaikutusta liittyen tekoälysovellusten yleistymiseen osana arkeamme.
Moni asia vuorovaikutuksesta luottamukseen muuttuu
Ensimmäinen heijastevaikutus voisi liittyä vuorovaikutukseen. Emme tarkoita tällä vain ihmisen ja koneen välistä vuorovaikutusta, vaan myös sitä, kuinka vuorovaikutukseen liittyvät odotuksemme, sääntömme ja toimintatapamme saattavat ylipäätään muuttua tekoälyn yleistymisen myötä.
ja ovat esimerkkejä LLM-teknologiaan perustuvista tekoälysovelluksista. Niille on yhteistä keskittyminen sanalliseen پԳää.&Բ;
Sen sijaan tällaisen teknologian mahdollisuus ymmärtää tai tuottaa nonverbaalista viestintää on vielä aivan alkutekijöissään tai puuttuu täysin.
Mitä tapahtuu katsekontaktille, eleille, ilmeille, kehon asennoille ja muille sanattomien merkityksen välittämisen tavoille, jos olemme vuorovaikutuksessa enenevässä määrin järjestelmissä (ja järjestelmien kanssa), joita ei ole suunniteltu niitä silmällä pitäen?
Onko mahdollista, että alamme oppia vuorovaikutusta tekoälyltä, peilata sen logiikkaa ja toimintatapoja muihinkin vuorovaikutustilanteisiin?
Toinen heijastevaikutus voisi liittyä siihen, miten algoritmeja hyödynnetään tiedon käsittelyyn, analysoimiseen ja ennustamiseen.
Kun tekoäly tulee saumattomaksi osaksi arkipäiväämme ruoanlaitosta terveydenhuoltoon, oppinemme tukeutumaan enenevästi tällaisten järjestelmien tuottamaan dataan – jopa luottamaan siihen sokeasti.
Voimme jo nyt kuvitella tilanteen, jossa työpaikan kokouksen keskeyttää tieto osallistujan sairastumisesta – ei senhetkisestä vaan tulevasta!
Kyseinen osallistuja pyytäisi pahoitellen puheenvuoroa ja kertoisi tulevansa sairastumaan viimeistään ylihuomenna. Tiedon hän olisi saanut tekoälyltä, joka seuraa hänen aineenvaihduntaansa, kehonsa lämpötilaa, veriarvoja ja monia muita muuttujia. Hän toteaisi valitellen, että kokouksessa käsiteltäviä asioita pitäisi edistää nyt nopeasti, sillä pian työntekoon tulisi hänen osaltaan tauko.
Jos opimme luottamaan tekoälyn tuottamaan tietoon liian sokeasti, mitä tapahtuu kyvyllemme tehdä havaintoja ja tulkintoja elinympäristöstämme?
Missä määrin perustavanlaatuiset tulkinnat vaikkapa syömäkelpoisesta ruuasta, itsen tai läheisen sairastumisesta tai sopivasta unen määrästä ohjautuvat tekoälyn vastuulle?
Kolmas heijastevaikutus voisi liittyä siihen, kuinka laajasti annamme tekoälyn puhua ja päättää puolestamme.
Esimerkiksi rekrytointiyritykset ovat jo alkaneet hyödyntämään tekoälyä () Hakijoiden esikarsinnassa tekoäly saatetaan ohjeistaa kiinnittämään huomio tietynlaisiin datapisteisiin – käytännössä siis etsimään ja pisteyttämään tietoja, jotka on määritelty haettavan tehtävän kannalta olennaisiksi. Tällaisessa arvioinnissa on tunnistettu riskejä (esimerkiksi etninen profilointi) ja etuja (esimerkiksi “neutraalius”).
Mutta mitä tapahtuu itse rekrytointiprosessille, kun kaikki osapuolet tietävät toistensa hyödyntävän tekoälyä?
Ensin rekrytoija käyttää tekoälyä työpaikkailmoituksen laatimiseen. Sen jälkeen hakija kysyy tekoälysovellukselta apua hakutekstien kirjoittamiseen, ja lopuksi tekoäly suodattaa kaikki hakemukset sen perusteella, miten hyvin ne odotuksiin vastaavat.
Putoavatko ne hakijat suoraan pois, jotka eivät tekoälyä hakemuksissaan käytä? Muuttuuko karsintavaihe hyödyttömäksi, jos hakemukset ovat kuin samasta kynästä lähteneitä ja sisältävät kaikki oleelliset “datapisteet”? Pärjäävätkö parhaiten ne hakijat, jotka oppivat hyödyntämään erilaisia hyökkäyksiä algoritmeja vastaan erottuakseen massasta?
”Ihmistoimijuus” on määriteltävä uudelleen
Ymmärrys tekoälystä on muodostunut tyypillisesti ihmisen ja teknologian vastakkainasettelun tai erittelyn perusteella: ihminen on nähty inhimillisenä ja teknologia teknologisena (tai materiaalisena) toimijana.
Vaikka tätä jaottelua on aiemminkin – esimerkiksi sosiomateriaalisissa näkemyksissä – kritisoitu keinotekoiseksi, tullee tekoälyn yleistyminen liudentamaan vielä laajemmin monia käsitteellisiä, sopimuksenvaraisia jäsentelyjämme maailmasta.
Esimerkiksi voidaan ottaa vaikka juuri toimijuus, joka itsessään on määritelty monin tavoin attribuutista toimintakykyyn ja toimintaan.
Mikä on ihmistoimijuuden osuus esimerkiksi silloin, jos terveyskäsitystämme ohjaa kädessämme oleva älykello tai sensori?
Jos aivoihimme laitetaan mikrosiru, muutummeko hiukan enemmän siksi, mitä olemme pitäneet ihmisestä erillisenä materiaalisena toimijana?
Jäsentely erilaisiin, irrallisiin toimijuuksiin ei tekoälyn kohdalla tunnu kovin hedelmälliseltä, vaikka se onkin kenties aiemmin onnistunut selittämään sitä, mitä “me” olemme ja mitä “meidän” ulkopuolellamme on.
Tekoälyksi kutsuttava teknologia ei ole samalla tavalla tekijästään tai käyttäjästään riippuvainen, mihin olemme tottuneet: sillä on potentiaalia toimia ja kehittyä meistä huolimatta. Näin olemme jatkuvasti tekemisissä sen “uuden version” kanssa, emmekä aina tiedä, mikä kaikki on muuttunut.
Tekoälytutkimus tarvitsee siksi myös uudenlaista, avaraa katsantotapaa, joka purkaa aiempien käsitteiden ja jäsentelyjen rajoitteita, vinoumia ja kapea-alaisuuksia. Tarvitsemme monitieteistä tutkimusta, jotta voimme nähdä nykyisen ja tulevan maailmamme ja ymmärtää ja selittää tekoälyn mukanaan tuomia muutoksia.
Kirjoittavat työskentelevät SYNTHETICA-konsortiossa, joka tutkii tekoälyn ja ihmisen vuorovaikutuksen monitahoisia heijastusvaikutuksia ja rajoituksia työssä, liiketoiminnassa ja yhteiskunnassa. Tämä blogiteksti on tehty sataprosenttisesti perinteisellä käsityöllä, mikä merkittäköön muistiin moista käytännettä ihmetteleville tuleville sukupolville.