Tekoälyn sorvaama synteettinen todellisuus haastaa luottamuksen
Vuosi 2023 saattaa jäädä historiaan tekoälyn lopullisena murrosaikana. Jos näin, niin itse aloitin sen osuvasti. Kirjauduin ensimmäisen kerran itse ChatGPT-palveluun uudenvuodenjuhlissa ihan vaan hassutellakseni. ChatGPT ja tekoälyteknologia, jota se edustaa, on kuitenkin kaukana hassuttelusta. Verkko on jo pullollaan melko mykistäviä esimerkkejä siitä, kuinka tekoäly tuottaa liukuhihnalta vakuuttavaa tekstiä, analyysejä, kuvia,
Vuosi 2023 saattaa jäädä historiaan tekoälyn lopullisena murrosaikana. Jos näin, niin itse aloitin sen osuvasti. Kirjauduin ensimmäisen kerran itse ChatGPT-palveluun uudenvuodenjuhlissa ihan vaan hassutellakseni.
ChatGPT ja tekoälyteknologia, jota se edustaa, on kuitenkin kaukana hassuttelusta. Verkko on jo pullollaan melko mykistäviä esimerkkejä siitä, kuinka tekoäly tuottaa liukuhihnalta vakuuttavaa tekstiä, analyysejä, kuvia, videota, puhetta tai vaikka ohjelmistokoodia tai diagnooseja.
Mukana on tietysti myös paljon virheitä. Teknologian kehittyessä niitä on kuitenkin koko ajan vähemmän ja ne ovat maallikolle vaikeammin havaittavia. Ja vaikka ChatGPT on periaatteessa “vain” kielimalli, alkaa sen taustalla olevan GPT-mallin uusin kehitysversio GPT-4 ainakin Microsoftin tutkijoiden mukaan osoittaa merkkejä niin sanotusta yleistekoälystä, tekoälykehityksen Graalin maljasta.
Yleistekoäly (AGI – artificial general intelligence) olisi tekoäly, jolle voi antaa minkä tahansa älyllisen tehtävän ihmisen tapaan. Se olisi siis yleisälykäs ilman riippuvuutta kontekstista tai selkeistä rajoista. Kun GPT-4:n tuotoksia suhteessa syötteisiin katsoo, aletaan tällaista tosiaan vähintäänkin lähestyä. Yleisälykkyyden määrittely ei toki lopulta ole aivan yksioikoista. Joka tapauksessa jonkinlainen AGI yhdistettynä itsenäiseen kykyyn manipuloida fysikaalista todellisuutta robotiikan avulla olisi sitten jo melkoista todeksi tullutta scifiä. Siitä ei välttämättä olla kovin kaukana.
Vaikka kehitys loppuisi nyt kuin seinään, ovat generatiiviset tekoälymallit jo nyt saavuttaneet tason, joka tietää mullistuksia työhön, talouteen ja laajemmin yhteiskuntaan. Avain tässä on niiden yleiskäyttöisyys, kuten Juho Salmi tekstissään kuvaa. Niitä voi hyödyntää työssä kuin työssä ilman, että itse teknologiasta täytyisi ymmärtää juuri mitään. Oma haasteensa on toki laadunvalvonta. Minä voin kyllä ladella diagnooseja GPT:n avulla, ja ne osuisivat pääosin oikeaan. Ilman lääkärin koulutusta en kuitenkaan itse osaa sanoa, mitkä menevät pieleen. Ihmisetkin tekevät virheitä, mutta tekoälyn virheellisyys ja väärinkäyttö voi skaalautua aivan eri tavalla.
Tekoäly työn tukena ja todellisuuksien eriyttäjänä
Tekoälyteknologia on nyt kehittynyt paljon nopeammin kuin sen soveltaminen talouden eri sektoreilla. Käynnissä ja edessä on suuri murros, ja vastuullisena “tukiälynä” tekoälytyökalut mahdollistavat huimia tuottavuusloikkia. Tällainen tietotyötä tukeva toiminta on jo teknologian pioneereille arkea, ja yleistyy vauhdilla. Näitä käyttökohteita on lyhyenkin GPT-tuokion jälkeen sinänsä helppo keksiä. Voisin poliitikkona vaikkapa pyytää tekoälyltä 10 mainoslausetta verkkomainoksiin ja antaa algoritmien löytää parhaan sen sijaan, että värkkäisin kaiken tuon itse.
Työn murros tuo mukanaan aina myös yhteiskunnallisia muutoksia, usein jännitteitäkin. Se ei kuitenkaan itseäni vielä suuresti huoleta. Se, mikä kuumottaa, on tekoälykehityksen yhdistyminen sosiaaliseen mediaan ja sosiaalisen median alustojen ansaintalogiikkaan.
Tämän päivän somealustojen ydinbisnestä on kerätä huomiota ja koukuttaa käyttöön. Siinä onnistuminen edellyttää vetoamista tunteisiin, ja algoritmeista onkin tullut varsin hyviä muodostamaan kuvan siitä, millaisella sisällöllä juuri sinun huomiosi saadaan ja miten tunteita manipuloidaan. Alustan ei tarvitse tehdä sinua onnellisemmaksi tai olla sen kummemmin hyödyksi – riittää, että se saa huomiosi ja saa pidettyä siitä kiinni. Kiinalainen TikTok lienee tässä paras.
Nykyisenkaltainen muiden käyttäjien tuottaman sisällön valikointi ja tarjoaminen räätälöidysti on itsessään ruokkinut yhteiskunnallisia jännitteitä ja sitä on hyödynnetty myös poliittisesti. Kun kohdentamisen ja tehokkaan tunteisiin vetoamisen yhdistää kykyyn generoida loputtomasti kullekin käyttäjälle räätälöityä aidosta menevää teksti-, kuva-, video- ja äänisisältöä ja jopa keinotekoisia persoonia niin käsillä on aika pelottava teknologiapaletti sille, joka haluaa suoran kaistan ihmisen psykologiaan. Olivat intressit sitten kaupallisia tai poliittisia, tällainen valta huolestuttaa.
Todella iso osa todellisuudestamme muodostuu nyt digitaalisten palveluiden välityksellä, jotka ovat jo nykyisellään kohdennetusti räätälöityjä. Minun Hesarin etusivuni ei näytä samalta kuin omasi, somesyötteistä puhumattakaan. Ne ovat kuitenkin ainakin periaatteessa vain erilaisia ikkunoita samaan todellisuuteen. Generatiivisen tekoälyn avulla voi puolestaan luoda ruudun välityksellä jokaiselle oman synteettisen todellisuutensa ilman, että käyttäjällä on välttämättä järjellisiä mahdollisuuksia erottaa keinotekoisuuden rajoja.
Erityisen kuumottavaa on se, että tämän voisi teknologisesti tehdä aivan uskottavan tuntuisten ihmiskontaktien kautta, mutta kontaktit ovatkin todellisuudessa generatiivisen tekoälyn sorvaamia. Toistaiseksi somejen botit ja feikit kaatuvat nopeasti kömpelyyteensä, mutteivät välttämättä kauaa. Eikä keinotekoisuus tarkoita kelpaamattomuutta. Omiin mieltymyksiin räätälöity tekoälyn generoima seura voi olla aitoja ihmiskontakteja vetävämpää, vaikka se keinotekoiseksi tiedettäisiinkin. Seurustelu tekoälyn kanssa ei itse asiassa ole enää fiktiota.
Historioitsija Yuval Noah Harari onkin kuvannut tarinankerronnassa ja koetun todellisuuden luomisessa ihmisen itsensä päihittävän tekoälyn “hakkeroivan ihmiskunnan käyttöjärjestelmän”. Harari olikin mukana tuhansien liike-elämän vaikuttajien ja tutkijoiden avoimessa kirjeessä, jossa vaadittiin ainakin puolen vuoden taukoa kehittyneimpien tekoälymallien kehittämiseen.
Demokratia kuskin paikalle ja päättäjät kursseille
Toimivan demokratian ja vakaan yhteiskunnan pohja on lopulta ihmisten välinen luottamus ja aktiivinen osallistuminen. En oikein tiedä, mitä todellisuuksien eriyttäminen sille tekee, mutta tuskin ainakaan hyvää.
Murrosteknologioiden tulevaisuudella spekulointi voi helposti mennä pieleen, eikä tämäkään kolumni välttämättä vanhene hyvin. Voi olla, että nämä huolet osoittautuvat vääriksi tai täysin turhiksi. Olisi kuitenkin parempi katsoa kuin katua. Teknologian kehitystä ei voi eikä kannatakaan yrittää pysäyttää kokonaan, mutta näin tärkeän ja potentiaalisesti erittäin vaarallisen teknologian edessä yhteiset pelisäännöt, avoimuus sekä demokraattisen kontrollin ja itsemääräämisoikeuden vahvistaminen olisivat kiireellä tarpeen. Tässä esimerkiksi EU:n digimarkkinasäädöksen ja tekoälysäädöksen kaltaiset työkalut ovat tärkeässä roolissa.
Kehityksen vauhtiin ja merkittävyyteen nähden eduskuntavaaleissa puhuttiin tekoälystä vielä kovin vähän, eikä aihe tai tieto- ja teknologiapolitiikka ollut esimerkiksi kokoomuksen hallitustunnustelukysymyksissä lainkaan esillä. Nyt päättäjillä on kuitenkin kova työ pysyä teknologisen kehityksen perässä – ja suuri vastuu siitä, että demokratia ja ihmisyys ylipäänsä olisi murroksessa kuskin paikalla.
Haaste on iso. Jotta siinä onnistutaan, on parempi ja laajempi ymmärrys tekoälyteknologian luonteesta, riskeistä ja mahdollisuuksista päättäjien parissa tarpeen. En pistäisi pahaksi, jos päättäjiä kutsuttaisiin valtakunnallisten maanpuolustuskurssien tapaan perehtymään murrosteknologioihin ja tekoälyyn.
Omassa käytössäni ChatGPT on muuttunut hassuttelusta käytännön työkaluksi. Arkisen käytön lomassa pohdin, millainen voima pullosta on jo päässyt, ja saako sitä enää sinne takaisin. Se on kaukana hassuttelusta.