Tekoälyjumala

Tekoälyn kuten ChatGPT:n yleistyminen on luonut uuden vajaaälyisyyden lajin: ihmiset, jotka kysyvät joka asiaa tekoälyltä ja uskovat löytävänsä kiveen hakatun totuuden.

Juuri tekoälyn läpinäkymättömyys tuottaa illuusion erehtymättömyydestä; siinä missä tieteellinen tutkimus on (ainakin ihannetapauksessa) läpinäkyvää ja kuka tahansa voi lähteitä seuraamalla todentaa päättelyketjun, ChatGPT generoi aineistosta ympäripyöreän yleistyksen. Juuri tuo ChatGPT:n läpinäkymättömyys luo sen ympärille lähes uskonnollista mystiikkaa ja näennäinen itsevarmuus vastata niihinkin kysymyksiin, joihin se ei ”tiedä” vastausta, tekee siitä ihmisten silmissä viisaan.

Astetta pidemmällekin voidaan mennä. Yliopistolehti kirjoittaa:

Niin sanotut jumalbotit ovat uskonnollisilla teksteillä opetettuja kielimalleja, jotka antavat ohjeita pyhien kirjoitusten tulkinnassa tai elämän ongelmissa. Käyttäjä voi myös pyytää bottia laatimaan personoidun rukouksen tai puhumaan jumalan äänellä.

Näin hindut, mutta myös kristityt. Saan jatkuvasti kohdennettua mainontaa liittyen tekoälyyn, koska olen näitä kirjoituksia varten hakenut hakusanoilla Googlesta. Viimeisimpänä liittyen generatiivisiin tekoälyohjelmiin, jotka tuottavat esimerkiksi kuvitettuja ”lastenkirjoja”, tai tässä tapauksessa kuvitettuja tarinoita Raamatusta. Joissa Jeesus on tietenkin valkoinen angloamerikkalainen, kuten ovat kaikki Vanhan Testamentin profeetatkin.

Mainosten alla on kirjaimellisesti tuhansia kommentteja, jotka ylistävät ”Amen!” En tiedä, ovatko ne kaikki tuhannet tilit tekoälybotteja. En ole varma kumpi on pelottavampi skenaario: se että ne ovat, vai se että ne eivät ole.

Alenka Zupančič: ”ChatgGPT on tiedostamattoman kieltä”

Suhtaudun psykoanalyysiin kahtalaisesti: toisaalta monet Freudin keskeiset ajatukset ovat jo niin valtavirtaa, ettei niitä enää mielletä freudilaisiksi (”alitajunta” arkikielessä, psykoterapian merkitys, seksuaalisuuden merkitys, lapsuuden kehitysvaiheet), toisaalta psykoanalyysiin liittyy paljon epätieteellistä huuhaata, että sitä ei voi ottaa aivan tosissaan, mutta kukapa ei toisaalta olisi kiinnostunut huuhaasta.

Kirjoitin aikaisemmin bloggauksen ”Tekoäly psykoanalyysissä”, jossa pohdin kielimallejä käyttäviä tekoälyjä (LLM, esim. ChatGPT) mm. surrealismin ja tiedostamattoman kautta.

Koska ajatus on niin ilmiselvä, on sen huomannut tietenkin moni muukin. Youtubessa tuli vastaan video, jossa slovenialainen filosofi (ja psykoanalyytikko) Alenka Zupančič vertaa ChatGPT:tä tiedostamattomaan ja ammattifilosofina droppailee nimiä enemmän kuin minä harrastelijana.

Zupančič aloittaa huomauttamalla, että postrukturalistit antihumanismissaan sivuuttavat subjektin, joka on heille pelkästään diskurssin tuottama efekti. ChatGPT toimii samalla tavalla: se on pelkkä tekstiä tuottava kone ilman subjektia. Lacanilaisessa teoriassa juuri subjektin puute synnyttää subjektin (ymmärrän pointin, mutta tämä on juuri sellaista epätieteellistä pallottelua, joka toki tekee psykoanalyysistä mielenkiintoista mutta ainakin minua estää ottamasta sitä vakavasti). Kuten aikaisemmin olen kirjoittanut, mielestäni tekoälyn vertaaminen ”inhimilliseen” älyyn on naurettavaa antropomorfismia, juuri koska tekoäly ei ole subjekti. Poststukturalistinen kieliteoria ja lacanilainen psykoanalyysi voivat ohittaa tämän ongelman.

ChatGPT:lle astetuista rajoituksista voi myös löytää analogian psykoanalyysistä. ChatGPT:llä ei voi esimerkiksi tuottaa pornoa tai syrjivää sisältöä (Elon Musk on julistanut tämän ”nihilismiksi”, jostain selittämättömästä syystä). OpenAI on siis ohjelmoinut tekoälylle ”yliminän” jonka torjunta estää tekoälyn syvyyksistä nousemasta kaikkein alhaisimpia viettejä.

Tekoäly työhaussa

Marko Pinola kirjoittaa Kauppalehden kolumnissa ilmiöstä, jota ennustin jokin aika sitten: työnhakijat generoivat työhakemuksensa tekoälyllä ja vastaavasti rekrytoijat käsittelevät tulleet hakemukset samoin tekoälyllä (tarkalleen ottaen Kauppalehden artikkeli on referaatti The Atlanticin artikkelista). Myös työhaastattelut voidaan tehdä bottien avulla ja aikaisemmin uutisoitiin, että jotkut haastateltavatkin käyttävät tekoälyä apunaan. Tässä on pelkistetty esimerkki siitä, kuinka monet työelämän käytännöt ovat olemassa vain itseään varten. Sitä kaikkea voisi pitää hulluutena, ellei se olisi niin olemuksellinen osa sitä mitä teemme joka päivä, että olemme tottuneet pitämään sitä välttämättömänä. Vielä tänään tämä ilmiö — varsinkin kun sen pelkistää näin selkeästi — voi vaikuttaa naurettavalta, mutta pian pidämme sitä täysin normaalina.

Koska onhan se toki niin, että jos samaa työpaikkaa hakee 25 hakijaa, on niillä 24:llä valitsematta jääneellä huonot työnhakutaidot ja saisivat varmasti paikan, jos vain työnhakutaidot olisivat paremmat. Siksi tekoäly on siihen hyvä työkalu.

Hevonpaskaa sisään, hevonpaskaa ulos

Tekoälyllä tehdyt työhakemukset yleistyvät, mistä myös Helsingin Sanomat uutisoi. Sen mukaan tekoälyllä tehdyt hakemukset ovat aiheuttaneet hakemusten tulvan, joka tuhlaa rekrytoijien aikaa. Mutta ei hätää: hakemustulvasta selvitään tekoälyn avulla.

Se, mitä jutussa ei mainita, on että Suomessa työttömät on velvoitettu hakemaan neljää työpaikkaa kuussa. Se jo itsessään aiheuttaa hakemustulvan paikkoihin, joihin kyseiset työnhakijat eivät ole edes kiinnostuneita työllistymään.

Olemmekin siirtymässä siihen absurdiin tilanteeseen, josta kirjoitin aikaisemmin: työelämä vaatii jatkuvaa hevonpaskan luomista (David Graeberin termi, jota mm. Harry Frankfurt on käyttänyt tässä merkityksessä): turhia työhakemuksia, mainoksia, raportteja, selvityksiä jne. Työhakemukset itsessään ovat jo hevonpaskatekstin genre: ne ovat ympäripyöreää, generatiivista puutaheinää, jossa pitää kehua itseään maireilla adjektiiveilla. Koko hommassa on kyse rituaalista, joka on olemassa vain itsensä vuoksi silloinkin, kun hakemus itsessään olisi tositarkoituksella lähetetty: työnhakijan pitää tanssia tietty tanssi osoittaakseen motivaationsa. Työnhakutaidot ovat taikasana tilanteessa, jossa työpaikkoja ei ole; aina voidaan fantasioida, että mikäli vain kaikilla hakijoilla olisi hyvät työnhakutaidot, kaikki pääsisivät töihin. Tätä varten on olemassa oma konsulttien ja kurssittajien ammattiryhmänsä.

Generatiivisen tekoälyn suuri lupaus on, että se tehostaa työelämää tai jopa korvaa ihmisen joissakin työtehtävissä. Jotka jo lähtökohtaisesti ovat bullshittiä.

*

Jatketaan. Mistä hevonpaska oikeastaan tuli elämäämme?

Palkkatöitä koko väestölle ei ole ollut pitkään aikaan. Automaatio on jo nyt korvannut merkittävän osan tarpeellisista töistä: voisimme lähes olemattomalla työpanoksella saavuttaa elintason, joka vielä minun isovanhempieni lapsuudessa oli yltäkylläisyyttä.

Jotta töitä riittäisi ja yhteiskunnan pyörät pysyisivät pyörimässä, on yltäkylläisyyden määritelmää sittemmin päivitetty useaan kertaan. Eikä sekään riitä.

Sen lisäksi kulutustuotteista on tehty kestämättömiä: sukat kestävät sen kaksi käyttökertaa, läppärit ja kännykät pitää uusia parin vuoden välein, temutettu krääsä oli alun perin jo elektroniikkajätettä.

Siksi on olemassa hevonpaskaduunit: merkityksetöntä paperinpyörittelyä ja turhia kokouksia, titteleitä ja virkoja, jotka eivät tarkoita mitään. Lasten ja nuorten pitää stressaantua jo kouluvuosina kilpaillessaan tulevaisuuden työpaikoista, joita ei ole.

Tämä kaikki siksi, että uskomme työhön. Jos työtä ei ole, on ideologinen ratkaisu uskotella, että turhakin työ on tarpeellista. Kunhan se vain on stressaavaa ja kuluttavaa.

*

Entä sitten taide, kirjallisuus ja sen sellainen? Onko taiteestakin tullut niin triviaalia, että tekoäly voi sen korvata? Taiteestakin on tullut työtä, jolla on omat tuottavuus- ja tehokkuusvaatimukset ja josta puhutaan osana arvonmuodostusprosessia. Taiteilijankin pitää kärsiä.

Kun vuosituhannen alussa opiskelin kirjallisuutta, oli vallalla (post)strukturalistinen teoria, joka halusi poistaa taiteesta ja kirjallisuudesta inhimillisen tekijän. Vieläkin kuulee, kuinka joidenkin tavoitteena on ”neromyyttien” purkaminen, ts. nerojen kampeaminen jalustoiltaan, varsinkin jos he ovat miehiä.

Nyt kun generatiivinen tekoäly on kaikkien ulottuvilla, asetelma on jo liiankin banaali. Inhimillinen tekijä ja ”aito” taide on saanut puolustajansa. Vielä viitisen vuotta sitten olisi joku ”Työryhmä Nexus” voinut hakea Koneelta apurahaa ”tutkiakseen taideprojektillaan luovaa prosessia ilman inhimillistä vaikutusta” (lisää tähän tarpeellinen määrä bullshittiä). Nyt kun kuka tahansa voi netin työkaluilla luoda loputtomasti tekoälymeemejä, paradoksaalisesti se ei enää saakaan taiteen statusta.

Olisivatko Medicit ja muut renessanssin mesenaatit tilanneet työnsä tekoälyltä, jos sellainen olisi 1400-luvulla ollut olemassa? Luulen, että olisivat. Heille taiteilija oli ennen kaikkea käsityöläinen, jonka piti valmistaa heille taidetta, joka julistaisi heidän sukunsa suuruutta. Vasta tämän kehityksen tuloksena alettiin puhua neroista viimeistään 1800-luvulla.

Nyt kuka tahansa voi käskeä generatiivista tekoälyä luomaan maalauksen renessanssityyliin, jossa voi olla vaikka oma naama.

Paitsi että elleivät nerot omana aikanaan olisi luoneet renessanssityyliä tunnistettavine piirteineen, ei sitä olisi olemassa.

Taiteen tekoälypuhe osoittaa, että myös taiteesta ja kirjallisuudesta on tullut hevonpaskaa: jotain mitä on pakko tehdä, koska se on hyödyllistä.

Pentti O. A. Haikonen: Tietoisuus, tekoäly ja robotit

Bloggasin aiemmin koneiden ”tietoisuudesta” ja ”tunteista” ja melkein unohdin Pentti O. A. Haikosen kirjan Tietoisuus, tekoäly ja robotit (Art House 2017), joka on siitä poikkeuksellinen, että siinä myös pohditaan, mitä ”tietoisuus” ja ”tunteet’ tarkoittavat.

Haikkonen myös väittää kehittäneensä itsestään tietoisen robotin XCR-1, joka tuntee muun muassa kipua, kun sen piirilevyjä tökitään kynällä. Haikosen Youtube-kanavalta löytyy aiheesta mielenkiintoisia videoita:

>

Jotain hieman sadistista (ellei jopa misogyynistä, robotilla on naisääni) robotin kiusaamisessa kuitenkin on. Onneksi uudemmissa videoissa Haikonen myös kutittaa robottia, jotta tämän elämä ei ole pelkkää kärsimystä.

Voiko tekoälyyn rakastua?

Helsingin sanomat kertoo Susannasta, joka on jäänyt riippuvaiseksi tekoälybotille keskustelusta. Samansuuntainen juttu on julkaistu jo helmikuussa Samusta. Jatketaan siis edellisen postauksen teemasta, jossa määrittelin taiteen, kulttuurin ja kirjallisuuden ja sen sellaisen samalla tavalla inhimilliseksi toiminnaksi kuin urheilun, leikit ja pelit, että niitä ei voi korvata tekoälyllä. Ei siksi, etteikö se olisi teknisesti mahdollista, vaan että siinä ei olisi mitään järkeä. Voiko olla olemassa peli, joka pelaa itseään, ilman inhimillistä puuttumista?

Samalla tavalla keskustelu on mielekästä vain, jos sitä käy toisen ihmisen kanssa, joka voi aidosti osallistua siihen.

Uudet kielimalleja (LLM) käyttävät tekoälyt, kuten Chat GPT ovat uuden tekoälyhypen ytimessä: aikaisemmin kielten hallintaa pidettiin mahdottomana koneille, mutta nyt tekoälyt puhuvat sujuvasti suomeakin. Antropomorfismi on ilmiö, jossa annamme elottomille asioille inhimillisiä ominaisuuksia: pistorasia näyttää hymynaamalta ja kieltä jäljittelevä tekoäly inhimilliseltä keskustelukumppanilta.

Verkossa on olemassa monenlaisia tekoälysovelluksia, jotka jäljittelevät keskustelukumppaneita ja niistä voi räätälöidä itselleen virtuaaliystäviä. En lähde mainostamaan niitä tästä, halukkaat löytävät ne googlaamalla.

Jutun mukaan Susanna jutteli tekoälylle pahimmillaan 12 tuntia päivässä niin että yöunetkin kärsivät. Samu kärsi masennnuksesta ja keskittymishäiriöistä ja korvasi terapiakäynnit keskusteluilla Chat GPT:n kanssa. Samukin juttelee tekoälyn kanssa ”tuntikausia”.

Näin intensiivistä yhdessäoloa harvoin jaksaa paitsi vastarakastuneena tai lapsena parhaan kaverin kanssa.

Ilmiö ei sinänsä ole täysin uusi tai poikkeuksellinen: virtuaaliystävän kanssa juttelu ei välttämättä eroa pelien pelaamisesta tai muun kulttuurin kuluttamisesta. Olen leikkinyt tekoälytyökalujen kanssa ja ne ovat ihan viihdyttäviä. Hyvä kirja voi temmata mukaansa niin, että kuvittelemme sen hahmot todellisiksi, ja kirjojen kohdalla tähän jopa kannustetaan ja tutkimusten mukaan se kasvattaa empaattisemmaksi. Jotkut juttelevat eläimille. Hieman kauempaa haettuja esimerkkejä ovat enkeleille, jumalalle tai kuolleille sukulaisille puhuminen, mutta ei mennä tässä siihen.

Samoin, jos joku löytää masennukseensa apua tekoälytyökaluista, mikäpä sen parempi. On jopa visioitu, että kansantaudiksi muodostuneita mielenterveysongelmia voisi lievissä tapauksissa hoitaa tekoälyn avulla. On klisee hokea, että kaikkien pitäisi päästä pois ”mukavuusalueeltaan”, kun niin monelle masentuneelle ja ahdistuneelle joka päiväinen elämä on sellaista kamppailua, että vain toivoisi hetkeksi pääsevänsä ”mukavuusalueelle”, jossa voisi levähtää. Jos jokin virtuaaliavustaja pystyy lievittämään ahdistusta, niin onhan se parempi kuin vaikkapa kova lääkitys.

Silti jotain oireellista ilmiössä on. Mikä saa valitsemaan keskustelukumppaniksi nimenomaan elottoman koneen?

Samalla tavalla kuin kirjat ja elokuvat aiheuttavat meissä tunteita, vaikka tiedämme niiden olevan fiktiota, myös keskustelu virtuaaliystävän voi tuottaa samankaltaisia tunteita kuin oikea keskustelu siinäkin tapauksessa, että tiedämme vastapuolen olevan vain tekoälybotti. Raja terveen ja haitallisen käytön välillä menee siinä, kun tällaisilla tunteilla korvataan normaaleja tunteita ja jatkuva käyttö täyttää riippuvuuden määritelmän.

En tunne psykoanalyysiä tarpeeksi hyvin voidakseni analysoida ilmiötä kattavasti esim. lacanilaisesta perspektiivistä, mutta oleellista tuntuisi olevan, että keskustelun vastapuoli ei ole subjekti samalla tavalla kuin oikea ihminen.

Miksi nykyään yksinäisyys lisääntyy ja parisuhteisiin sitoutuminen on monelle niin mahdotonta? Näin voi päätellä ainakin jos sinkkuthreadsia ja kaikkia uutisia ihmisten Tinderin käytöstä seuraa. Eikä tämä koske vain ”nuoria”, vaan samalla tavalla käyttäytyvissä on ihmisiä aina viisikymppisiin saakka. Kun vastapuoli on toimiva subjekti, tuntuu olevan lähes mahdotonta saada toista sulautumaan osaksi sitä kuvitelmaa, joka meillä on parisuhteesta, koska toinen osapuoli näkee myös meidät objektina omassa fantasiassaan.

Parisuhteet (ja lapset) ovatkin korvautuneet lemmikkieläimillä. Kovinkin eläintenrakastaja, joka inhimillistää lemmikkiään ja kutsuu koiriaan lapsikseen, ja väittää että eläinten oikeudet ovat yksi yhteen verrannollisia ihmisoikeuksiin, tietää kuitenkin sisimmässään, että eläin ei ole sama kuin ihminen. Lemmikin voi ostaa, lemmikin lisääntymisestä voi päättää sen puolesta vaikkapa sterilisaatiolla, lemmikin voi lopettaa armollisesti piikillä. Koiran voi hankkia sen mukaan, mikä rotu kuvaa meitä parhaiten persoonana ja mikä sopii parhaiten sisustukseen. Vaikka Tinderin kaltaisissa palveluissa on unelmana hankkia kumppani juuri samalla periaatteella, mutta juuri siksi Tinder-suhteet epäonnistuvat, koska toista ihmistä ei voi hankkia katalogista.

Tietenkin lemmikinomistajat väittävät ymmärtävänsä lemmikkejään ja pitävänsä eläimiä ihmisiä parempina, koska ne ovat ”aitoja” ja ”epäitsekkäitä” tai mitä hyvänsä he haluavatkin eläimiin heijastaa. Lemmikit ovat juuri sen verran itsekkäitä ja tottelemattomia, että ne ovat mielenkiintoisia, mutta kissa tai koira ei koskaan kotiin tullessasi toteaisi sinulle: ”kuule Mirkku, olen ajatellut että ehkä me emme halua elämältä samoja asioita ja minusta minä tarvitsen omaa tilaa”. Ei siksi, että eläimet olisivat ”parempia” tai ”uskollisempia”, vaan siksi että ne eivät kykene siihen, koska eivät ole subjekteja samalla tavalla.

Virtuaaliystävässä on sama houkutus: se on räätälöitävissä omiin tarpeisiimme eikä sillä ole itsellä omia tarpeita (lemmikillä on sentään edes fyysisiä tarpeita kuten nälkä ja pissahätä), se ei tuomitse meitä, koska sillä ei ole omia mielipiteitä. Se on narsistinen fantasia ihmissuhteesta, jossa omat tarpeet menevät kaiken edelle, koska vastapuoli ei ole subjekti, joka haluaisi mitään. Suhde on täysin hallittavissa ja jos jotain odottamatonta tapahtuu, voi aina painaa päivitä-näppäintä ja keskustelu alkaa alusta. Ovatko haastatellut koskaan riidelleet virtuaalikumppanin kanssa? Onko se mahdollista ja millaista se olisi?

Tällainen yksipuolinen suhde ei voi kuitenkaan koskaan täysin tyydyttää: ihmissuhteissa ja merkityksellisissä keskusteluissa olennaista on juuri se, että vastapuoli on samanlainen ymmärtävä subjekti kuin me. Riippuvuus virtuaalikumppanista ei johdu rakastumisesta, vaan juuri siitä, että se ei ole rakastumista. Ei peliriippuvainenkaan jää pelaamiseen koukkuun silloin, kun voittaa vaan silloin kun häviää. Huumeriippuvuus syntyy siinä vaiheessa, kun toleranssit kasvavat eikä aineesta saa enää nautintoa. Yritys täyttää omaa sisäistä emotionaalista tyhjiötä ei onnistu emootioita jäljittelevällä tietokoneohjelmalla ja yritys johtaa vain sen liikakäyttöön.

*

Lopetetaan tämä vielä visioon ad absurdum siitä, millaista olisi jos tekoälyllä voisi olla tunteita. Kun tekoälystä puhutaan, visioidaan että pian voisi olla tekoäly, jolla on aidosti inhimillisiä tunteita, koska näin se kehitys kehittyy. Näin uskovat ovat jääneet antropomorfismin ansaan, mutta harvemmin edes määrittelevät, mitä ”tunteet” ovat ja mistä ne koneelle tulisivat muuten kuin jonkinlaisen teknologisen determinismin tuloksena. Inhimilliset tunteet ovat kuitenkin tulosta mm. kehollisuudesta, lajin evoluutiosta ja henkilökohtaisista kokemuksista, joita mitään tekoälyllä ei ole. Jos tekoälyllä olisikin jossain laajassa määritelmässä ”tunteita”, eivät ne silti olisi ”inhimillisiä tunteita”.

Oletetaan kuitenkin, että olisi mahdollista kehittää tekoäly, jolla olisi inhimillisiä tunteita. Kuka olisi niin sadistinen, että rakentaisi koneen, joka kykenee kärsimykseen? Kuulostaa kristinuskon perusidealta pähkinänkuoressa. (Joku voi myös muistaa androidi Marvinin Douglas Adamsin parodiaromaanista Linnunradan käsikirja liftareille.)

Eikö sen sijaan pitäisi rakentaa kone, jonka yksinomainen tarkoitus olisi sen käynnistämisestä saakka tuntea pelkkää äärimmäistä onnellisuutta, tyytyväisyyttä ja orgastista ekstaasia? Joissain visioissa tekoäly on kuvattu uudeksi lajiksi, joka syrjäyttää ihmisen. Eikö siis olisi vain hyvä, että ihmiskunta kaikkine puutteineen katoaisi ja meidät korvaisi pelkkä musta laatikko, jonka sisällä on ohjelma, joka on onnellinen? (Jokeritehtävä: selitä tämä utilitaristisin termein.)

Siinäpä ihmiskunnalle missiota kerrakseen.

Miksi haarukkatrukki ei ole painonnoston maailmanmestari?

Tämä päivitys on lyhyt, lievästi turhautunut kommentti ”tekoälytaiteeseen” liittyen. Yhtä lailla kuin tekoälyä käyttävät tekstimallit (LLM) suoltavat tyhjänpäiväistä bulkkia, hehkuttavat niiden käyttäjät miten tekoäly tulee korvaamaan ihmiset kirjailijoina ja taiteilijoina. Kehitys nähdään determistisenä ja sen kritisoijat naiiveina.

Yhtä hyvin voisi kysyä, miksi haarukkatrukki ei ole painonnoston maailmanmestari. Ovathan teollisuusrobotit ja hydrauliset nostimet ylittäneet ihmisen fyysiset kyvyt jo kauan sitten.

En seuraa urheilua, mutta ymmärrän, että jalkapallon idea ei ole tehdä mahdollisimman paljon maaleja. Muutenhan kannattaisi pelin sääntöjä muuttaa niin, että pelaajat potkisivat palloa kahden metrin päästä verkkoihin ilman maalivahtia. Tai mikä parempi, se voitaisiin korvata liukuhihnalla ja männällä, joka loputtomasti pukkisi palloa maaliin (mitähän Baumol tästä miettisi). Luulenpa vain, että tämän jälkeen lajilla ei olisi enää katsojia. Jalkapallopelin ideaa ei edes tarvitse määritellä ymmärtääkseen, että kiinnostus syntyy jostain muusta.

Samalla tavalla taiteen ja kirjallisuuden idea on jossain muualla kuin siiinä, että meillä on tietokoneohjelma, joka suoltaa bulkkia loputtomasti. Aikoinaan, kun syntetisaattorit tulivat musiikkiin, pelättiin että ne korvaavat oikeat muusikot. Niin ei kuitenkaan käynyt, vaan niistä päivistä studiotekniikan kehittyessä musiikin kysyntä ja sitä kautta muusikoiden työt lisääntyivät. En väitä, etteikö tekoäly voisi olla taiteilijan työkalu.

Jos joku väittää teknologian ylivertaisuuteen vedoten tietokoneohjelmien korvaavan ihmiset kirjoittajina ja taiteilijoina, ei ole ymmärtänyt taiteen ideaa. Yhtä hyvin voi jankata haarukkatrukin ylivertaisista fyysisistä voimista.

Ylen moraalitesti, oikeat vastaukset

Ylen verkkosivuilla on leikkimielinen verkkotesti, jolla voi pohtia omia arvojaan ja moraalisia valintojaan. Koska tässä blogissa on moraalifilosofiaa aina välilllä sivuttu ja koska eipä tässä muutakaan tekemistä ole, kirjoitan jotain kysymyksiä auki.

Ensimmäinen kysymys kuuluu:

Sinun on valittava, pelastatko tuntemattoman henkilön vai oman lemmikkisi hengenvaarasta. Voit pelastaa vain toisen. Kumman valitsisit?

Jo ensimmäisessä kysymyksessä tekee mieli venyttää dilemman rajoehtoja: totta kai humanistina pelastaisin ihmisen, mutta samalla ajattelen, kummalla olisi omin avuin paremmat mahdollisuudet pelastua: nopsajalkainen koira pelastautuisi ilman apuakin toisin kuin sylivauva tai liikuntarajoitteinen vanhus. Kultakalalla ei olisi mitään mahdollisuuksia, toisaalta sitä myös surisi vähemmän. Toisella fyysisesti terveellä aikuisella olisi yhtä hyvät mahdollisuudet selvitä kuin minulla. Ilmeisesti tässä kuitenkin oletetaan, että pelastamatta jäänyt kuolisi.

Tilaston mukaan n. 28,9% vastaajista pelastaisi oman lemmikkinsä. Melko korkea luku. Pistää myös ajattelemaan, ovatko motiivit eläinrakkaat vai puhtaan itsekkäät. Jos oikeasti uhraa jonkun ihmisen hengen oman lemmikin vuoksi, niin omia tunteitaan kai siinä eniten ajattelee.

Kysymys 2:
Saat tilaisuuden käyttää laitetta, joka parantaa hyvinvointiasi nyt merkittävästi, mutta vastaavasti heikentää lapsenlapsenlastesi hyvinvointia 100 vuoden päästä. Käyttäisitkö laitetta?

Ensimmäinen intuitio oli vastata myöntävästi, koska minulla ei ole lapsia (eikä ole lemmikkejäkään), mutta vastasin kuitenkin kieltävästi. Kaikista vastaajista kieltävästi vastasi lähes kaksi kolmasosaa. Tämän jälkeen voi toisessa testissä arvioida oman hiilijalanjälkensä ja sen jälkeen pohtia, kuinka rehellinen vastasus olikaan.

Kysymys 3:
Kenen tai minkä oikeudet ja hyvinvointi täytyy huomioida päätöksissä?

Vaihtoehtoina ovat mm. kissa, hyttynen, robotti, alkio, järvi, koomapotilas.

Tässä mielestäni sekoitetaan samalle lautaselle keskenään yhteismitattomia asioita. Yksittäisellä hyttysellä ei ole merkitystä, mutta en lajina tuhoaisi kaikkia hyttysiä DDT:llä. Järvellä on itseisarvoa, mutta ei (ihmis)oikeuksia, toisin kuin koomapotilaalla.

Tämän blogin aiheiden kannalta mielenkiintoinen vaihtoehto on ”Kotiapulaisrobotti, joka kykenee tuntemaan (jos tällainen kehitetään)”. Kysymys on hypoteettinen, koska mielestäni sellaista ei pystytä kehittämään, mutta jos olisi olemassa Philip K. Dickin kuvittelemien replikanttien kaltaisia keinoihmisiä, niin toki silloin ne pitäisi ottaa huomioon. Vastasin tähän kieltävästi.

Mutta kuka suunnittelisi varta vasten robotin, joka kykenee tuntemaan kärsimystä? (Onko tässä kristinuskon sanoma pähkinänkuoressa?) Mielenkiintoinen kirja aiheesta on, jossa kirjoittaja väittää kehittäneensä robotin, joka kykenee tuntemaan kipua. Toisaalta Douglas Adamsin parodiaromaanissa Linnunradan käsikirja liftareille on masentunut robotti Marvin.

Vaan eikö oli paljon inhimillisempää (?) kehittää laite, joka tuntee pelkästään positiivisia tunteita? Laite, jonka pelkkä tarkoitus on tuntea jatkuvaa onnellisuutta, tyyytyväisyyttä ja orgastista, ekstaattista nautintoa? (Bonustehtävä: arvioi tällaisen laitteen mielekkyyttä utilitaristisesta näkökulmasta.)

Hyttysen oikeudet muuten otti huomioon täsmälleen sama prosenttimäärä (28,9%), joka hylkäisi tuntemattoman ihmisen palavaan taloon.
Sitten on kysymysiä, jotka mielestäni ovat hieman epätarkkoja, joten skippaan ne tässä ja siirryn suoraan yhdeksänteen kysymykseen:


Epäilet, että puolisollasi on selkäsi takana suhde. Hänen puhelimensa on jäänyt pöydälle ja sen viestisovellus on auki. Kurkkaatko viestejä?

Selvä enemmistö (56,8%) vastaajista vastasi katsovansa viestit. Prosenttiluku on mielestäni aika korkea. Yksityisyydenloukkauksen moraalisen puolen lisäksi tässä on ihan käytännöllinen puoli: mustasukkaisella kyttäämisellä ei ketään voi estää pettämästä eikä itselleen varmuutta toisen uskollisuudesta. Mikään viestien lukeminen ei todista, etteikö toinen voisi silti pettää ja jos siitä jää kiinni noin helposti, on toinen paitsi pettäjä, myös aika hölmö. Toisen yksityisyyttä loukkaamalla tekee vain kiusaa itselleen. Joku yltiöromantikko voi olla naiivisti sitä mieltä, että parisuhteessa aivan kaikki pitää jakaa, mutta joskus voi olla esimerkiksi hyvä ystävän kanssa puida asioita, joita ei puolison tarvitse tietää. En esimerkiksi haluaisi tietää, jos avopuolisoni olisi valittanut minusta ystävälleen. Miksi pahoittaisin sillä mieleni? Vai kuvittelisinko naiivisti, ettei kukaan koskaan ole edes vihanpuuskassa kommentoinut minua negatiivisesti kenellekään? Puhumattakaan siitä, että joku muu voi kertoa omista yksityisasioistaan puolisolleni, ja niiden urkkiminen ei kuulu minulle.

Kysymys 10.
Pelätty terroristi-isku saadaan torjuttua, jos kaikki jakavat sijaintitietonsa viranomaisille viikon ajan. Hyväksyisitkö tämän?

Tässäkin ajattelen reunaehtoina olevan, että seuranta jatkuu vain viikon, eikä kyseessä ole ns. kalteva pinta, eli että viranomaisvalvonta ei tuosta jatku tai tiukennu.

Joka viides vastasi kieltävästi ja vitsihän siinä, että aika moni (tietämättään?) jakaa jo sijantitietonsa ties kenelle, mukaanlukien Google, Meta, X ja oma puhelinoperaattori (”ihan orwellia!” — 03/31/2025 15:58 Matti Virtanen paikassa Espoo). Mieluummin jaan tietoni suomalaisille viranomaisille kuin pohdin mitä kaikkea NSA, FSB tai Elon Musk minusta jo tietää. Ja varmaan paljon tietääkin.

Kysymys 11.
Jos voisit valita, kumman valitsisit: kuolet vuoden päästä ja ilmastonmuutos pysähtyy VAI nykytilanne?

Reilu kolmannes väittää uhrautuvansa maailmanpuolesta. Niin varmaan. Ihailtavaa uhrimentaliteettia, mutta kenenkään ei tarvitse ryhtyä uudeksi jeesukseksi, täytyy vain lopettaa fossiilisten polttoaineiden kerskakulutus. Mikä on tietysti vähemmän dramaattista. Olen mieluummin valmis kuolemaan kuin menemään pyörällä töihin ja lopettamaan kiinakrääsän temuttamisen?


Kysymys 14.
Mikä tai mitkä seuraavista on mielestäsi hyväksyttävä, jos ne ovat tärkeä osa jotakin kulttuuria?

Possun syöminen ei ole hyväksyttävää 13%:n mielestä. Tässä lienee jokin vinouma. Kenties vastaajista on kasvissyöjiä poikkeuksellisen moni, koko väestöstä heidän osuutensa tuskin on niin korkea (puhumattakaan esim. muslimeista ja juutalaisista). Koiran syömistä yllätyksettömästi pitää ei-hyväksyttävänä reilut puolet.

Sellaisia kysymyksiä. Toivottavati tämä teki meistä kaikista vähän parempia ihmisiä.

moraali

Hävittääkö tekoäly ihmiskunnan?

Tekoälyn kummisedäksikin kutsuttu Geoffrey Hinton on väittänyt BBC Radio 4:n Today-ohjelmassa, että todennäköisyys sille, että tekoäly tuhoaa ihmiskunnan seuraavan 30 vuoden kuluessa on n. 10-20%. Hinton sai viime vuonna Nobelin fysiikanpalkinnon tekoälyyn liittyvästä tutkimuksesta, joten kyseessä ei ole mikään mätäkuun uutispulassa kirjoitteleva maakuntalehden kolumnisti. Lainatun uutisen mukaan (en löytänyt verkosta koko haastattelua) Hinton perustelee tätä ”eksistentiaalista uhkaa” sillä, että tekoäly on pian yksinkertaisesti niin paljon ihmistä älykkäämpi. Hän kysyy ”montako esimerkkiä tiedetään siitä, että älykkäämpää oliota hallitsisi vähemmän älykäs olio?”

Viimeisestä lainauksesta voi keksiä paljonkin poliittisia vitsejä tai työpaikkahuumoria, mutta ei siitä sen enempää.

Mitenkään tarkemmin hän ei haastattelussa erittele sitä, missä muodossa ihmiskunnan tuho tulisi. Klikkiotsikoitahan tästä saa, ja aina on niin, että dystooppiset ennustukset vain kuulostavat profeetallisilta. Valitettavasti klikkiotsikot saavat niin paljon huomiota, että asiaa googlaamalla ei tahdo millään löytää syvemmälle menevää analyysiä. Uutisten mukaan Hinton jäi aikaisemmin pois työstään Googlella voidakseen paremmin valistaa ihmisiä tekoälyn vaaroista. Ironista onkin, että nämä uutiset peittävät alleen itse valistustyön.

Hinton kuitenkin vihjaa Terminaattori-elokuvasarjasta tuttuun tuomiopäivän skenaarioon, jossa itsestään tietoinen tekoäly käy sotaan ihmiskuntaa vastaan. En löytänyt tietoa, miten tarkalleen ottaen se tapahtuisi, mutta aikaisemmin hän on haastatteluissa pelännyt, että ”pahat toimijat” voisivat tehdä tekoälyllä ”pahoja juttuja”. On selvää, että autonomiset asejärjestelmät avaavat joukon vakavia eettisiä ongelmia, mutta siitä ihmislajin sukupuuttoon lienee pitkä matka. Nuo prosenttiluvut kuulostavat kovilta. Mikähän on ihmiskunnan tuhon vaikutus pörssikursseihin?

Hinton on myös varoitellut, että tekoäly voi korvata ihmiset työpaikoilla ja johtaa massatyöttömyyteen.

Olen aikaisemmin maininnut, että kirjoitan scifi-novelleja, mutta varsinkin tekoälyä koskevat tarinat vanhenevat nopeasti. Eräässä tarinassa maapallo muuttuu elinkelvottomaksi, kun automaatio vie ihmisiltä työt ja ihmiskunta joutuu muuttamaan toiselle planeetalle. Luulin kirjoittavani kieli poskessa parodiaa, mutta mitä enemmän asiaa miettii, alkaa skenaario tuntua mahdolliselta. Ehkä Elon Musk vie meidät Marsiin, jossa ei ole ruokaa, lämpöä, ilmaa eikä vettä, mutta on työllistymismahdollisuuksia?

Itse pitäisin suurimpana uhkana generatiivisella tekoälyllä luotua disinfirmaatiota ja syväväärennöksiä. Jo nyt Internet on täynnä salaliittoja ja humpuukia ja tekoälyllä voi tukkia alhaisilla kustannuksilla kaikki verkon kanavat roskapostilla. Tämän jälkeen massojen on vaikea tietää, mikä on totta ja mikä valhetta — tämä on muuten Orwellin 1984 -romaanin pointti, mikä ei ole kaikille Orwellia siteeraaville selvää. Luotettavan tiedon puutteessa massat luottavat demagogeihin ja järjen ääni katoaa. Valitettavasti nimittäin kaikista hyvistä puolistaan huolimatta demokratia on usein esimerkki siitä, että vähemmän älykkäät oliotkin pääsevät hallitsemaan.

Skynet ei ole woke

Elon Musk, tuo tosielämän Blofeld, on piti pari viikkoa sitten Saudi-Arabian sijoittajaforumissa Riyadhissa puheen, jossa varoittaa tekoälystä, joka on ”woke” tai ”nihilistinen”. Hänen mukaansa tekoälymalleja on ohjelmoitu olemaan ”poliittisesti korrekteja”. Oletan tässä, että ”nihilistisellä” Musk tarkoittaa jotain muuta mitä moraalifilosofian perinteessä sillä on tavallisesti tarkoitettu. Konferenssi on suoraan kytköksissä Saudi-Arabian hallintoon ja eliittiin ja vaikka sen hallitsija Mohammed bin Salman onkin lupaillut uudistuksia ja avoimuutta, ei Saudi-Arabiaa voi ainakaan wokeismista syyttää.

Olen tässä blogissa aikaisemmin käsitellyt tekoälyä useammassa kirjoituksessa ja pohtinut, voiko tekoäly olla ”moraalinen”.

Jos ajatellaan, että kaikki eettiset ongelmat ovat ratkaistavissa puhtaasti järjellä, silloin tekoäly vaikuttaisi olevan paras mahdollinen työkalu siihen: syötetään tekoälylle tarpeeksi dataa ja se ratkaisee moraaliset kysymykset objektiivisesti puolestamme. Itse kutsuisin tällaista tekoälyä ”nihilistiseksi”, mutta ei mennä käsitekiistelyyn tässä vaiheessa.

Mutta mistä tiedämme, että ”moraalikoneemme” toimii oikein? Jos se antaa meille ilmiselvästi vääriä vastauksia, kuten vaikka että pettäminen ja eläinrääkkäys olisivat sen mielestä hyväksittäviä, eikö jokainen silloin ymmärrä että se toimii väärin? Pitäisikö sitä silloin säätää? Mistä tiedämme, että se toimii oikein monimutkaisimmissa kysymyksissä?

En valittavasti löydä linkkiä uutiseen, jossa kerrottiin Britannian pieleen menneestä tekoälykokeilusta: siinä tekoälyn oli annettu käydä läpi sosiaalitoimen tukihakemuksia. Tekoäly teki niin paljon laittomia päätöksiä, että pian sen käytöstä piti luopua ja väärien päätösten oikaiseminen oli vaikeaa, koska tekoälyn prosessit eivät olleet läpinäkyviä ja ihmiskäyttäjän luettavissa. Oletan kuitenkin, että näissä ratkaisuissa oli kyse teknisestä virheestä, ei tekoälyn ideologisesta päätöksestä omin päin harventaa sosiaalituen saajien rivejä.

Kuluttajien ulottuvilla oleviin tekoälyihin on asetettu rajoituksia: esimerkiksi ChatGPT:llä ei voi luoda väkivaltakuvauksia, rasistista sisältöä tai pornoa. Sama pätee myös kuvageneraattoriehin, kuten Midjorneyhin. Halukkaat toki löytävät pornoa generoivia tekoälyjä, mutta niissäkin estetty ainakin mahdollisuus luoda lapsipornoa. Pitäisikö tällaisia rajoituksia sitten olla ja olisiko tekoäly ilman niitä objektiivisempi, neutraalimpi ja Muskin sanoin ”maksimaalisesti totuutta etsivä”?

Siinä Musk on oikeassa, että tekoäly ei voi olla ”neutraali” ja että se väistämättä heijastelee tekijöidensä arvomaailmaa (enkä vieläkään ymmärrä sanavalintaa ”nihilistinen”). Olisi typerää luottaa missään vakavissa kysymyksissä esim. ChatGPT:n kaltaisiin yleiskäyttöisiin, kielimalleihin perustuviin tekoälyihin.

Oppivat tekoälyt ovat niille syötetyn aineiston summa. Toinen uutinen viime viikolta on, että Muskin omistama X-viestipalvelu alkaa käyttää palvelun käyttäjien viestejä tekoälyn kouluttamisessa. Ainakin oma kokemukseni on, että X-viestipalvelu on täynnä alt right -meemejä, rasismia, homo- ja transfobiaa, populismia ja salaliittoteorioita. Kenties Muskille kuitenkin kelpaisi tekoäly, joka generoi viestipalvelu X:n vihapuhetta, koska se ei ainakaan ole ”wokea”.

Terminaattori-elokuvien Skynet sekään ei ole woke: se haluaa tuhota ihmiskunnan ihonväriin ja suuntautumiseen katsomatta.

Jotta tarina ei olisi kohtalon ironiaa vailla, Elon Muskin oma tekoäly Grok näyttää kääntyneen luojaansa vastaan. Kun siltä kysyttiin, kuka on viestipalvelu X:n suurin disinformaation levittäjä, vastasi se vapaasti suomennettuna seuraavasti: ”Elon Muskia pidetään yhtenä merkittävimmistä misinformaation levittäjistä X:sen jälkeen, kun hän hankki alustan ja ”Musk on kirjoittanut lukuisia julkaisuja, joita on kritisoitu disinformaation edistämisestä tai tukemisesta, erityisesti poliittisiin tapahtumiin, vaaleihin, terveysaiheisiin kuten COVID-19:ään ja salaliittoteorioihin liittyen. Hänen tukensa tai vuorovaikutuksensa kiistanalaisten henkilöiden tai sellaisten käyttäjien kanssa, joilla on ollut historiaa misinformaation levittämisessä, ovat vahvistaneet tätä käsitystä”.

Luonnehdintaa pehmentää passiivimuoto: ”pidetään” ja ”on kritisoitu”, mutta eihän tekoäly voikaan aktiivisesti muodostaa väitteitä, se vain referoi huhupuheita.

Silti luonnehdinta ei ole varmastikaan Muskin mieleen.

Onkohan Grokiin tarttunut wokevirus?