Tekoäly ja moraali

Aikoinaan, pari vuotta sitten eKr (”ennen koronaa”) väittelin tuttavani kanssa, joka esitti, että tekoälyn kehittyessä pian kaikki eettiset ongelmat olisivat ratkaistavissa. Itse tietysti olin vahvasti tätä vastaan ja käytiin debatti, joka oli ainakin kiihkeä minun puoleltani, mutta jota haittasi se, että se käytiin meluisassa baarissa, vahvassa humalassa ja pikkutunneilla, ja se että vastaväittäjäni oli britti ja hänellä oli etulyöntiasema englanninkielisessä keskustelussa, vaikka omasta mielestäni puhunkin hyvää englantia myös meluisassa baarissa, vahvassa humalassa ja pikkutunneilla. Tästä keskustelusta silloin jäi kova kiihko päälle taas harrastaa filosofiaa, jotta voisin paremmin vastata sitten, kun taas asiaan palattaisiin, mutta koronan vuoksi ei sitten pariin vuoteen käytykään kiihkeitä filosofisia baarikeskusteluita pikkutunneilla.

Nyt pari vuotta myöhemmin tekoälykeskustelu on tullut vahvempana kuin koskaan ja samoja asioita on siinäkin sivuttu. Niin sanottu ”tekoäly” vaikuttaa hämmästyttävän inhimilliseltä, miksi ei siis sillä olisi myös moraalia? Itse olen Chat GPT:tä kokeillut pari kertaa, ehkä teen siitä oman artikkelinsa, mutta tässä yleisiä ajatuksia tekoälystä.

Yritin saada tuttavaani keskustelussa metatasolle ehdottamalla, että hän on moraalinen realisti siinä mielessä, että moraalisia tosiasioita on olemassa inhimillisestä tajunnasta riippumatta ja on olemassa jokin keino löytää eettisiin ongelmiin oikea ratkaisu, jos vain on tarpeeksi laskentatehoa. Tämä perustui silloiselle käsitykselleni tietokoneista lahjomattoman loogisina ongelmanratkaisijoina. Sittemmin oppivat ja kielimalleja hyväksikäyttävät tekoälyt ovat kehittynet kompleksisemmiksi, mutta palaan tähän myöhemmin.

Itse olen täysin vastakkaista mieltä, eli että ei ole olemassa moraalia ilman inhimillistä ymmärrystä. Koneen kannalta kivulla, kuolemalla ja kärsimyksellä ei ole merkitystä itsessään, ellei sille ole opetettu, että ne ovat ihmisolennon kannalta ”pahoja” asioita. Toisaalta, kivulla on biologinen tehtävänsä estää ihmislasta sorkkimasta kuumaa hellanlevyä kahta kertaa ja kärsimyksellä ja kuolemallakin on oma roolinsa ihmiselämässä. Lähimmäisenrakkaudella on yhteisön koheesiota ylläpitävä rooli samoin kuin romanttis-eroottisella rakkaudella elämän jatkuvuutta tuottava rooli, mutta ei niiden sisältö tyhjene vain näihin tehtäviin, vaan ne ovat asioita, jotka täytyy kokea ymmärtääkseen ne. Ei tarvita tietokonetta kertomaan, että ”enemmän rakkautta ja vähemmän kärsimystä” on hyvä lähtökohta elämälle, mutta elämän merkityksellisyys syntyy juuri siitä, että ne eivät ole säädeltävissä koneen avulla. Myös Maslow’n hierarkiasta puhuttiin, mutta sitä koskevat argumentit lienevät niin ilmeisiä, että niitä ei tarvitse toistaa tässä.

Jos moraali siirretään käytännön sovellukseen, eli politiikkaan, on liberaali demokratia juuri siksi toimivin systeemi. Jokaisella on vapaus tavoitella omia preferenssejään, kunhan ei aiheuta haittaa toisille. Demokraattiset päätökset ovat monien näkemysten kompromissi. Vaikka usein tuntuukin, että kaikki poliitikot ovat sekopäitä, onneksi kaikki poliitikot ovat sekopäitä eri tavalla, joten he tasapainottavat toisiaan.

Moraaliset ongelmat ovat ratkaisemattomia siitä syystä, että niiden lähtötekijät ovat olemassa vain ihmisen päässä (joku sanoisi, että kielessä). Esimerkiksi ihmisten elämään keskeisesti vaikuttava peruskonflikti yhteisö vs. yksilö on ratkaisematon. On helppo sanoa, että yksilön kannattaa uhrautua — aina ei tarvitse uhrata edes henkeään — jos se tarkoittaa, että yhteisö hyötyy siitä. Toisaalta, yhteisö ei voi olla hyvinvoiva, jos sen yksilöt voivat pahoin, eikä yhteisöillä toisaalta ole moraalista oikeutta sortaa yksilöä joukkovoimallaan. Kuitenkin syy, jonka vuoksi vastakkainasettelu on ratkaisematon, johtuu siitä että ”yksilöä” ja ”yhteisöä” ei ole olemassa. Minä en ole irrallaan tästä maailmasta, vaan olen sitä samaa kompostoituvaa materiaalia, kuin kaikki muukin, omat arvoni ja arvostukseni ja ajatukseni olen saanut jostain ulkopuolelta (taas joku sanoisi, että kielestä). Minua ei siis yksilönä ole olemassa, vaan olen kiinnittynyt maailmaan ja ihmiskuntaan materiaalisin, biologisin, sosiaalisin, taloudellisin, kulttuurisin jne. sitein niin, että ero minun ja muun maailman välillä on vain omaa kuvitelmaani. Toisaalta, mitään yhteisöjäkään ei ole olemassa an sich sillä tavalla, että voisit mennä maailmaan ja sormella osoittaa, että tuossa se on. Siksi myöskään yhteisöllä ei ole olemassa mitään yhteisön etua, joka olisi erillinen jäseniensä eduista.

Mitään oikeaa, lopullista vastausta yhteisön ja yksilön väliseen konfliktiin ei ole siis olemassa, koska sen lähtökohdat ovat olemassa vain ihmisen tavassa hahmottaa maailma, eivät maailmassa itsessään. Tämä ei tietenkään tarkoita, etteikö ongelma vaikuttaisi ihmiselämään (juuri siitä syystä se vaikuttaa), ja etteikö siihen olisi olemassa parempia ja huonompia ratkaisuja. Koska mitään lopullista oikeaa vastausta ei ole, ainoa ratkaisu on jatkuva neuvottelu, jossa kaikki ovat vapaita tuomaan esille kuinka kokevat asiat omassa inhimillisessä todellisuudessaan. Kun vapaassa keskustelussa käydään läpi huonot ja hyvät ratkaisut, optimitilanteessa jää jäljelle tyydyttävin kompromissi.

Edellä kuvattu oli ajatuskulku, joka heräsi ystäväni väitteestä, että ”tekoäly voisi ratkaista moraaliset ja eettiset ongelmat lopullisesti”. Tämä oli ennen kuin ChatGPT:n kaltaiset tekoälyt tulivat julkisuuteen. ChatGPT perustuu nimenomaan kielimalliin (eli on tietynlainen kiinalainen huone) ja siten pyrkii jäljittelemään nimenomaan inhimillistä kokemusta sellaisena, kuin se kielessä ilmenee.

Tekoälyn kyky jäljitellä ihmisen (kielellistä) ajattelua tuo sille nyansseja, mutta ei muuta alkuperäistä argunenttiani: sillä ei ole silti kykyä ymmärtää ja kokea. Se ei voi olla osapuoli yllä mainitussa vapaassa keskustelussa, koska sillä ei ole siinä mukana minkäänlaisia panoksia oman hyvinvoinnin kannalta. Tekoäly osaa pelata kielipelejä, mutta ilman mitään merkityksiä. Se vain toistaa papukaijan tavoin lähdemateriaalistaan derivoimiaan tiivistyksiä. Inhimillinen tajunta taas näkee merkityksiä ja itse asiassa liikaakin: paahtoleipä näyttää Jeesukselta ja pilvikumpu naisen rinnoilta. Siksi on helppo pitää tekoälyäkin inhimillisenä, mitä se ei ole.

Vaarallisinta on alkaa pitää tekoälyn julistuksia ”totuutena”, vaikka se vain toistaa meille omat pahimmat kliseemme ja ennakkoluulomme takaisin.

Entä jos tekoäly ehdottelisi täysin moraalittomia vastauksia kysymyksiin? Eikö jonkun ihmisen pitäisi toimia sen valvojana, ja eikö se silloin vesittäisi koko idean? Milloin tiedämme, että tekoäly toimii?

Entä jos tekoäly onkin suorastaan fasisisti? Varmasti löytyy rationaalisia argumentteja sille, miksi vammaiset pitäisi steriloida tai mielellään abortoida ennen syntymäänsä, miksi pitäisi armomurhata yhteiskunnan kannalta hyödyttömät vanhukset, miksi väestöryhmät pitäisi eristää toisistaan, konsensusta vaarantavat toisinajattelijat vaientaa, naiset siirtää työpaikoilta koteihin synnyttämään poikalapsia uusiin sotiin, pakottaa kaikki samaan muottiin, uhrata yhden vapaus, jos se vaarantaa useamman mielenrauhan, kaasuttaa ei-toivotut henkilöt, monottaa armotta päähän heikompaa. Perusteita kyllä löytyy. Mutta eikö juuri moraali ole se tekijä, joka estää meitä tekemästä niin?

JÄLKILÄMMÖT:

Helsingin Sanomat uutisoi ainakin verkkosivuillaan tänään tekoälystä peräti kahden artikkelin voimin: Raportti: Chat GPT ja muut tekoälyt voivat korvata neljänneksen nykyisestä työstä (1) ja Elon Musk ja joukko silmää­tekeviä vaativat keskeyttämään tekoälyn kehittämisen (2).

Jutut edustavat samaa hypeä kuin mitä on ollut ilmassa jo hyvän aikaa. Itse toivottaisin tervetulleeksi tekoälyn, joka vähentää ihmisen työtaakkaa neljänneksellä, jos esimerkiksi työaika lyhenisi vastaavassa suhteessa. Jutun mukaan kuitenkin ”työpaikat ovat vaarassa”, eli tuottavuuden kasvun nähdään johtavan massatyöttömyyteen (itsehän en mitään taloudesta ymmärrä, mutta kirjoitin aiheesta toistaiseksi julkaisemattoman scifi-novellin, jossa maailmanloppu on seurausta siitä, tekäly ja robotit vievät ihmisten työpaikat ja ihmiskunnan pitää muuttaa toiselle planeetalle).

Toisen jutun mukaan ”tekoälyjärjestelmät voivat olla uhka yhteiskunnalle ja ihmiskunnalle”, jopa siinä määrin, että niiden kehittely pitäisi keskeyttää. Itse uutisessa ei täsmennetä, mitä nämä uhat ovat, mutta hankkeen kotisivuilta löytyy 23-kohtainen ohjelma. Väitteet itsessään ovat ihan järkeviä, mutta en voi mitään sille, että saan näistä aina liian kovat Skynet-vibat.

Omat ajatukseni tiivistäisin edesmenneen bar Trebarin vessakirjoitukseen: ”artificial intelligence is no mach for natural stupidity”.

Koneiden tietoisuudesta kirjoitin aikaisemmin tässä blogissa viime elokuussa.

2 vastausta artikkeliin “Tekoäly ja moraali”

  1. Tämä huomio kielen roolista etiikassa ja sen suhteesta tekoälyyn on erittäin kiinnostava, enkä muista että olisin törmännyt siihen missään aiemmin. Kun nyt Wittgensteinin kuuluisan kielipelin käsitteen mainitsit, niin se vähä, mitä hän koskaan sanoi etiikasta, on hyvin sopusoinnussa sen kanssa mitä itse sanoit. Wittgenstein korosti hyvin voimakkaasti, että esimerkiksi se, onko jokin moraalisessa valintatilanteessa annettava neuvo viisas vai epäviisas, riippuu sekä siitä, millainen ihminen sen antaa, että siitä, millaiselle ihmiselle se annetaan. Tekoäly taas ei ole ihminen ollenkaan.

    Jos taas ajatellaan moraalista realismia, niin sen ongelma wittgensteinilaisesta näkökulmasta on, että se ei ikään kuin mahdu kieleen. Ihminen voi hyvin kokea esimerkiksi, että jokin moraalinen velvoite pakottaa häntä yhtä objektiivisesti ja samassa mielessä kuin vaikkapa fysiikan lait pakottavat häntä. Selvästikään ne eivät kuitenkaan pakota häntä samassa mielessä, koska tätä velvoitetta on mahdollista olla noudattamatta kokien tällöin syyllisyyttä ja itseinhoa, mutta fysiikan lakeja ei voi olla noudattamatta, vaikka olisikin valmis kokemaan itseinhoa. Osana tätä velvoitteen kokemusta voi toisaalta olla myös tarve nimenomaan sanoa ääneen, että kyse on yhtä pakottavasta velvoittamisesta kuin fysiikassa, vaikka onkin mieletöntä sanoa näin. Wittgenstein puhui ”ryntäämisestä päin kielen rajoja”, jota hän ei pitänyt säälittävänä, vaan täydellisessä toivottomuudessaan päinvastoin jopa jotenkin ylevänä.

    Tämä oli minulle kiinnostavaa luettavaa henkilökohtaisesti. Teen juuri väitöskirjaa eräästä Wittgensteinista johdetusta ajatteluperinteestä, ja käsittelen siinä mm. vaikeuksia, joita tämän ajatteluperinteen edustajilla on ollut sen hyväksymisessä, että politiikan luonne on sellainen kuin kuvaat ja että syyt pitää liberaalia demokratiaa hyvänä ovat ne jotka ovat. Mutta ei siitä tässä ehkä sen enempää.

  2. Kielipelillä toki viitattiin Wittgensteiniin, kuten tietäjät tietää, mutta itse en ole niinkään Wittgensteinin asiantuntija, että en halunnut lähdeviitata tässä päivityksessä. Itse ymmärrän wittgensteinini siten, että vaikka ihmisjärjellä olisi pääsy kielenulkoiseen maailmaan, ei hän voisi puhua siitä. Ihmiselle sentään kielenulkoinen maailma kuitenkin on olemassa, mutta ChatGPT:n kaltaisella tekoälyllä taas ei ole minkäänlaista kokemusta kielenulkoisesta maailmasta, vaan se on kokonaan juuttunut toistelemaan kielen sisäisiä viittauksia siten kuin se ne ”ymmärtää”.

    Arkielämän näkökulmasta tietyt asiat näyttäisivät olevan universaaleja ja kaikki ihmiset tuntevat kipua ja rakkautta, mutta näin ateistina en usko mihinkään absoluuttisiin (moraalisiin) totuuksiin, enkä etenkään siihen, että niitä olisi mahdollista ilmaista kielessä, vaikka sellaisia olisikin. Wittgensteinin ”kieleen mahtuminen” on hyvä metafora.

    Wittgensteinin kantaa moraaliseen realismiin en muistanut, mutta on järkeenkäypää sekin, että jos moraaliset lait olisivat fysiikan lakien kaltaisia, emme voisi olla noudattamatta niitä, joten rinnastus ei toimi.

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *