Elon Musk, tuo tosielämän Blofeld, on piti pari viikkoa sitten Saudi-Arabian sijoittajaforumissa Riyadhissa puheen, jossa varoittaa tekoälystä, joka on ”woke” tai ”nihilistinen”. Hänen mukaansa tekoälymalleja on ohjelmoitu olemaan ”poliittisesti korrekteja”. Oletan tässä, että ”nihilistisellä” Musk tarkoittaa jotain muuta mitä moraalifilosofian perinteessä sillä on tavallisesti tarkoitettu. Konferenssi on suoraan kytköksissä Saudi-Arabian hallintoon ja eliittiin ja vaikka sen hallitsija Mohammed bin Salman onkin lupaillut uudistuksia ja avoimuutta, ei Saudi-Arabiaa voi ainakaan wokeismista syyttää.
Olen tässä blogissa aikaisemmin käsitellyt tekoälyä useammassa kirjoituksessa ja pohtinut, voiko tekoäly olla ”moraalinen”.
Jos ajatellaan, että kaikki eettiset ongelmat ovat ratkaistavissa puhtaasti järjellä, silloin tekoäly vaikuttaisi olevan paras mahdollinen työkalu siihen: syötetään tekoälylle tarpeeksi dataa ja se ratkaisee moraaliset kysymykset objektiivisesti puolestamme. Itse kutsuisin tällaista tekoälyä ”nihilistiseksi”, mutta ei mennä käsitekiistelyyn tässä vaiheessa.
Mutta mistä tiedämme, että ”moraalikoneemme” toimii oikein? Jos se antaa meille ilmiselvästi vääriä vastauksia, kuten vaikka että pettäminen ja eläinrääkkäys olisivat sen mielestä hyväksittäviä, eikö jokainen silloin ymmärrä että se toimii väärin? Pitäisikö sitä silloin säätää? Mistä tiedämme, että se toimii oikein monimutkaisimmissa kysymyksissä?
En valittavasti löydä linkkiä uutiseen, jossa kerrottiin Britannian pieleen menneestä tekoälykokeilusta: siinä tekoälyn oli annettu käydä läpi sosiaalitoimen tukihakemuksia. Tekoäly teki niin paljon laittomia päätöksiä, että pian sen käytöstä piti luopua ja väärien päätösten oikaiseminen oli vaikeaa, koska tekoälyn prosessit eivät olleet läpinäkyviä ja ihmiskäyttäjän luettavissa. Oletan kuitenkin, että näissä ratkaisuissa oli kyse teknisestä virheestä, ei tekoälyn ideologisesta päätöksestä omin päin harventaa sosiaalituen saajien rivejä.
Kuluttajien ulottuvilla oleviin tekoälyihin on asetettu rajoituksia: esimerkiksi ChatGPT:llä ei voi luoda väkivaltakuvauksia, rasistista sisältöä tai pornoa. Sama pätee myös kuvageneraattoriehin, kuten Midjorneyhin. Halukkaat toki löytävät pornoa generoivia tekoälyjä, mutta niissäkin estetty ainakin mahdollisuus luoda lapsipornoa. Pitäisikö tällaisia rajoituksia sitten olla ja olisiko tekoäly ilman niitä objektiivisempi, neutraalimpi ja Muskin sanoin ”maksimaalisesti totuutta etsivä”?
Siinä Musk on oikeassa, että tekoäly ei voi olla ”neutraali” ja että se väistämättä heijastelee tekijöidensä arvomaailmaa (enkä vieläkään ymmärrä sanavalintaa ”nihilistinen”). Olisi typerää luottaa missään vakavissa kysymyksissä esim. ChatGPT:n kaltaisiin yleiskäyttöisiin, kielimalleihin perustuviin tekoälyihin.
Oppivat tekoälyt ovat niille syötetyn aineiston summa. Toinen uutinen viime viikolta on, että Muskin omistama X-viestipalvelu alkaa käyttää palvelun käyttäjien viestejä tekoälyn kouluttamisessa. Ainakin oma kokemukseni on, että X-viestipalvelu on täynnä alt right -meemejä, rasismia, homo- ja transfobiaa, populismia ja salaliittoteorioita. Kenties Muskille kuitenkin kelpaisi tekoäly, joka generoi viestipalvelu X:n vihapuhetta, koska se ei ainakaan ole ”wokea”.
Terminaattori-elokuvien Skynet sekään ei ole woke: se haluaa tuhota ihmiskunnan ihonväriin ja suuntautumiseen katsomatta.
Jotta tarina ei olisi kohtalon ironiaa vailla, Elon Muskin oma tekoäly Grok näyttää kääntyneen luojaansa vastaan. Kun siltä kysyttiin, kuka on viestipalvelu X:n suurin disinformaation levittäjä, vastasi se vapaasti suomennettuna seuraavasti: ”Elon Muskia pidetään yhtenä merkittävimmistä misinformaation levittäjistä X:sen jälkeen, kun hän hankki alustan ja ”Musk on kirjoittanut lukuisia julkaisuja, joita on kritisoitu disinformaation edistämisestä tai tukemisesta, erityisesti poliittisiin tapahtumiin, vaaleihin, terveysaiheisiin kuten COVID-19:ään ja salaliittoteorioihin liittyen. Hänen tukensa tai vuorovaikutuksensa kiistanalaisten henkilöiden tai sellaisten käyttäjien kanssa, joilla on ollut historiaa misinformaation levittämisessä, ovat vahvistaneet tätä käsitystä”.
Luonnehdintaa pehmentää passiivimuoto: ”pidetään” ja ”on kritisoitu”, mutta eihän tekoäly voikaan aktiivisesti muodostaa väitteitä, se vain referoi huhupuheita.
Silti luonnehdinta ei ole varmastikaan Muskin mieleen.
Onkohan Grokiin tarttunut wokevirus?