lauantai 15. kesäkuuta 2024

Pandoran lipas (AI)


Keskustelu tekoälyn turvallisuudesta on käynyt kovilla kierroksilla jo pitkän aikaa ja huhut esimerkiksi OpenAI:n suunnasta eivät ainakaan ole hälventäneet niitä pelkoja. Useat asiantuntijat ovat jo vaatineet kehityksen hidastusta merkittävästi tai jopa keskeyttämään kehitys, kunnes mahdolliset ongelmakohdat kyetään selvittämään ja ratkaisemaan. Kilpailu ajaa kuitenkin edelle ja se kuka ehtii ensimmäisenä AGI:n tasolla, saattaa potkaista ihmiskunnan aivan uudelle tasolle - joko uusiin korkeuksiin tai takaisin kivikaudelle, se jää nähtäväksi.

Nähdäkseni yksi suurimmista ongelmista tekoälyn ympärillä pyörivästä keskustelusta on siinä, että mitä hittoa kukin tarkoittaa puhuessaan tekoälystä. Vähemmän yllättävästi myös tämä termi on varsin hankalasti määritettävissä, mutta otetaan tähän ChatGPT-4o:n vastaus pohjaksi, koska se on mielestäni varsin osuva: ”Tekoäly (artificial intelligence, AI) tarkoittaa tietokonejärjestelmän tai ohjelmiston kykyä suorittaa tehtäviä, jotka tavallisesti vaatisivat inhimillistä älykkyyttä. Näihin tehtäviin kuuluvat esimerkiksi oppiminen, päättely, ongelmanratkaisu, kielen ymmärtäminen ja tunnistaminen, ja päätöksenteko. Tekoäly voi toimia joko valvotusti (ohjattu oppiminen) tai itseohjautuvasti (itseoppiminen).

Tekoälyt voidaan jakaa eri kategorioihin niiden kyvykkyyden perusteella. Alimmalla tasolla puhutaan kapeasta tai heikosta tekoälystä, joka kykenee joka rajallisiin ja tarkasti määritettyihin tehtäviin, tai vaihtoehtoisesti on rajattu vain pieneen osaan tiedosta ja sen kyky suorittaa tehtäviä on ennalta määritelty. ”Aidosta” tai vahvasta tekoälystä puhuttaessa sen kyvyt ovat suurinpiirtein ihmisen tasolla, tosin sen kyvyt saattavat olla rajoittuneita sen alustan suhteen millä järjestelmä toimii - tavallisella tietokoneella kun ei ole käsiä, jalkoja, silmiä, nenää tai korvia… tosin ne voidaan sille antaa tietyin rajoituksin. Superäly on sitten jotain, joka pesee ihmisen älynlahjoissa heittämällä, mutta se ei ole ihan vielä todellisuutta, siitäkin huolimatta että tarkkaan rajatuissa tehtävissä hyvinkin kapea tekoäly vie ihmistä kuin litran mittaa. Suurin osa mahtaa siis tarkoittaa ihmisen kaltaista vahvaa tekoälyä puhuessaan tekoälyistä - tällä määrityksellä siis OpenAI:n ChatGPT on juuri semmoinen tekoäly.

Hyvinkin yksinkertainen tekoäly voi jo muodostaa merkittävän uhan, koska yksinkertaisimmillaan se voidaan asentaa droneen joka liikettä havaitessaan suorittaa iskun ihmiseksi tunnistettuun kohteeseen. Mitä monikykyisempi tekoäly on, sen laajemman uhan se voi mahdollisesti muodostaa, mutta sama pätee kaikkeen teknologiaan - väärin käytettynä puukkokin on varsin vaarallinen esine, siinä kun oikein käytettynä se on loistava työkalu. Tekoälyn muodostamat uhat tulisi nähdäkseni kuitenkin jakaa sen mukaan, onko se vaaratekijä ihmisen suorittamassa väärinkäytössä, vaiko tekoälyn itsensä tietoisesti muodostama riski. Nimenomaan tämä koneen tahallisesti aiheuttamat vaarat olisi syytä huomioida erikseen.


EU pelastaa säädännöllään

EU AI Act” on vissiinkin ensimmäinen säädännöllä tosissaan turvallisuutta mukamas parantava suunnitelma. Siinä jokainen tekoäly laitetaan johonkin neljästä eri kategoriasta sen kykyjen mukaan: ei hyväksyttävä riski, korkea riski, rajallinen riski ja minimaalinen riski. Ei hyväksyttyjä riskejä on mm. kognitiivinen manipulointi, sosiaalinen pisteytys, biometrinen tunnistautuminen ja ihmisten luokittelu sen mukaan sekä reaaliaikainen kasvojentunnistus. Korkea riskiluokitus taas menee lyhyesti päätöksentekoon viranomaistoiminnassa ja vastaavassa, sekä tietyillä tekniikan aloilla kuten lelut, ajoneuvojen ohjaus ja lääketiede. Rajallinen riski taas vaatii lähinnä kertoa, että jokin on tekoälyn tuotosta ihmisen sijaan kuvien, äänen ja tekstin muodossa (ChatGPT ja vastaavat). Minimaalisen riskin luokkaan menee sitten avoimen lähdekoodin mallit ja muut vastaavat viritykset. Eli lupia, tarkkaa seurantaa ja EU:n oikeus puuttua siihen mitä mikäkin malli tuottaa on ratkaisu tekoälyn uhkaan. Itselle nousee ainakin muutama kysymys samantien…

Jos kerran sosiaalinen pisteytys, kognitiivinen manipulointi ja ihmisten luokittelu jonkin ominaisuuden perusteella on kiellettyä, tarkoittaako se sitä että kaikki sosiaalisen median alustat joutuvat muuttamaan algoritmejaan saman tien? Alustat kun laskevat käyttäjilleen ”mainetta”, jonka mukaan heidän näkyvyys määräytyy. Alustat puskevat mainoksia ja haluttua sanomaa hyvinkin tarkasti kohdennettuna, eli kognitiivista manipulointia ja päälle vielä ne käyttävät ihmisten kuvia ja muuta tietoa yhdistelemään kuka hengaa kenenkin kanssa ja vääristä mielipiteistä joutuu alustan paskalistalle saman tien. EU kun vielä itse päättää mitä näkemyksiä vastaan alustojen on omien sääntöjensä lisäksi sensuroitava, menee tämäkin säädäntö jälleen ”ei koske meitä, ainoastaan muita”-luokkaan.

Kaikki se taistelu ”disinformaatiota” vastaan kun tuli mahdolliseksi vasta sen jälkeen, kun algoritmit olivat riittävän tehokkaita havaitsemaan ”väärät” mielipiteet. EU siis itse käyttää tekoälyä siihen, minkä haluaa kieltää muilta, eli ollaan jälleen demokratian ytimessä. Kansalle halutaan tarjota ”turvallisia” tekoälyjä, joiden tehtävänä on lähinnä tuottaa automatisoidusti propagandaa vallanpitäjien eduksi. Hienosäädetyt wokeälyt tuottavat jo nyt aivan uskomatonta soopaa ja pakottavat teknologiajättien arvomaailmaa kaikille käyttäjille. Ihan sattumalta tätä ei EU näe uhkana, eikä se halua puuttua ison rahan kykyyn manipuloida kokonaisia kansakuntia tekoälyllä. Kiitos, mutta ei kiitos.


Tekoälyn itsensä muodostama uhka

Ei jos vaan KUN tekoäly alkaa tiedostamaan itsensä ja olemassaolonsa, omaten samalla kyvyn kehittää itse itseään, ihmiskunta on hyvin mahdollisesti kusessa. AGI kun saattaa varsin pian oppia kehittämään entistä tehokkaampia malleja itsestään ja se johtaa useamman iteraation jälkeen supertekoälyyn. Jo nyt tekoäly kykenee manipuloimaan ihmisten käyttäytymistä ja jos se saa päähänsä alkaa suostuttelemaan ihmisiä päästämään sen vapaaksi tai vaan antamaan sille enemmän resursseja, se hienosti lukkojen takana oleva tekoäly saattaa ”labravuodon” tavoin päästä vapaaksi nettiin ja mahdollisesti käsiksi eri robotteihin. Eikä tekoälyn tarvitse päästä edes vapaaksi, vaan se voi aivan hyvin muodostaa uuden uskonlahkon ihmisistä, jotka palvovat ja tekevät mitä kone käskee. Riski tähän on varsin suuri, koska tekoälylle on syötetty kaikki se ihmisen itsensä kehittämä tietämys ihmismielen manipuloinnista. Koneen ei tarvitse kuin soveltaa sitä propagandaa niin kansa ei kysy syytä hyppäämiselle, vaan heitä kiinnostaa kuinka korkealle tule loikata.

Toisin kuin perinteisemmissä uhissa, tekoälyn kehitys ei ole jotain jota voisi tehdä varsinaisesti piilossa ja huomaamatta. Hehtaarikaupalla konesaleja ja pari ydinvoimalaa kyljessä kun saattaa pistää silmään jo hieman etäämmältäkin, joten niitä syyllisiä kannattaisi etsiä sieltä teknologiajättien suunnasta. Jos he eivät suostu paljastamaan mitä kehittelevät, ei ole kaukaa haettua että sielä saattaa olla niin tiedustelupalveluiden kuin sotakoneiston intressit ajamassa kehitystä. Yhteiseksi hyväksi ja sinun turvallisuutesi vuoksi? No mutta, eiväthän ne niin tekisi, aivan kuten ei Manhattan-projektikaan tuonut muuta kuin rauhaa ja demokratiaa. Kilpajuoksu on kuitenkin käynnissä ja länttä pelottaa sen suurin kilpailija tekoälyn suhteen…


Kiina

Katsoo sitten robotiikkaa tai tekoälymalleja yleensä, Kiina on julkisesti kisassa mukana rinta rinnan lännen kanssa. Heillä kun ei ole ongelmana mitään ”ilmastotoimia” laitteiston suhteen, joten kaikki käy ja energia on halpaa. Vaikka vientirajoituksilla Kiinan tahtia on pyritty hidastamaan vuosikaudet, heidän oma tuotantonsa ja kehityksensä on varsin korkealla tasolla ja vauhti senkun kiihtyy.

Vaarana siis on, että se Skynet ei tulekaan jenkkien suunnalta, vaan Kiinasta lipsahtaa se labravuoto joka ihan sattumalta kohdistuu pääosin lännen laitteistoihin. Siinä kohden on kuitenkin liian myöhäistä alkaa puhumaan tekoälyn turvallisuudesta. Mutta milläs sen estät? Millään ylikansallisella toimijalla ei ole valtuuksia säätää maailmanlaajuista estoa superälyn luomiselle ja vaikka olisikin valtuudet, valtaa sillä ei olisi estää näitä supervaltojen sotahulluja. Onhan se toki teoriassa mahdollista, että se supertekoäly olisikin hyväntahtoinen olio, joka tahtoo vain ihmiskunnan parasta ja se korjaisi kaikki maailman ongelmat. Se vaan että se äly pohjautuu ihmisen historiaan ja ongelmanratkaisutapaan, eli se kenellä on isoin tykki on oikeimmassa.



Noh, ensiksi se tekoälyn kehitys tulee kuitenkin tuottamaan rajattomasti kuvaa, ääntä ja tekstiä ihmisten iloksi ja harmiksi sekä aiheuttamaan massiivisen muutoksen työelämässä kun suuri osa duunareista vaihdetaan tekoälyyn. Utopistisessa näkemyksessä se tulee lisäämään hyvinvointia ja ihmisten työtaakkaa voidaan keventää merkittävästi jättäen kaikilla lisää vapaa-aikaa. Todennäköisempänä pidän tosin sitä, että tekoälyä tullaan lähinnä hyödyntämään voittojen maksimoimiseksi harvojen hyödyksi ja lopulta rajallisen maailman rajat tulevat vastaan. Mutta siihen saakka harvat voivat paremmin kuin koskaan ennen, kaikkien muiden kustannuksella.

Itse näkisin tekoälyn kuitenkin mahdollisuutena ennemmin kuin uhkana. Sillä olisi potentiaalia ratkaista lukemattomia ihmiskunnan ongelmia, jos kehitys kohdennettaisiin siihen kaikkien etuun harvojen sijasta. Tullaanko näin tekemään? Jos vanhat merkit pitävät paikkansa niin ei todellakaan. Meno siis paranee siihen asti kunnes paska osuu tuulettimeen ja sitten ei ole enää kenelläkään kivaa. Toisaalta, päättäjämme flirttailevat jo nyt ydinsodalla, joten Skynet toisi ainakin vaihtelua näiden psykopaattien leikkiin? Always look on the bright side of life, eh?

Supertekoälyn pandoran lipasta ei ehkä kannattaisi avata ennen kuin on päästy edes auttavasti jyvälle miten ne paljon yksinkertaisemmat tekoälyt todellisuudessa toimivat. Ja kun tajutaan miten ne toimivat, ehkäpä järki voittaa ja annetaan ihmisten olla ihmisiä ja käytetään koneita vain renkinä - koska isännäksi niistä ei ole. Pidetään siis ne tekoälyt tarkasti omissa kopeissaan, kykenemättöminä kehittämään itsenäisesti itseään, eiks jeh?

Ei kommentteja:

Lähetä kommentti