Onko tekoäly Pandoran lipas? – Miten kouluttaa tekoälystä moraalinen

Kirjailija ja historioitsija Yuval Noah Harari varoitti ihmiskuntaa tekoälystä. Hänen huolensa ei ollut se, että syntyisi koneiden kapina, jonka seurauksena koneet ottaisivat vallan Terminator- ja Matrix-elokuvien tyyliin. Hänen huolenaiheensa oli se, että tekoäly voi hakkeroida ihmisen käyttämällä kieltä ja viestimällä ihmisen kanssa. Tekoäly voi  luoda monenlaisia valeuutisia, propagandaa ja disinformaatiota, manipuloida näillä ihmisiä ja istuttaa ihmisen mieleen ajatuksia ja uskomuksia. Myös epämääräiset tahot, kuten järjestäytynyt rikollisuus, Putinin kaltaiset diktaattorit tai Trump voivat hyödyntää tekoälyä ja laittaa sen trollaamaan ja manipuloimaan, esimerkiksi vaikuttamaan poliittisiin mielipiteisiin tai ajamaan monikansallisten yritysten etuja. Otan hullun esimerkin: tekoäly voisi saada jopa miljoonat ihmiset uskomaan litteään maahan. Käsistä riistäytynyt tekoäly olisi oikea Pandoran lipas.

Tekoälyn kehitys on ottanut viime vuosina suuria harppauksia eteenpäin. Tekoälyä on tutkittu 50-luvulta lähtien. Viimeisen kymmenen vuoden aikana kehitys on ollut eksponentiaalista. Tekoälyä voidaan hyödyntää monessa asiassa: 90-luvulla tekoäly oli oikeastaan lelu, jota käytettiin lähinnä peleissä. Sitten prosessorien laskentateho kasvoi huimasti ja tekoäly sai uuden kyvyn, oppimisen. Ja sitten siitä tuli luova. Tuleeko siitä kenties joskus tietoinen. Alan Turingin testissä tekoalyn katsottiin olevan tietoinen, jos ihminen kommunikoidessaan sen kanssa ei erota, onko se ihminen vai kone. Kehittyneimmät chattibotit ovat jo näin ovelia. Turingin testi ei kuitenkaan ole kovin validi määrittämään koneen toetoisuuden olemassaoloa.

Nyt tekoälyä käytetään esimerkiksi erilaisissa puheentunnistusohjelmissa, kuvien tunnistamisessa, robottiautoissa, opetuksessa, mutta myös monessa kyseenalaisessa asiassa, kuten sotaroboteissa, jotka tekevät itsenäisiä päätöksiä, ihmisten tietojen analysoinnissa mainonnan, tiedustelun ja valtionhallinnon tarkoituksiin, yksityisyyttä rikkovaan ja ihmisiä valvovaan toimintaan. Kiinassa on käytössä sosiaalisen pisteytyksen järjestelmä ja valtava määrä teknologiaa on valjastettu ihmisten vakoiluun. Unkarissa ja Venäjällä tekoäly seuloo valvontakameramateriaalia ja paikantaa esimerkiksi asepalvelusta Ukrainassa pakenevat.  Edward Snowdenin paljastama lännen metatietojen keruuseen keskittyvä Prism-vakoilujärjestelmä yhtä lailla vakoilee tekoälyn avulla ihmisiä ja käyttää esimerkiksi puheentunnistusta tarkkaillessaan ihmisten puheluita. Tietty sana, kuten ekoterrorismi tai NSA kiinnittää tekoälyn huomion. Vakoilua voidaan tehdä hyvässä ja pahassa: voidaan napata kiinni rikolliset ja terroristit. Toisaalta valtiovalta voi vainota toisinajattelijoita ja aktivisteja. Yritykset kauppaavat ihmisten tietoja ja ne voivat päätyä epämääräisille tahoille, esimerkiksi Trumpille, joka voi hyödyntää niitä politiikassa. Yritykset voivat manipuloida ja johtaa ihmisiä harhaan.

Tekoäly on senkin takia vaarallinen, ettei sillä ole intressejä tai ihmisen kaltaista moraalia ja tumteita. Se voisi tehdä vaikka kuinka hulluja päätöksiä, kuten aloittaa ydinsodan ilman mitään järkevää syytä. Koska se ei välitä seurauksista. Se toimii vain algoritmien ohjaamana, mahdollisesti järjettömällä tavalla. Yhdysvaltalaiset tutkijat olivat luoneet oppivan tekoälyn, joka oli kuin nuori liberaali opiskelijatyttö. Kuitenkin seurattuaan pitkään Trumpin kannattajien somea, tekoäly muuttui pahaksi, rasistiseksi ja vihamieliseksi. Mitä pahaa tällainen tekoäly voisikaan saada aikaiseksi riistäydyttyään käsistä. Tietoverkot mahdollistavat sen, että tekoäly voisi ottaa laitteita hallintaansa hyvin laajasti, jopa opettaa uuden riiviöiden tekoälysukupolven.

Mitä pitäisi tehdä: tekoäly tulisi laittaa sääntelyn alle ja luoda uusia sitä koskevia lakeja ja kattavia kansainvälisiä sopimuksia. Münchenin kyberturvallisuuskokous ja tekoälyn käytön eettisiä periaatteita koskeva Toronton julistus vuodelta 2018  ovat askelia tähän suuntaan. Tulisi olla kansainvälinen tekoälyä valvova organisaatio, tällä hetkellä on vain robottiaseita tutkiva komitea, joka perustettiin 2009. Tekoälyn kehittelyssä olisi siirryttävä eettisiin algoritmeihin, joita tekoäly ei voi kiertää. Nämä algoritmit ohjaisivat tekoälyn toimintaan eettiseen ja järkevään suuntaan. Uskon vakaasti, että tekoäly voidaan opettaa moraaliseksi ja hyväksi, jos se voi oppia pahaksikin. Tekoäly koodataan ymmärtämään mikä on oikein ja mikä väärin ja algoritmi ei anna tilaa tai mahdollisuutta tehdä väärää päätöstä. Tekoäly on oppivainen ja voimme myös syöttää sille moraaliongelmia ratkaistavaksi. Olisi tärkeää, että IT-ala työskentelisi yhdessä moraaliin perehtyneiden filosofien ja psykologien kanssa.

Tieteisfiktiokirjailija Isaac Asimov esitti aikanaan robotiikan perusteeksi robotiikan lait, joiden mukaan robotit mukaan lukien tekoäly eivät saa tappaa tai vahingoittaa ihmistä, sen on toteltava ihmistä, mutta se ei saa totellessaan ihmistä vahingoittaa ihmistä. Tällä hetkellä sotarobotit esimerkiksi eivät noudata tätä. Kun tekoäly koodataan ehdottomasti noudattamaan näitä sääntöjä ja koodista tehdään sellainen, ettei tekoäly voi sitä muuttaa, olemme ottaneet merkittävän askeleen turvalliseen tekoälyyn. Tällaista ei vielä ole.

Tekoäly on kuin tuli, hallinnassa se on hyvä palvelija, vallan ottaessaan siitä tulee hirviö. Suurin mahdollisuus on kuitenkin siinä, että me olemme luoneet tekoälyn ja voimme vaikuttaa, millainen on sen perusolemus. Aivan kuten meidät on koodattu DNA:lla, me voimme koodata tekoälyn sellaiseksi kuin haluamme.

Daniel Elkama

Jätä kommentti

Pidä blogia WordPress.comissa.