Mitä on ihmisen ylittävä äly?

Yli-inhimillinen äly (superäly) on mikä tahansa ihmisälyä kaikin tavoin paremmin suoriutuva äly. Tätä vaatimusta ei täytä esimerkiksi kaikki ihmiset voittava shakkitietokone, vaan yli-inhimilliseksi tunnustettavan älyn tulee olla ihmistä paremmin suoriutuva myös esim. tieteellisen luovuuden, yleisen viisauden sekä sosiaalisten taitojen aloilla.

Usein erotellaan heikosti ja vahvasti yli-inhimillinen äly. Heikko superäly olisi esimerkiksi tuhatkertaisella nopeudella pyörivä (esim. tehokkaaseen nanotietokoneeseen ladattu) ihmismieli. Ulkopuoliselle tavalliselle ihmistarkkailijalle tällainen mieli voisi näyttää hyvinkin älykkäältä, koska se ehtisi ajatella paljon biologista ihmistä nopeammin.

Vahvasti yli-inhimillinen äly puolestaan tarkoittaa älyä, joka ei ole vain ihmisaivoja nopeampi ajattelija, vaan myös tähän verrattuna kvalitatiivisesti jollain tapaa ylivertainen. Tällaisen älyn suhde ihmisälyyn voidaan rinnastaa ihmisälyn suhteeseen koiran älyyn: jos koiran mieltä nopeutetaan tuhatkertaisesti, ei koirasta silti tule ihmisen tasoista ajattelijaa, vaan tarvitaan rakenteellisiakin muutoksia.

Useat transhumanistit arvelevat yli-inhimillisen älyn olevan kenties saavutettavissa jopa nykyisen vuosisadan ensimmäisellä puoliskolla (riippuen tietenkin esim. siitä, paljonko tähän suuntaan rakentavaa tutkimustyötä rahoitetaan). Tarkastelkaamme laitteistovaatimuksia tätä aikaskaalaa silmälläpitäen:

Tietokoneiden tehon kasvua on jo pitkään kuvattu ns. Mooren lailla, joka on empiirinen havainto siitä, että tietokoneiden laskentakapasiteetti tuppaa kaksinkertaistumaan aina noin 18 kuukauden välein. Useimmat asiantuntijat ovat sitä mieltä, että tämä kasvuvauhti jatkunee vielä ainakin pari vuosikymmentä. Lisäksi huomattakoon, että vaikka saavutettaisiinkin jonkinlainen katto yksittäisen nykyisenlaisen prosessorin tehossa, eikä (ilman molekulaarista nanoteknologiaa) saataisi kehitettyä parempia järjestelmiä, ihmisaivot osoittavat, että mielet voivat hyvin toimia rinnakkaisella arkkitehtuurilla. Täten tarvittavaa tehon kasvua voidaan pitää yllä myös liittämällä yhä useampia ja useampia prosessoreita rinnan.

Image Ihmisaivojen laskentakapasiteettia on vaikea arvioida tarkasti, mutta yleisimmät arviot pyörivät 10^14 – 10^17 operaatiossa sekuntia kohden (ks. esim. Nick Bostromin How long before superintelligence -julkaisu, Int. Jour. of Future Studies, 1998, vol. 2). Nopein rakenteilla oleva tietokone on IBM:n Blue Gene/L, jonka odotetaan valmistuessaan vuonna 2005 kykenevän noin 2×10^14 käskyyn sekunnissa. Täten, jos Mooren laki pätee, pessimistisempääkin arviota seuraten vaadittava raaka laskentakapasiteetti olisi vain parin vuosikymmenen päässä.

Vaadittavan ohjelmiston kehittämisen nopeutta onkin jo vaikeampi arvioida, ja tarkempi analyysi jätetäänkin tämän tekstin ulkopuolelle. Joka tapauksessa eräs mahdollisuus on, että jos laskennallinen neurotiede kehittyy tarpeeksi, ihmisaivojen käyttämät oppimisalgoritmit voidaan toteuttaa tietokoneohjelmana. Tällöin konetta opetettaisiin kuten ihmislasta, ja siitä tulisi oma, ainakin jollain tapaa inhimillinen persoonansa niin hyvässä kuin pahassakin.

Toinen potentiaalinen keino superälyn (aluksi heikon, mutta pidemmällä aikavälillä odotettavasti myös vahvan) aikaansaamiseen on olemassaolevan ihmismielen lataaminen koneelle. Tällöin konetehojen kasvaessa tämä mieli saavuttaisi heikon superälyn, ja odotettavasti ohjelmistoksi muutettua mieltä voitaisiin kehittää aktiivisestikin eteenpäin huomattavasti biologista vastaavaa helpommin ja tehokkaammin vahvaa superälyä kohden.

Kolmas vaihtoehto on luonnollisestikin luoda mieli puhtaalta pöydältä. Tämä ratkaisumalli vaatii tietenkin korkean tason ymmärtämystä yleisestä kognitiosta, eikä ihmismielen tuntemuskaan olisi pahitteeksi. Potentiaalisina etuina on ainakin turvallisuus — inhimillisellä älyllä olisi myös inhimillisiä heikkouksia (kuten egoistisia taipumuksia), kun taas puhtaalta pöydältä rakennettu keinoäly voitaisiin pyrkiä tekemään mahdollisimman altruistiseksi ja täten maksimoida superälystä koko maailmalle koituva hyöty.

Lähestymistavasta riippumatta onkin ensiarvoisen tärkeää pohtia jo etukäteen, miten varautua superälyn potentiaalisesti valtaviin vaikutuksiin ja ohjata niitä hyödyttämään kaikkia tietoisia olentoja sen sijaan, että muodostuva yli-inhimillinen äly science fiction -kliseiden mukaisesti päättäisikin ryhtyä toimimaan muiden etuja vastaan. Erityisesti tekoälyn ystävällisyyden varmistamiseen on paneutunut mm. Singularity Institute for Artificial Intelligence tutkijansa Eliezer Yudkowskyn teoksessa Creating Friendly AI. Aktiivisen ystävällinen/altruistinen ja superälykäs keinoäly (tai sellaisten muodostamat laajemmat kokonaisuudet — tällaisen yksilön kopiointi saattaa nimittäin muodostua hyvinkin helpoksi) voisi ratkaista maailman ongelmia ainakin nykyihmisiä paremmin, ja lisäksi sellaisen kehittämisestä seuraisi huomattavan suurella todennäköisyydellä jonkinlainen ns. teknologinen singulariteetti.

Lisätietoa: