Voivatko transhumanistiset teknologiat olla vaarallisia?

Kyllä, ja tästä seuraakin että on syytä suorittaa analyysejä (Ks. esim. Bostrom: Existential Risks — Analyzing Human Extinction Scenarios and Related Hazards), keskustella näistä vaaroista ja ryhtyä ennaltaehkäiseviin toimenpiteisiin ennen kuin riskien on mahdollista realisoitua. Bioteknologiaan, nanoteknologiaan ja vahvaan tekoälyyn sisältyy kaikkiin mahdollisuus luoda erittäin vakavia ja monimutkaisia vaaroja, mikäli niitä sovelletaan ajattelemattomasti tai pahantahtoisesti. Transhumanistit näkevätkin aivan ensiarvoisen tärkeänä, että näihin riskiskenaarioihin aletaan välittömästi suhtautua vakavasti.

Image Voidaan tehdä jaottelu (a) siedettäviin ja rajoitettuihin vaaroihin kuten auto-onnettomuuksiin, ydinreaktorin ytimen sulamiseen, karsinogeenisiin saasteisiin ilmakehässä, tulviin, tulivuorenpurkauksiin ja niin edelleen, joista voidaan selvitä, eivätkä ne tuhoa ihmiskuntaa kokonaisuudessaan, sekä (b) eksistentiaalisiin riskeihin, jotka voivat tuhota tai rampauttaa koko ihmiskunnan pysyvästi, kuten asteroidin törmäykseen tai gammasädepurkaukseen. Pienempiä vaaroja varten osaamme varautua, koska ne ovat tuttuja historiasta, mutta koko lajin olemassaoloa uhkaaviin vaaroihin emme osaa suhtautua samalla vakavuudella, koska meillä on niistä hyvin vähän kokemusta.

Pahimmat tulevaisuuden uhkakuvat näyttävät liittyvän uusiin teknologisiin luomuksiimme:

Nanoteknologian tuhoisa käyttö. Vahingossa tapahtuva itsestään replikoituvan nanobotin vapautuminen ympäristöön tunnetaan nimillä gray goo ja globaali ekofagia. Koska molekulaarinen nanoteknologia muodostaa uusia ei-biologisia struktuureita ja avaa uusia kemikaalisten reaktioiden reittejä, ei ole syytä olettaa, että ympäristö rajoittaisi niiden lisääntymistä samalla tavoin kuin orgaanisten replikaattoreiden tapauksessa. Käytännössä biovorinen nanorobottien pilvi voisi siis "syödä" koko planeetan ekosysteemin. Vaikka gray goo on oikeutettu huoli, on esitetty verrattain yksinkertaisia teknisiä ratkaisuja, joiden avulla tämän skenaarion todennäköisyys laskee erittäin pieneksi (Foresight 2002). Suurempaa huolta aiheuttavatkin nanobotit, jotka on varta vasten tuhoamiseen suunniteltuja. Terroristiryhmittymä tai jopa yksittäinen psykopaatti saattaa aiheuttaa suurta tuhoa saadessaan tehokasta nanoteknologiaa käsiinsä, ja kenties tuhoamaan koko ihmislajin, ellei tehokkaita puolustusjärjestelmiä luoda etukäteen (Center for Responsible Nanotechnology 2003). Myös asevarustelu nanoteknologiaa kehittävien maiden välillä voisi johtaa lopulta tuhoon (Gubrud 2000). Rajoittamisyrityksiä taas vaikeuttaa se seikka, ettei kehittynyt nanoteknologia tarvitse vaikeasti saatavia raakamateriaaleja tai suuria tuotantolaitoksia. Nanoteknologinen puolustusjärjestelmä (joka toimisi ikään kuin koko planeetan immuunijärjestelmänä ja neutraloisi haitalliset replikaattorit) olisi periaatteessa mahdollinen, mutta sellaisen rakentaminen vaatii paljon enemmän kuin yhden tuhoisan replikaattorin valmistaminen. Niinpä onkin tärkeää pitää huolta siitä, ettei kehittynyt nanoteknologia joudu vääriin käsiin ennen kuin siltä voidaan puolustautua.

Biologinen sodankäynti. Geeniteknologian kehitys ei johda pelkästään parempiin lääkkeisiin vaan myös mahdollisuuteen luoda tehokkaampia bioaseita. On kammottavaa ajatella mitä tapahtuisi, jos esim. HIV olisi yhtä tarttuvaa kuin normaali flunssa. Tällaisten viruksien luominen voi pian olla mahdollista yhä kasvavalle joukolle ihmisiä. Jos esimerkiksi viruksen RNA-sekvenssi laitetaan Internettiin, voi jokainen, jolla on hieman perustietoutta ja pääsy laboratorioon, luoda viruksen kuvauksen perusteella. Demonstraatio tällaisesta mahdollisuudesta koettiin vuonna 2002, kun ryhmä New Yorkilaisia tutkijoita syntetisoi polioviruksen, jonka geneettinen sekvenssi on saatavilla netistä.

Tekoäly. Nykyiset AI-systeemit tai niiden lähitulevaisuuden seuraajat eivät luultavasti ole uhka ihmisen olemassaololle, mutta jos ja kun luodaan ihmistä korkeammalle kehittynyt superäly, on äärimmäisen tärkeää varmistaa, että se on ihmisystävällinen. Piittaamaton tai tahallisesti epäystävälliseksi suunniteltu superäly voi aiheuttaa helposti ihmiskunnan sukupuuton. On myös mahdollista, että ensimmäinen supertekoäly suunniteltaisiin palvelemaan vain yhtä ihmistä tai ryhmää (kuten ohjelmoijiaan). Vaikka jälkimmäinen skenaario ei tarkoittaisikaan koko älyllisen elämän tuhoa, se merkitsisi tulevaisuutta, jossa suuri osa ihmiskunnan potentiaalista on tuhottu ja vain pienellä ryhmällä on mahdollisuus nauttia posthumaaniudesta.

Ydinsota. Nykypäivän ydinaseet eivät ehkä ole tarpeeksi tehokkaita aiheuttamaan koko ihmiskunnan sukupuuttoa, mutta tulevaisuuden asevarustelu voi lopulta johtaa tällaiseen tilanteeseen. Globaali ydinsota johtaisi myös luultavasti modernin sivilisaation romahtamiseen, eikä selviytyjiltä välttämättä löydy valmiuksia sivilisaation uudelleenrakentamiseen.

Jotain tuntematonta. Kaikki yllämainitut riskit olivat tuntemattomia vain vuosisata sitten ja useat niistä on ymmärretty selkeästi vasta parina viime vuosikymmenenä. On hyvinkin mahdollista, että tulevaisuus tuo mukanaan eksoottisia riskejä, joista emme ole vielä edes tietoisia.

Image Näiltä tienoin löytyy valtavia eettisiä, yhteiskunnallisia, kulttuurisia, filosofisia ja luonnontieteellisiä kysymyksiä, jotka on syytä yksityiskohtaisesti ja huolella pohtia läpi. Tarvitaan paljon tutkimustyötä ja julkista keskustelua. On luotava ylikansallisia mekanismeja ja verkostoja edistämään vastuullisia ja informoituja poliittisia päätöksiä. Kaikki tämä rakennustyö vie aikaa, ja mitä aiemmin panostamme asiaan kunnolla, sen parempi mahdollisuus meillä on välttää pahimmat sudenkuopat.

Hyvä esimerkki tärkeästä työstä tällä saralla on Foresight Institute, joka on jo 1980-luvulta asti edistänyt erityisesti nanoteknologian mahdollisuuksia ja riskejä koskevaa tutkimusta ja keskustelua. Tekoälytutkimuksen alalla yhtä keskeiseksi ohjaavaksi tahoksi toivottavasti muodostuu Singularity Institute for Artificial Intelligence, joka on Friendly AI -konseptia koskevien julkaisujensa myötä tehnyt uraauurtavaa työtä sitä koskien, miten ihmisen veroiset tai ihmisen ylittävät tekoälyt saadaan toimimaan eettisesti kestävällä tavalla. (nopeaksi tiiviiksi vilkaisuksi aiheeseen soveltuu Bostromin tuoreempi julkaisu Ethical Issues in Advanced Artificial Intelligence)

Katso: