Ennen sinua on artikkelin toinen osa sarjasta "Odota, kuinka tämä kaikki voi olla totta, miksi siitä ei silti puhuta joka kulmassa." Edellisessä sarjassa tuli tunnetuksi, että älykkyyden räjähdys hiipii vähitellen maapallon ihmisiin, se yrittää kehittyä kapeasti keskittyvästä universaaliksi älyksi ja lopulta keinotekoiseksi älykkydeksi.
"Ehkä meillä on erittäin vaikea ongelma, emmekä tiedä, kuinka paljon aikaa sen ratkaisuun on varattu, mutta ihmiskunnan tulevaisuus voi riippua sen ratkaisusta." - Nick Bostrom.
Artikkelin ensimmäinen osa alkoi viattomasti. Keskustelimme kapeasti keskittyneestä tekoälystä (AI, joka on erikoistunut ratkaisemaan yksi tietty ongelma, kuten reittien määrittäminen tai shakin pelaaminen), sitä on paljon maailmassa. Sitten he analysoivat, miksi on niin vaikeaa kasvattaa yleistä suuntaavaa tekoälyä (AGI tai tekoäly, joka älyllisten kykyjensä perusteella voi verrata ihmiseen minkä tahansa ongelman ratkaisemisessa), on niin vaikeaa. Päätimme, että teknologian kehittymisen eksponentiaalinen nopeus viittaa siihen, että AGI saattaa olla pian nurkan takana. Lopulta päätimme, että heti kun koneet saavuttavat ihmisen älykkyyden, seuraava voi tapahtua heti:
Kuten tavallista, katsomme näyttöä, emmekä usko, että keinotekoinen superintelligence (ISI, joka on paljon älykkäämpi kuin kukaan muu) voi ilmaantua elinaikanamme, ja valitsemme tunteet, jotka parhaiten heijastavat mielipidettämme tästä asiasta.
Ennen kuin sukellamme ISI: n erityispiirteisiin, muistutetaan itseämme siitä, mitä tarkoittaa koneen oleminen superintelligentiivinen.
Suurin ero on nopean ja älykkään älykkyyden välillä. Usein ensimmäinen asia, joka tulee mieleen, kun ajatellaan superälykästä tietokonetta, on se, että se pystyy ajattelemaan paljon nopeammin kuin ihminen - miljoonia kertoja nopeammin, ja viidessä minuutissa se ymmärtää, mitä se kestää henkilöltä kymmenen vuotta. ("Tiedän kung fu!")
Se kuulostaa vaikuttavalta, ja ISI: n pitäisi todella ajatella nopeammin kuin kukaan muu - mutta tärkein erottava piirre on sen älykkyyden laatu, joka on täysin erilainen. Ihmiset ovat paljon älykkäämpiä kuin apinat, eivät siksi, että he ajattelevat nopeammin, vaan koska heidän aivonsa sisältävät useita nerokkaita kognitiivisia moduuleja, jotka toteuttavat monimutkaisia kielellisiä esityksiä, pitkän aikavälin suunnittelua, abstraktia ajattelua, mihin apinat eivät kykene. Jos nopeutat apinan aivoja tuhat kertaa, siitä ei tule älykkäämpiä kuin me - jopa kymmenen vuoden kuluttua se ei pysty kokoamaan konstruktoria ohjeiden mukaan, mikä vie henkilölle korkeintaan pari tuntia. On asioita, joita apina ei koskaan opi, riippumatta siitä, kuinka monta tuntia hän viettää tai kuinka nopeasti aivot toimivat.
Lisäksi apina ei tiedä kuinka inhimillisesti, koska sen aivot eivät yksinkertaisesti kykene ymmärtämään muiden maailmojen olemassaoloa - apina voi tietää, mikä ihminen on ja mikä on pilvenpiirtäjä, mutta ei koskaan ymmärrä, että pilvenpiirtäjä on rakennettu ihmiset. Hänen maailmassaan kaikki kuuluu luontoon, eikä makaki voi paitsi rakentaa pilvenpiirtäjää, myös ymmärtää, että kuka tahansa voi rakentaa sen ollenkaan. Ja tämä on seurausta älykkyyden laadun pienestä erosta.
Yleisessä älykkyysjärjestelmässä, josta puhumme, tai yksinkertaisesti biologisten olentojen standardien mukaan, ero älykkyyden laadussa ihmisten ja apinoiden välillä on pieni. Edellisessä artikkelissa asetimme biologiset kognitiiviset kyvyt tikkaille:
Ymmärtääksesi kuinka älykäs superintelligent kone tulee olemaan, aseta se kaksi pykälää korkeammalle kuin tikkaat. Tämä kone voi olla vain vähän superintelligentiivinen, mutta sen ylivoima kognitiivisiin kykyihimme verrattuna on sama kuin meillä - apinoihin nähden. Ja aivan kuten simpanssi ei koskaan ymmärrä, että pilvenpiirtäjä voidaan rakentaa, emme ehkä koskaan ymmärrä, mitä pari askelta korkeampi kone ymmärtää, vaikka kone yrittää selittää sen meille. Mutta tämä on vain pari vaihetta. Älykkäämpi kone näkee meissä muurahaisia - se opettaa meille yksinkertaisimmat asiat asemastaan vuosia, ja nämä yritykset ovat täysin toivottomia.
Sen tyyppinen superäly, josta puhumme tänään, on kaukana näiden tikkaiden ulkopuolella. Tämä on älykkyyden räjähdys - mitä älykkäämmäksi auto tulee, sitä nopeammin se voi lisätä omaa älykkyyttään ja kasvattaa vähitellen vauhtia. Voi kestää vuosia, ennen kuin tällainen kone ylittää simpanssit älykkyydessään, mutta ehkä pari tuntia ylittää meidät muutamalla lovella. Tästä hetkestä lähtien auto voi jo hypätä neljän askeleen yli sekunnissa. Siksi meidän pitäisi ymmärtää, että hyvin pian sen jälkeen, kun ensimmäiset uutiset siitä, että kone on saavuttanut ihmisen älykkyyden tason, ilmestyvät, voimme kohdata maapallon rinnakkaiselon todellisuuden jollakin, joka on paljon korkeampi kuin me tällä portaalla (tai ehkä ja miljoonia kertoja korkeampi):
Ja koska olemme todenneet, että on täysin hyödytöntä yrittää ymmärtää vain kahden askeleen yläpuolella olevan koneen voimaa, määritelkäämme lopullisesti, ettei ole mitään keinoa ymmärtää, mitä ISI tekee ja mitä seurauksia tämä tulee olemaan meille. Jokainen, joka väittää päinvastaista, ei yksinkertaisesti ymmärrä, mitä superintelligence tarkoittaa.
Evoluutio on hitaasti ja vähitellen kehittänyt biologisia aivoja satojen miljoonien vuosien aikana, ja jos ihmiset luovat superälykkään koneen, tietyssä mielessä ylitämme evoluution. Tai se on osa evoluutiota - ehkä evoluutio toimii siten, että älykkyys kehittyy vähitellen, kunnes se saavuttaa käännekohdan, joka ennustaa uuden tulevaisuuden kaikille eläville olennoille:
Syistä, joista keskustelemme myöhemmin, valtava osa tiedeyhteisöä uskoo, että kysymys ei ole siitä, pääsemmekö tähän käännekohtaan, vaan milloin.
Mihin päädymme tämän jälkeen?
Luulen, että kukaan tässä maailmassa, en minä tai sinä, ei voi sanoa, mitä tapahtuu, kun saavutamme käännekohdan. Oxfordin filosofi ja johtava tekoälyteoreetikko Nick Bostrom uskoo, että voimme yhdistää kaikki mahdolliset tulokset kahteen laajaan luokkaan.
Ensinnäkin, kun katsomme historiaa, tiedämme elämästä seuraavaa: lajit ilmestyvät, ovat olemassa jonkin aikaa ja sitten väistämättä putoavat tasapainokeilusta ja kuolevat.
"Kaikki lajit kuolevat pois" on ollut yhtä luotettava sääntö historiassa kuin "kaikki ihmiset kuolevat jonain päivänä". 99,9% lajeista on pudonnut elämän lokista, ja on aivan selvää, että jos laji roikkuu tämän tukin päällä liian kauan, luonnontuulen puuskia tai äkillinen asteroidi kääntää puun. Bostrom kutsuu sukupuuttoa houkuttelevuuden tilaksi - paikkaan, jossa kaikki lajit tasapainottavat, jotta ne eivät putoa sinne, missä yksikään laji ei ole vielä palannut.
Ja vaikka useimmat tiedemiehet myöntävät, että ISI pystyy tuomitsemaan ihmiset sukupuuttoon, monet uskovat myös, että ISI: n kykyjen käyttäminen antaa yksilöille (ja koko lajille) mahdollisuuden saavuttaa houkuttelevuuden toinen tila - lajien kuolemattomuus. Bostrom uskoo, että lajin kuolemattomuus on yhtä houkutteleva kuin lajin sukupuutto, eli jos pääsemme tähän, olemme tuomittuina ikuiseen olemassaoloon. Näin ollen, vaikka kaikki lajit ovat tähän asti pudonneet tältä sauvalta sukupuuttoon, Bostrom uskoo, että tukilla on kaksi puolta, eikä maapallolla yksinkertaisesti esiintynyt sellaista älykkyyttä, joka ymmärtäisi, miten pudota toiselle puolelle.
Jos Bostrom ja muut ovat oikeassa ja kaikkien käytettävissä olevien tietojen perusteella, he saattavat hyvinkin olla niin, meidän on hyväksyttävä kaksi erittäin järkyttävää tosiasiaa:
ISI: n syntyminen ensimmäistä kertaa historiassa avaa tien lajille kuolemattomuudelle ja putoamiselle kuolettavasta sukupuuttoon.
ISI: n syntymisellä on niin käsittämättömän suuri vaikutus, että se todennäköisesti työntää ihmiskunnan pois tästä lokista suuntaan tai toiseen.
On mahdollista, että kun evoluutio saavuttaa tällaisen käännekohdan, se aina lopettaa ihmisten suhteen elämän virtaan ja luo uuden maailman, ihmisten kanssa tai ilman.
Tämä johtaa mielenkiintoiseen kysymykseen, jota vain bummer ei kysyisi: milloin pääsemme tähän käännekohtaan ja mihin se meidät sijoittaa? Kukaan maailmassa ei tiedä vastausta tähän kaksinkertaiseen kysymykseen, mutta monet älykkäät ihmiset ovat yrittäneet selvittää sen vuosikymmenien ajan. Loput artikkelista selvitämme, mistä ne ovat peräisin.
* * *
Aloitetaan tämän kysymyksen ensimmäisestä osasta: milloin meidän pitäisi saavuttaa käännekohta? Toisin sanoen: kuinka paljon aikaa on jäljellä, ennen kuin ensimmäinen kone saavuttaa superintelligenssin?
Mielipiteet vaihtelevat tapauskohtaisesti. Monet, mukaan lukien professori Vernor Vinge, tiedemies Ben Herzel, Sun Microsystemsin perustaja Bill Joy, futuristi Ray Kurzweil, olivat samaa mieltä koneoppimisen asiantuntijan Jeremy Howardin kanssa, kun hän esitteli seuraavan kaavion TED Talkissa:
Nämä ihmiset ovat samaa mieltä siitä, että ISI on tulossa pian - tämä eksponentiaalinen kasvu, joka näyttää meille hitaalta tänään, räjähtää kirjaimellisesti lähivuosikymmeninä.
Toiset, kuten Microsoftin perustaja Paul Allen, tutkimuspsykologi Gary Marcus, tietokoneasiantuntija Ernest Davis ja teknologiayrittäjä Mitch Kapor, uskovat, että Kurzweilin kaltaiset ajattelijat aliarvioivat vakavasti ongelman suuruuden ja ajattelevat, ettemme ole läheskään yhtä lähellä käännekohta.
Kurzweilin leiri väittää, että ainoa aliarviointi, joka tapahtuu, on eksponentiaalisen kasvun huomiotta jättäminen, ja epäilijöitä voidaan verrata niihin, jotka katsoivat hitaasti kukoistavaa Internetiä vuonna 1985 ja väittivät, ettei sillä olisi vaikutusta maailmaan lähitulevaisuudessa.
Epäilijät voivat torjua, että edistymisen on vaikeampi ottaa jokaisen seuraavan askeleen älykkyyden eksponentiaalisen kehityksen suhteen, mikä neutraloi teknologisen kehityksen tyypillisen eksponentiaalisen luonteen. Jne.
Kolmas leiri, jossa Nick Bostrom on, on eri mieltä ensimmäisen tai toisen kanssa väittäen, että a) kaikki tämä voi tapahtua aivan lähitulevaisuudessa; ja b) ei ole mitään takeita siitä, että tämä tapahtuu ollenkaan tai että se kestää kauemmin.
Toiset, kuten filosofi Hubert Dreyfus, uskovat, että kaikki kolme ryhmää uskovat naiivisti, että käännekohta tulee ollenkaan, ja että emme todennäköisesti koskaan pääse ISI: hen.
Mitä tapahtuu, kun yhdistämme kaikki nämä mielipiteet?
Vuonna 2013 Bostrom teki tutkimuksen, jossa hän haastatteli satoja tekoälyasiantuntijoita konferenssisarjassa seuraavasta aiheesta: "Mitkä ovat ennusteesi AGI: n saavuttamisesta inhimillisellä tasolla?" ja pyysi meitä nimeämään optimistisen vuoden (jolloin saamme AGI: n 10 prosentin todennäköisyydellä), realistisen oletuksen (vuosi, jolloin meillä on AGI 50 prosentin todennäköisyydellä) ja luottavaisen oletuksen (aikaisin vuosi, jona AGI näkyy 90 prosentin todennäköisyydellä). Tässä tulokset:
* Keskimääräinen optimistinen vuosi (10%): 2022
* Keskimääräinen realistinen vuosi (50%): 2040
* Keskimääräinen pessimistinen vuosi (90%): 2075
Keskiverto vastaajat uskovat, että 25 vuoden kuluttua meillä on AGI pikemminkin kuin ei. 90 prosentin mahdollisuus AGI: n esiintymiseen vuoteen 2075 mennessä tarkoittaa, että jos olet vielä melko nuori, se tapahtuu todennäköisesti elämäsi aikana.
Erillinen tutkimus, jonka äskettäin suoritti James Barratt (arvostetun ja erittäin hyvän kirjan Our Latest Invention kirjoittaja, otteita Esitin lukijoiden huomion Hi-News.ru) ja Ben Hertzel AGI-konferenssissa, joka oli vuosittainen AGI-konferenssi, yksinkertaisesti osoittivat ihmisten mielipiteitä vuodesta, jolloin pääsemme AGI: een: 2030, 2050, 2100, myöhemmin tai ei koskaan. Tässä tulokset:
* 2030: 42% vastaajista
* 2050: 25%
* 2100: 20%
Vuoden 2100 jälkeen: 10%
Ei koskaan: 2%
Samanlainen kuin Bostromin tulokset. Barrattin kyselyssä yli kaksi kolmasosaa vastaajista uskoo AGI: n olevan täällä vuonna 2050 ja alle puolet uskoo AGI: n ilmestyvän seuraavan 15 vuoden aikana. On myös hämmästyttävää, että vain 2% vastaajista ei periaatteessa näe AGI: tä tulevaisuudessa.
Mutta AGI ei ole ISI: n kaltainen käännekohta. Milloin saamme asiantuntijoiden mukaan ISI: n?
Bostrom kysyi asiantuntijoilta, milloin saavutamme ASI: n: a) kaksi vuotta AGI: n saavuttamisen jälkeen (eli lähes välittömästi älykkyyden räjähdyksen vuoksi); b) 30 vuoden jälkeen. Tulokset?
Keskimääräinen mielipide on, että nopea siirtyminen AGI: stä ISI: hen tapahtuu 10%: n todennäköisyydellä, mutta 30 vuoden kuluttua tai alle 75%: n todennäköisyydellä.
Näiden tietojen perusteella emme tiedä, mikä päivämäärä vastaajat kutsuvat ASI: n 50 prosentin todennäköisyydeksi, mutta kahden yllä olevan vastauksen perusteella oletetaan, että se on 20 vuotta. Toisin sanoen maailman johtavat tekoälyasiantuntijat uskovat, että käännekohta tulee vuonna 2060 (AGI ilmestyy vuonna 2040 + siirtyminen AGI: stä ISI: hen kestää 20 vuotta).
Kaikki yllä olevat tilastot ovat tietenkin spekulatiivisia ja edustavat yksinkertaisesti tekoälyn alan asiantuntijoiden mielipidettä, mutta ne osoittavat myös, että useimmat kiinnostuneet ovat samaa mieltä siitä, että tekoäly saapuu todennäköisesti vuoteen 2060 mennessä. Vain 45 vuodessa.
Siirrytään toiseen kysymykseen. Kun saavutamme käännekohdan, mikä puoli kohtalokkaasta valinnasta määrää meidät?
Superintelligenssillä on voimakkain voima, ja kriittinen kysymys meille on seuraava:
Kuka tai mikä hallitsee tätä valtaa ja mikä on heidän motivaationsa?
Vastaus tähän kysymykseen riippuu siitä, saako ISI uskomattoman voimakkaan kehityksen, mittaamattoman kauhistuttavan kehityksen vai jotain siltä väliltä.
Tietenkin asiantuntijayhteisö yrittää vastata myös näihin kysymyksiin. Bostromin kyselyssä analysoitiin AGI: n vaikutusten mahdollisten seurausten todennäköisyyttä ihmiskuntaan, ja kävi ilmi, että 52 prosentin todennäköisyydellä kaikki menee hyvin ja 31 prosentin todennäköisyydellä kaikki menee huonosti tai erittäin huonosti. Tämän aiheen edellisen osan lopussa oleva kysely, joka tehtiin teidän keskuudessanne, rakkaat Hi-News-lukijat, osoitti suunnilleen samoja tuloksia. Suhteellisen neutraaliin lopputulokseen todennäköisyys oli vain 17%. Toisin sanoen me kaikki uskomme, että AGI: stä tulee iso juttu. On myös syytä huomata, että tämä kysely koskee AGI: n syntymistä - ISI: n tapauksessa puolueettomuusprosentti on pienempi.
Ennen kuin menemme syvemmälle miettimään kysymyksen hyviä ja huonoja puolia, yhdistetään kysymyksen molemmat puolet - "milloin tämä tapahtuu?" ja "onko tämä hyvä vai huono?" taulukkoon, joka kattaa useimpien asiantuntijoiden näkemykset.
Puhumme pääleiristä minuutin kuluttua, mutta päätä ensin asemasi. Todennäköisesti olet samassa paikassa kuin minä ennen kuin aloitin tämän aiheen käsittelyn. On useita syitä, miksi ihmiset eivät ajattele tätä aihetta ollenkaan:
* Kuten ensimmäisessä osassa mainittiin, elokuvat ovat sekoittaneet vakavasti ihmisiä ja tosiasioita esittäen epärealistisia skenaarioita tekoälyn kanssa, mikä johti siihen, että meidän ei pitäisi ottaa tekoälyä ollenkaan vakavasti. James Barratt vertasi tätä tilannetta tautien torjuntakeskusten (CDC) antamaan vakavaan varoitukseen vampyyreista tulevaisuudessa.
* Niin kutsuttujen kognitiivisten harhojen vuoksi meidän on erittäin vaikea uskoa, että jokin on todellista, ennen kuin meillä on todisteita. Voidaan luottavaisesti kuvitella, että vuoden 1988 tietojenkäsittelytieteilijät keskustelevat säännöllisesti Internetin kauaskantoisista seurauksista ja siitä, mitä siitä voisi tulla, mutta tuskin ihmiset uskoivat, että se muuttaa heidän elämäänsä, ennen kuin se todella tapahtui. Tietokoneet eivät vain tienneet miten tehdä tämä vuonna 1988, ja ihmiset vain katsoivat tietokoneitaan ja ajattelivat:”Todellako? Tämäkö muuttaa maailmaa? Heidän mielikuvituksensa rajoitti henkilökohtaisesta kokemuksesta oppimansa, he tiesivät, mikä tietokone oli, ja oli vaikea kuvitella, mihin tietokone pystyy tulevaisuudessa. Sama tapahtuu nyt tekoälyn kanssa. Kuulimme, että siitä tulee vakava asia, mutta koska emme ole vielä tavanneet sitä kasvotusten ja yleensä havaitsemme tekoälyn melko heikkoja ilmenemismuotoja nykymaailmassamme, meidän on melko vaikea uskoa, että se tulee radikaalisti muuttaa elämäämme. Näitä ennakkoluuloja vastaan lukuisat asiantuntijat kaikista leireistä sekä kiinnostuneet ihmiset vastustavat yrittämistä kiinnittää huomiomme jokapäiväisen kollektiivisen itsekeskeisyyden melun kautta.
* Vaikka uskoisimme tähän kaikkeen - kuinka monta kertaa olet tänään ajatellut sitä, että vietät lopun ikuisuuden tyhjässä? Vähän, samaa mieltä. Vaikka tämä tosiasia on paljon tärkeämpää kuin kaikki mitä teet päivittäin. Tämä johtuu siitä, että aivomme keskittyvät yleensä pieniin, arkisiin asioihin, olipa kuinka harhaanjohtava pitkäaikainen tilanne. Se on vain sitä, että meidät on tehty.
Yksi tämän artikkelin tavoitteista on saada sinut pois leiristä nimeltä "Tykkään ajatella muita asioita" ja viedä sinut asiantuntijaleirille, vaikka seisotkin vain aukion kahden katkoviivan välissä. edellä, täysin päättämätön.
Tutkimuksen aikana käy ilmeiseksi, että useimpien ihmisten mielipiteet kulkevat nopeasti kohti "pääleiriä", ja kolme neljäsosaa asiantuntijoista putoaa kahteen leiriin pääleirillä.
Vierailemme molemmilla leireillä kokonaisuudessaan. Aloitetaan hauskanpidosta.
Miksi tulevaisuus voisi olla suurin unelma?
Kun tutkimme tekoälymaailmaa, löydämme yllättävän paljon ihmisiä mukavuusalueeltamme. Oikean yläkulman ihmiset surisevat jännityksestä. He uskovat, että lankeamme tukin hyvälle puolelle, ja uskovat myös, että tulemme väistämättä tähän. Heille tulevaisuus on vain parasta, josta voi vain haaveilla.
Piste, joka erottaa nämä ihmiset muista ajattelijoista, ei ole se, että he haluavat olla onnellisella puolella - vaan se, että he ovat varmoja siitä, että hän odottaa meitä.
Tämä luottamus syntyy kiistoista. Kriitikot uskovat sen johtuvan häikäisevästä jännityksestä, joka varjostaa mahdolliset negatiiviset puolet. Mutta kannattajat sanovat, että synkkät ennusteet ovat aina naiiveja; tekniikka jatkuu ja auttaa meitä aina enemmän kuin vahingoittamaan meitä.
Voit vapaasti valita minkä tahansa näistä mielipiteistä, mutta jätä syrjään skeptisyys ja katso tarkasti tasapainopalkin onnellista puolta ja yritä hyväksyä se tosiasia, että kaikki, mitä luet, saattaa jo tapahtua. Jos osoittaisit metsästäjä -keräilijöille mukavuuden, tekniikan ja loputtoman runsauden maailman, se näyttäisi heille maagiselta fiktiiviseltä - ja käyttäydymme melko vaatimattomasti, emmekä voi myöntää, että sama käsittämätön muutos odottaa meitä tulevaisuudessa.
Nick Bostrom kuvailee kolmea polkua, joilla superintelligent AI -järjestelmä voi kulkea:
* Oraakkeli, joka voi vastata mihin tahansa tarkkaan kysymykseen, mukaan lukien vaikeat kysymykset, joihin ihmiset eivät voi vastata - esimerkiksi "kuinka tehdä auton moottorista tehokkaampi?" Google on primitiivinen "oraakkeli".
* Genie, joka suorittaa minkä tahansa korkean tason komennon - käyttämällä molekyylien kokoonpanijaa luodakseen uuden, tehokkaamman version automoottorista - ja odottaa seuraavaa komentoa.
* Suvereeni, jolla on laaja pääsy ja kyky toimia vapaasti maailmassa, tehdä omat päätöksensä ja parantaa prosessia. Hän keksi halvemman, nopeamman ja turvallisemman tavan kuljettaa yksityistä liikennettä kuin auto.
Nämä kysymykset ja tehtävät, jotka näyttävät meille vaikeilta, näyttävät superälykkäälle järjestelmälle ikään kuin joku pyytäisi parantamaan tilannetta”kynäni putosi pöydältä”, jossa otat sen vain ja laitat sen takaisin.
Amerikkalainen tekoälyn asiantuntija Eliezer Yudkowski totesi asian hyvin:
”Ei ole vaikeita ongelmia, vain ongelmia, jotka ovat vaikeita tietylle älykkyydelle. Siirry askel korkeammalle (älykkyyden suhteen), ja jotkut ongelmat siirtyvät yhtäkkiä "mahdottoman" luokasta "ilmeisen" leiriin. Yksi askel korkeammalle - ja ne kaikki tulevat ilmeisiksi."
On monia kärsimättömiä tiedemiehiä, keksijöitä ja yrittäjiä, jotka ovat valinneet pöydästämme luottavaisen mukavuuden vyöhykkeen, mutta tarvitsemme vain yhden oppaan, jotta voimme kävellä parhaiten tässä maailman parhaassa maailmassa.
Ray Kurzweil on epäselvä. Jotkut epäjumalia hänen ajatuksiaan, jotkut halveksivat häntä. Jotkut pysyvät keskellä - Douglas Hofstadter, keskustellen Kurzweilin kirjojen ajatuksista, totesi kaunopuheisesti, että "ikään kuin otit paljon hyvää ruokaa ja pienen koiran kakka ja sekoitit sitten kaiken niin, että sitä on mahdotonta ymmärtää mikä on hyvää ja mikä pahaa."
Piditpä hänen ideoistaan tai ei, on mahdotonta ohittaa niitä ilman kiinnostuksen varjoa. Hän alkoi keksiä asioita teini-ikäisenä, ja seuraavina vuosina hän keksi useita tärkeitä asioita, kuten ensimmäisen tasoskannerin, ensimmäisen skannerin, joka muutti tekstin puheeksi, tunnetun Kurzweil-musiikkisyntetisaattorin (ensimmäisen todellisen sähköpianon) ja ensimmäinen kaupallisesti menestynyt puheentunnistin. Hän on myös kirjoittanut viisi sensaatiokirjaa. Kurzweilia arvostetaan rohkeista ennusteistaan, ja hänen saavutuksensa ovat varsin hyvät - 80 -luvun lopulla, kun Internet oli vielä lapsenkengissään, hän ennusti, että 2000 -luvulla Webistä tulee maailmanlaajuinen ilmiö. Wall Street Journal kutsui Kurzweilia "levottomaksi neroksi", Forbes "globaaliksi ajattelukoneeksi", Inc. Aikakauslehti - "Edisonin laillinen perillinen", Bill Gates - "paras niistä, jotka ennustavat tekoälyn tulevaisuutta". Vuonna 2012 Googlen perustaja Larry Page kutsui Kurzweilin teknologiajohtajaksi. Vuonna 2011 hän perusti Singularity Universityn, jota isännöi NASA ja jota osittain sponsoroi Google.
Hänen elämäkerransa on tärkeä. Kun Kurzweil puhuu näkemyksestään tulevaisuudesta, se kuulostaa hullulta hullulta, mutta todella hullu asia siinä on, että hän on kaukana hullusta - hän on uskomattoman älykäs, koulutettu ja järkevä ihminen. Saatat ajatella, että hän on väärässä ennustuksissaan, mutta hän ei ole tyhmä. Monet mukavuusalueen asiantuntijat, Peter Diamandis ja Ben Herzel, jakavat Kurzweilin ennusteet. Näin hän uskoo tapahtuvan.
Kronologia
Kurzweil uskoo, että tietokoneet saavuttavat yleisen tekoälyn (AGI) tason vuoteen 2029 mennessä, ja vuoteen 2045 mennessä meillä on paitsi keinotekoinen älykkyys, myös täysin uusi maailma - niin sanotun singulariteetin aika. Sen tekoälyn kronologiaa pidetään edelleen törkeän liioiteltuina, mutta viimeisten 15 vuoden aikana erittäin keskittynyt tekoälyjärjestelmien nopea kehitys on pakottanut monet asiantuntijat Kurzweilin puolelle. Hänen ennustuksensa ovat edelleen kunnianhimoisempia kuin Bostromin kyselyssä (AGI vuoteen 2040, ISI vuoteen 2060 mennessä), mutta ei paljon.
Kurzweilin mukaan vuoden 2045 singulaarisuutta ohjaavat kolme samanaikaista vallankumousta biotekniikassa, nanoteknologiassa ja mikä tärkeintä, tekoälyssä. Mutta ennen kuin jatkamme - ja nanoteknologia seuraa tiiviisti tekoälyä - otetaan hetki nanoteknologiaan.
Muutama sana nanoteknologiasta
Kutsumme yleensä nanoteknologioita, jotka käsittelevät aineen käsittelyä 1-100 nanometrin alueella. Nanometri on metrin miljardisosa tai millimetrin miljoonasosa; alueella 1-100 nanometriä voidaan ottaa vastaan viruksia (halkaisija 100 nm), DNA: ta (10 nm leveä), hemoglobiinimolekyylejä (5 nm), glukoosia (1 nm) ja muita. Jos nanoteknologia joutuu meihin, seuraava askel on manipuloida yksittäisiä atomeja, jotka ovat alle yhden suuruusluokan (~, 1 nm).
Ymmärtääksemme suuremmassa mittakaavassa, missä ihmiset törmäävät ongelmiin yrittäessään manipuloida ainetta tällaisessa mittakaavassa. Kansainvälinen avaruusasema on 481 kilometriä maanpinnan yläpuolella. Jos ihmiset olisivat jättiläisiä ja osuisivat päähän ISS: ään, ne olisivat 250 000 kertaa suurempia kuin nyt. Jos suurennat jotain 1-100 nanometriä 250 000 kertaa, saat 2,5 senttimetriä. Nanoteknologia on sama kuin ihminen, joka kiertää ISS: ää ja yrittää manipuloida hiekanjyvän tai silmämunan kokoisia asioita. Päästäkseen seuraavalle tasolle - yksittäisten atomien hallintaan - jättiläisen on sijoitettava varovasti esineet, joiden halkaisija on 1/40 millimetriä. Tavalliset ihmiset tarvitsevat mikroskoopin nähdäkseen heidät.
Ensimmäistä kertaa Richard Feynman puhui nanoteknologiasta vuonna 1959. Sitten hän sanoi:”Fysiikan periaatteet, sikäli kuin voin kertoa, eivät puhu mahdollisuutta hallita asioita atomien mukaan. Periaatteessa fyysikko voisi syntetisoida mitä tahansa kemikaalia, jonka kemisti on kirjoittanut muistiin. Miten? Sijoittamalla atomeja paikkaan, missä kemisti sanoo hankkivan aineen. Tämä on koko yksinkertaisuus. Jos osaat siirtää yksittäisiä molekyylejä tai atomeja, voit tehdä melkein mitä tahansa.
Nanoteknologiasta tuli vakava tieteellinen ala vuonna 1986, kun insinööri Eric Drexler esitteli sen perusteet pääkirjaansa Machines of Creation, mutta Drexler itse uskoo, että niiden, jotka haluavat oppia lisää nykyaikaisista ideoista nanotekniikassa, tulisi lukea hänen vuoden 2013 teoksensa. Full Abundance (Radical Yltäkylläisyys).
Muutama sana "harmaasta pasasta"
Tutkimme syvemmälle nanoteknologiaa. Erityisesti "harmaa goo" -teema on yksi nanoteknologian ei -kovin miellyttävistä aiheista, jota ei voida sivuuttaa. Vanhemmat versiot nanoteknologiateoriasta ehdottivat nano-kokoonpanomenetelmää, johon sisältyi biljoonien pienien nanorobottien luominen, jotka toimivat yhdessä luodakseen jotain. Yksi tapa luoda biljoonia nanorobotteja on luoda sellainen, joka voi itse replikoitua, eli yhdestä kahteen, kahdesta neljään jne. Useita biljoonia nanorobotteja ilmestyy päivässä. Tämä on eksponentiaalisen kasvun voima. Hassua, eikö?
Se on hauskaa, mutta juuri siihen asti, kunnes se johtaa maailmanloppuun. Ongelmana on, että eksponentiaalisen kasvun voima, joka tekee siitä melko kätevän tavan luoda nopeasti biljoonaa nanobottia, tekee itsensä replikaatiosta pelottava asia pitkällä aikavälillä. Entä jos järjestelmä kaatuu, ja sen sijaan, että pysäyttäisi replikoinnin parin biljoonan puolesta, nanobotit jatkavat lisääntymistä? Mitä jos koko prosessi riippuu hiilestä? Maapallon biomassa sisältää 10 ^ 45 hiiliatomia. Nanobotin pitäisi olla luokkaa 10 ^ 6 hiiliatomia, joten 10 ^ 39 nanobottia nielee kaiken elämän maapallolla vain 130 toistossa. Nanobotien valtameri ("harmaa goo") tulvii planeetan. Tutkijat ajattelevat, että nanobotit voivat replikoitua 100 sekunnissa, mikä tarkoittaa, että yksinkertainen virhe voi tappaa kaiken elämän maapallolla vain 3,5 tunnissa.
Se voi olla vielä pahempaa - jos terroristit ja epäsuotuisat asiantuntijat pääsevät nanoteknologian käsiin. He voisivat luoda useita biljoonia nanobotteja ja ohjelmoida ne levittämään hiljaa ympäri maailmaa parin viikon kuluessa. Sitten he napauttavat napin painalluksella vain 90 minuutissa kaiken ilman mitään mahdollisuuksia.
Vaikka tästä kauhu tarinasta on keskusteltu laajalti vuosien ajan, hyvä uutinen on, että se on vain kauhutarina. Eric Drexler, joka loi termin "harmaa goo", sanoi äskettäin seuraavaa: "Ihmiset rakastavat kauhutarinoita, ja tämä on yksi zombien kauhutarinoista. Tämä ajatus sinänsä syö jo aivoja."
Kun olemme saavuttaneet nanoteknologian pohjan, voimme käyttää sitä teknisten laitteiden, vaatteiden, elintarvikkeiden, biotuotteiden - verisolujen, virus- ja syöpätaistelijoiden, lihaskudoksen ja niin edelleen - luomiseen. Ja maailmassa, joka käyttää nanoteknologiaa, materiaalin hinta ei enää ole sidottu sen niukkuuteen tai valmistusprosessin monimutkaisuuteen, vaan sen atomin rakenteen monimutkaisuuteen. Nanoteknologian maailmassa timantti voi olla halvempi kuin pyyhekumi.
Emme ole vielä lähelläkään. Ja ei ole täysin selvää, aliarvioimmeko vai yliarvioimme tämän polun monimutkaisuuden. Kaikki menee kuitenkin siihen pisteeseen, että nanoteknologia ei ole kaukana. Kurzweil olettaa, että meillä on ne 2020 -luvulla. Maailman osavaltiot tietävät, että nanoteknologia voi luvata suuren tulevaisuuden, ja siksi ne investoivat niihin miljardeja.
Kuvittele vain, mitä mahdollisuuksia superälykäs tietokone saisi, jos se saisi luotettavan nanomittakaavan kokoonpanijan. Mutta nanoteknologia on ajatuksemme, ja yritämme ajaa sitä, se on meille vaikeaa. Mitä jos ne ovat vain vitsi ISI -järjestelmälle ja ISI itse keksii tekniikoita, jotka ovat monta kertaa tehokkaampia kuin mikään, mitä voimme periaatteessa olettaa? Sovimme: kukaan ei voi kuvitella, mihin keinotekoinen älykkyys kykenee? Uskotaan, että aivomme eivät pysty ennustamaan edes mitä tapahtuu.
Mitä tekoäly voisi tehdä meille?
Superintelligenssillä ja kaikella teknologialla, jonka superintelligence voisi luoda, ISI pystyy todennäköisesti ratkaisemaan kaikki ihmiskunnan ongelmat. Ilmaston lämpeneminen? ISI pysäyttää ensin hiilipäästöt keksimällä joukon tehokkaita tapoja tuottaa energiaa, joka ei liity fossiilisiin polttoaineisiin. Sitten hän keksii tehokkaan, innovatiivisen tavan poistaa ylimääräinen hiilidioksidi ilmakehästä. Syöpä ja muut sairaudet? Ei ongelma - terveydenhuolto ja lääketiede muuttuvat tavoilla, joita ei voi kuvitella. Nälänhätä? ISI käyttää nanoteknologiaa luodessaan lihaa, joka on identtinen luonnollisen, tyhjästä todellisen lihan kanssa.
Nanoteknologia pystyy muuttamaan roskat kasaksi tuoretta lihaa tai muuta ruokaa (ei välttämättä edes tavanomaisessa muodossaan - kuvittele jättimäinen omenakuutio) ja jakele kaikki tämä ruoka ympäri maailmaa kehittyneiden kuljetusjärjestelmien avulla. Tämä on tietysti hienoa eläimille, joiden ei enää tarvitse kuolla ruoan vuoksi. ISI voi myös tehdä monia muita asioita, kuten suojella uhanalaisia lajeja tai jopa tuoda sukupuuttoon kuolleet lajit tallennetusta DNA: sta. ISI voi ratkaista vaikeimmat makrotaloudelliset ongelmamme - vaikeimmat taloudelliset keskustelumme, eettiset ja filosofiset kysymyksemme, maailmankauppa - jotka kaikki ovat ISI: lle tuskallisen ilmeisiä.
Mutta ISI voisi tehdä jotain erityistä meille. Houkutteleva ja houkutteleva, joka muuttaa kaiken: ISI voi auttaa meitä selviytymään kuolleisuudesta … Kun ymmärrät vähitellen tekoälyn mahdollisuudet, ehkä harkitset uudelleen kaikkia ajatuksiasi kuolemasta.
Evoluutiolla ei ollut mitään syytä pidentää elinikäämme pidempään kuin nyt. Jos elämme tarpeeksi kauan synnyttääksemme ja kasvattaaksemme lapset siihen pisteeseen, jossa he voivat huolehtia itsestään, evoluutio riittää. Evoluution kannalta 30+ vuotta riittää kehitykseen, eikä mutaatioilla ole mitään syytä pidentää elämää ja vähentää luonnonvalinnan arvoa. William Butler Yates kutsui lajiamme "sieluksi, joka on kiinnittynyt kuolevaan eläimeen". Ei paljon hauskaa.
Ja koska me kaikki kuolemme jonain päivänä, elämme ajatuksen kanssa, että kuolema on väistämätön. Ajattelemme ikääntymistä ajan mittaan - jatkamme eteenpäin ja emme pysty pysäyttämään tätä prosessia. Mutta ajatus kuolemasta on petollinen: sen vangitsemana unohdamme elää. Richard Feynman kirjoitti:
”Biologiassa on hieno asia: tässä tieteessä ei ole mitään, joka puhuisi kuoleman välttämättömyydestä. Jos haluamme luoda ikuisen liikekoneen, ymmärrämme, että olemme löytäneet tarpeeksi fysiikan lakeja, jotka joko osoittavat tämän mahdottomuuden tai että lait ovat vääriä. Mutta biologiassa ei ole mitään, mikä viittaisi kuoleman väistämättömyyteen. Tämä saa minut uskomaan, että se ei ole niin väistämätöntä, ja on vain ajan kysymys, ennen kuin biologit löytävät tämän ongelman syyn, tämän kauhean yleismaailmallisen sairauden, se paranee."
Tosiasia on, että ikääntymisellä ei ole mitään tekemistä ajan kanssa. Ikääntyminen on silloin, kun kehon fyysiset materiaalit kuluvat. Myös auton osat huononevat - mutta onko ikääntyminen väistämätöntä? Jos korjaat autosi osien kulumisen aikana, se kestää ikuisesti. Ihmiskeho ei ole erilainen - vain monimutkaisempi.
Kurzweil puhuu älykkäistä, Wi-Fi-yhteydellä varustetuista verenkierrossa olevista nanoboteista, jotka voivat suorittaa lukemattomia tehtäviä ihmisten terveydelle, mukaan lukien säännöllisesti korjata tai vaihtaa kuluneet solut missä tahansa kehossa. Tämän prosessin parantaminen (tai älykkäämmän ASI: n ehdottaman vaihtoehdon löytäminen) ei ainoastaan pidä kehoa terveenä, vaan voi kääntää ikääntymisen. Ero 60-vuotiaan ja 30-vuotiaan ruumiin välillä on kourallinen fyysisiä ongelmia, jotka voidaan korjata oikealla tekniikalla. ISI voisi rakentaa auton, johon henkilö astuisi 60 -vuotiaana ja lähtisi 30 -vuotiaana.
Jopa huonontuneet aivot voitaisiin uudistaa. ISI varmasti tietäisi, miten tämä tehdään vaikuttamatta aivotietoihin (persoonallisuus, muistot jne.). 90-vuotias mies, joka kärsii aivojen täydellisestä heikkenemisestä, voisi käydä uudelleenkoulutusta, uusia ja palata elämänsä alkuun. Se voi tuntua järjettömältä, mutta keho on kourallinen atomeja, ja ISI voisi varmasti helposti manipuloida niitä, kaikkia atomirakenteita. Se ei ole niin absurdia.
Kurzweil uskoo myös, että keinotekoiset materiaalit integroituvat kehoon yhä enemmän ajan myötä. Ensinnäkin urut voitaisiin korvata erittäin kehittyneillä koneversioilla, jotka kestäisivät ikuisesti eivätkä koskaan epäonnistuisi. Sitten voisimme tehdä koko kehon uudelleensuunnittelun ja korvata punasolut täydellisillä nanoboteilla, jotka liikkuvat itsestään, jolloin sydän ei ole tarpeen. Voisimme myös parantaa kognitiivisia kykyjämme, alkaa ajatella miljardeja kertoja nopeammin ja käyttää kaikkea ihmiskunnan käytettävissä olevaa tietoa pilven kautta.
Mahdollisuudet uusien horisonttien ymmärtämiseen olisivat todella rajattomat. Ihmiset ovat onnistuneet antamaan seksille uuden tarkoituksen, he tekevät sen huvin vuoksi, ei vain lisääntymisen vuoksi. Kurzweil uskoo, että voimme tehdä saman ruoan kanssa. Nanobotit voivat toimittaa ihanteellisen ravinnon suoraan kehon soluihin, jolloin epäterveelliset aineet kulkevat kehon läpi. Nanoteknologian teoreetikko Robert Freitas on jo kehittänyt verisolujen korvaajan, joka ihmiskehossa toteutettuna voi antaa hänen olla hengittämättä 15 minuuttiin - ja tämä keksittiin henkilöllä. Kuvittele, milloin ISI saa vallan.
Loppujen lopuksi Kurzweil uskoo, että ihmiset saavuttavat pisteen, jossa heistä tulee täysin keinotekoisia; aika, jolloin katsomme biologisia materiaaleja ja ajattelemme kuinka primitiivisiä ne olivat; aikaa, jolloin luemme ihmiskunnan historian alkuvaiheista hämmästyneenä siitä, kuinka bakteerit, onnettomuudet, sairaudet tai yksinkertaisesti vanhuus voivat tappaa ihmisen vastoin tahtoaan. Lopulta ihmiset kukistavat oman biologiansa ja tulevat ikuisiksi - tämä on tie tasapainokeilan onnelliselle puolelle, josta olemme puhuneet alusta alkaen. Ja ihmiset, jotka uskovat tähän, ovat myös varmoja siitä, että tällainen tulevaisuus odottaa meitä hyvin, hyvin pian.
Et todennäköisesti yllätä, että Kurzweilin ajatukset ovat saaneet voimakasta kritiikkiä. Sen ainutlaatuisuutta vuonna 2045 ja sitä seuraavana iankaikkista elämää ihmisille kutsuttiin "nörttien ylösnousemukseksi" tai "älykkääksi ihmisten luomiseksi, joiden älykkyysosamäärä on 140". Toiset kyseenalaistivat optimistisen aikataulun, ihmiskehon ja aivojen ymmärtämisen, muistuttaen Mooren laista, joka ei ole vielä kadonnut. Jokaiselle asiantuntijalle, joka uskoo Kurzweilin ajatuksiin, on kolme, jotka pitävät häntä väärässä.
Mutta mielenkiintoisin asia tässä on se, että useimmat asiantuntijat, jotka ovat eri mieltä hänen kanssaan, eivät kaiken kaikkiaan sano, että tämä on mahdotonta. Sen sijaan, että sanoisivat "paskaa, tätä ei koskaan tapahdu", he sanovat jotain "kaikki tämä tapahtuu, jos pääsemme ISI: hen, mutta tämä on ongelma". Bostrom, yksi tunnetuista tekoälyasiantuntijoista, joka varoittaa tekoälyn vaaroista, myöntää myös:
”Tuskin on enää mitään ongelmaa, jota superintelligence ei pysty ratkaisemaan tai edes auttamaan meitä ratkaisemaan. Sairaudet, köyhyys, ympäristön tuhoaminen, kaikenlaiset kärsimykset - kaikki tämä älykkyys nanoteknologian avulla voi ratkaista hetkessä. Superintelligence voi myös antaa meille rajoittamattoman elinkaaren pysäyttämällä ja kääntämällä ikääntymisprosessin käyttämällä nanolääketiedettä tai kykyä ladata meidät pilveen. Superintelligence voi myös luoda mahdollisuuksia älyllisten ja emotionaalisten kykyjen loputtomaan lisäämiseen. hän voi auttaa meitä luomaan maailman, jossa elämme ilossa ja ymmärryksessä, lähestymme ihanteitamme ja toteutamme säännöllisesti unelmamme."
Tämä on kuitenkin lainaus yhdeltä Kurzweilin kriitikolta, joka myöntää, että kaikki tämä on mahdollista, jos voimme luoda turvallisen ASI: n. Kurzweil yksinkertaisesti määritti, millaisesta keinotekoisesta älykkyydestä tulisi tulla, jos se on mahdollista. Ja jos hän on hyvä jumala.
Ilmeisin kritiikki mukavuusvyöhykkeen kannattajilta on, että he voivat erehtyä arvioidessaan ISI: n tulevaisuutta. Kirjassaan Singularity Kurzweil omisti 20 sivua 700 mahdollisesta ISI -uhasta. Kysymys ei ole siitä, milloin pääsemme ISI: hen, vaan kysymys siitä, mikä on sen motivaatio. Kurzweil vastaa tähän kysymykseen varoen:”ISI johtuu monista erilaisista ponnisteluista ja integroidaan syvälle sivilisaation infrastruktuuriin. Itse asiassa se on tiiviisti upotettu kehoomme ja aivoihimme. Hän heijastaa arvojamme, koska hän on yksi kanssamme."
Mutta jos vastaus on, miksi niin monet älykkäät ihmiset tässä maailmassa ovat huolissaan tekoälyn tulevaisuudesta? Miksi Stephen Hawking sanoo, että ISI: n kehitys "voi tarkoittaa ihmiskunnan loppua"? Bill Gates sanoo, että hän "ei ymmärrä ihmisiä, jotka eivät välitä siitä". Elon Musk pelkää, että "kutsumme demonin". Miksi monet asiantuntijat pitävät ISI: tä suurimpana uhkana ihmiskunnalle?
Puhumme tästä seuraavalla kerralla.