Tiedot

Pitäisikö meidän pelätä keinotekoista tiedustelua?

Pitäisikö meidän pelätä keinotekoista tiedustelua?

Puhuessaan Lissabonissa, Portugalissa, vähän ennen kuolemaansa pidetyssä konferenssissa, Stephen Hawking kertoi osallistujille, että tekoälyn kehittämisestä saattaa tulla "pahin tapahtuma sivilisaatiomme historiassa", ja hänellä oli kaikki syytä huoleen. Tekoälyn tutkijoiden, etiikkojen ja muiden tiedossa keinotekoisena huipputiedusteluna (ASI), sillä on potentiaalia tulla voimakkaammaksi kuin mikään muu, mitä tämä planeetta on koskaan nähnyt, ja se asettaa todennäköisesti lopullisen eksistentiaalisen haasteen, jonka ihmiskunnalla ihmisenä koskaan on .

Miksi ihmiset pelkäävät tekoälyä?

Jotta voisimme paremmin ymmärtää Stephen Hawkingin, Elon Muskin ja monien muiden huolenaiheiden, meidän on dekonstruoitava monia tekoälyn suosittua kulttuuria.

Todellisuus on, että tekoäly on ollut kanssamme jonkin aikaa, siitä lähtien, kun tietokoneet pystyivät tekemään päätöksiä panosten ja olosuhteiden perusteella. Kun näemme elokuvissa uhkaavan tekoälyjärjestelmän, pelottelee järjestelmän pahoinpitely ja tietokoneen voima.

Se käyttäytyy kuitenkin edelleen pohjimmiltaan inhimillisillä tavoilla.

KATSO MYÖS: 10 OLENNAISTA TED-PALVELUA TEOLLISESTI

Sellaista tekoälyä, jota meillä on tänään, voidaan kuvata keinotekoiseksi toiminnalliseksi älykkyydeksi (AFI). Nämä järjestelmät on ohjelmoitu suorittamaan tietty rooli ja tekemään niin yhtä hyvin tai paremmin kuin ihminen. Heistä on tullut myös menestyviä tässä lyhyemmässä ajassa kuin melkein kukaan ennusti. He voittivat ihmisen vastustajia monimutkaisissa peleissä, kuten Go ja Starcraft II, joita asiantuntevien ihmisten mielestä ei tapahtuisi vuosia, ellei vuosikymmeniä.

Vaikka saatamme harjoittaa huumehuumoria tarpeestamme toivottaa robottiomistajamme tervetulleiksi, ei ole todellista riskiä siitä, että nämä järjestelmät itse aiheuttaisivat sellaisia ​​riskejä, joista Hawking puhui. AlphaGo saattaa voittaa kaikki yksittäiset Go Go -pelaajat kätevästi tästä lähtien maailmankaikkeuden lämpökuolemaan asti, mutta kysy tältä nykyiset sääolosuhteet, eikä siinä ole edes yksisoluisten organismien älykkyyttä, jotka reagoivat lämpötilan muutoksiin.

Se mitä ajattelemme puhuessamme vaarallisesta tekoälystä, on tietojenkäsittelytieteen tutkijoiden kutsuma keinotekoinen yleinen älykkyys (AGI), keinotekoinen järjestelmä, joka täysin jäljittelee ihmismieliä ja on yhtä älykäs kuin ihminen kaikilla osa-alueilla, paitsi että se voi ajatella miljardeja kertoja nopeammin kuin voimme. Tätä elokuvat yleensä kuvaavat uskomattoman vaarallisiksi Skynetsiksi, jotka ovat hävinneet ihmiskunnan, mutta niin kauhistuttavalta kuin tämä saattaa tuntua, tämä ei ole todellinen huolenaihe.

Niin uhkaavalta kuin tämä järjestelmä saattaa tuntua, emme todennäköisesti koskaan näe AGI: tä. Todellinen huolenaihe on se, mikä on yksi askel AGI: n ulkopuolella.

Rakentaminen yli ihmisen tason älykkyyden

AGI: n kehittämisessä perinteisessä mielessä on se ongelma, että on mahdotonta ohjelmoida päätöksentekopuuta jokaiselle AGI: n ratkaistavalle kysymykselle. Aina tulee olemaan jotain, johon sitä kehotetaan tekemään, eikä sitä yksinkertaisesti ole ohjelmoitu, kuten pyydä AlphaGolta säätä.

Ihmiset kohtaavat tämän haasteen koko ajan, ja kykymme oppia ja muodostaa uusia yhteyksiä aivoihimme tekee meistä kykeneviä hienostuneeseen älykkyyteen ja ongelmanratkaisuun. Jos emme osaa ratkaista ongelmaa, voimme analysoida sen ja löytää vastauksen. Juuri tästä kyvystä olemme vasta alkamassa kehittyä kehittyneimmiksi tekoälyjärjestelmiksi, jotka meillä on, ja se on todella kivikauden tavaraa suuressa järjestelmässä.

AGI: n saavuttamiseksi järjestelmä tarvitsee avaintyökalun, jota ihmiset pitävät itsestäänselvyytenä, lähinnä siksi, että se on automaattinen. Sen on kyettävä kirjoittamaan ohjelmointi uudelleen tekemään itsestään älykkäämpi, tapa, jolla ihmisen biologia yhdistää aivot automaattisesti uudestaan ​​oppiakseen uusia asioita. Tässä alkaa tekoälyn vaikutukset ja huolet, aitot tieteelliset huolenaiheet Hollywood-version sijaan.

Oletetaan, että ohjelmoimme järjestelmän, joka voisi kirjoittaa oman ohjelmoinnin uudelleen tekemään itsestään älykkäämpi missä tahansa aiheessa, taitossa tai kyvyssä, johon ihmiset kykenevät. Alussa se ei olisi ollenkaan älykäs, mutta jokainen peräkkäinen parannus puolestaan ​​parantaisi sen kykyä parantaa itseään. Jokainen pieni, asteittainen askel perustuu viimeiseen, kasvavaan eksponentiaalisesti.

Tässä prosessissa tulee kohta, jossa järjestelmä lakkaa olemasta AFI. Kuten kiinteä sublimaatio kaasumaiseen tilaansa, tämä AFI näyttäisi läpäisevän AGI: n kokonaan, kun sen älykkyyden kasvu räjähtää, hetki, jolloin tunnettu tekoälyn viranomainen Nick Bostrom kutsuu ASI: n nousua. Kirjaimellisesti on kykymme kuvitella, millainen tällainen älykkyys todella on.

Emmekö voi vain irrottaa keinotekoista tiedustelua?

Tämä on yleensä yleisimpiä vastauksia, kun he ajattelevat Skynet-tyylistä pakenevaa tekoälyä. Irrota vain pistoke pistorasiasta tai jokin yhtä tavallinen asia kuin jos keinotekoinen supertieto olisi modeemi, joka tarvitsee nollata. Tiedämme jo, että tämä ei toimi, samalla tavalla kuin et voi poistaa tietokonevirusta tai pysäyttää sen leviämistä sammuttamalla tartunnan saaneen tietokoneen. Kun infektio on olemassa, on liian myöhäistä.

Jos virus voi upota itsensä järjestelmään vastustamaan poistamista tai kopioimasta itseään ja tartuttamaan muita järjestelmiä ennen kuin edes tiedämme, mitä tapahtuu, keinotekoista tiedustelua olisi äärettömän vaikea poistaa. Mikä pahempaa, tällä älykkäällä se voisi löytää keinoja itsensä säilyttämiseen, jonka ajattelisimme täysin mahdottomaksi, koska meillä ei ole älyä osata saavuttaa sitä, kuten yrittää ajatella lentokoneen fysiikkaa samalla, kun hänellä on paviaanin aivokapasiteetti. .

Voisimme näyttää sulkevan keinotekoisen tiedustelun vain katsellaksemme, kuinka se ilmestyy toisella puolella maailmaa kuin taikuudella, emmekä koskaan tiedä, miten se pystyi pääsemään sinne.

Miksi sitten tehdä sitä ollenkaan?

Tämä on kysymys, jonka luonnollisesti kysymme, mutta ongelmana on, että ei ole todellista tapaa kehittää järjestelmää, joka on edes merkittävä prosenttiosuus AGI: stä, mikä ei edellytä järjestelmän kasvun ja kehityksen hallinnan antamista tekoälylle itselleen, tapaa, jolla oman älykkyytemme kehittäminen on aivojemme automaattinen toiminto, joka muodostaa itsestään uudet hermoyhteydet.

Jos haluamme ylittää nykyiset alkeelliset AFI: t, meidän on oletettava, että keinotekoinen supertieto on yhtä väistämätöntä kuin ydinaseet olivat väistämättömiä atomin jakamisen jälkeen käyttämään ydinfissiota virtalähteenä. Viime kädessä ainoa tapa estää keinotekoisen supertieteen syntyminen on lopettaa tekoälyn jatkokehitys, joka ei näytä todennäköiseltä tai edes mahdolliselta tässä vaiheessa.

Aivan kuten keinotekoisella supertiedustelulla on rajattomat mahdollisuudet vahingoittaa, se voi olla yhtä hyödyllistä ainakin sen luojille. Jos sinulla on kaksi kontradiktorista valtiota, kuinka yksi kansakunta voisi luottaa toiseen näin voimakkaalla järjestelmällä? Aivan kun Neuvostoliiton käynnistämä Sputnik-isku ajoi syntyvän Yhdysvaltain avaruusohjelman ylinopeuteen, tekoälyn kehitys on jo riittävän pitkälle edennyt, ettei kukaan halua tulla toiseksi AI-kilpailussa. Haittapuolena jäämisen jälkeen on yksinkertaisesti liian suuri.

Jos kannustimet ovat suurempia kehittyneempien tekoälyjen kehittämisen puolella kuin seuraava kaveri, tekoälyn aseiden kilpailu on väistämätöntä, ja kuten olemme jo nähneet, ei ole tietä AGI: lle, joka ei tuota ASI: ta melkein välittömästi jälkeenpäin. Joten jos sen syntyminen on melkein taattu, sitä enemmän tutkimme ja kehitämme tekoälyä, sinulla on vielä enemmän kannustimia olla se, joka kehittää sitä ensin. Tällä tavalla sinulla on parhaat mahdollisuudet siihen, että supertieto on hyväntahtoinen sinua kohtaan tai ainakaan ei vihamielinen.

Tervetuloa tekoälyn vangin dilemmaan.

Pitäisikö meidän pelätä keinotekoista tiedustelua?

Tietysti.

Kuten kaikilla teknisillä kehityksillä, on aina tahattomia seurauksia, ja kun meillä on keinotekoinen supertieto, ei ole paluuta.

Mutta meidän tulisi muistaa, että luonteemme on nähdä uhka, joka tällaiseen järjestelmään liittyy, koska evoluutio on meille kova johto havaita vaara ja välttää se. Jotain tätä voimakasta voisi todellakin päättää, ja sillä olisi todennäköisesti valta tuhota koko ihmiselämä, jos sen tavoitteena oli säilyttää koko planeetan elämä. Suurin uhka maapallon elämälle on loppujen lopuksi ihmissivilisaatio.

Mutta jos sillä on tällainen voima, sillä olisi yhtä paljon voimaa estää tai jopa kääntää ilmastonmuutos sen sijaan, ja siinä on valinta, jonka ihmiskunnan on tehtävä.

Aivan kuten ASI: n mahdolliset haittapuolet ovat rajattomat, on yhtä mahdotonta asettaa rajaa hyvälle, jollainen tällainen saavuttaa. Mitä ajattelemme, ASI: lla on mahdollisuus tehdä enemmän. Ilmastonmuutos, sairauksien hävittäminen, puutteen ja nälänhädän loppu, kuoleman loppu ja jopa nopeampi kuin kevyt matkustaminen kaukaisiin galakseihin ovat kaikki yhtä ajateltavissa olevia - ja ehkä jopa todennäköisempiä - ASI: n seurauksia kuin kuolematon , pahantahtoinen diktaattorihirviö, jota Elon Musk varoittaa.

Meillä on kaikki syyt uskoa, että lopulta ASI toimii hyödyksi. Jokainen teknologinen edistys on tullut kalliiksi, mutta ihmissivilisaatio on edennyt sen takia. Loppujen lopuksi ihmisillä on vankka kokemus tekniikan suhteen. Kyllä, voimme tuottaa uskomattoman tuhoavia aseita, mutta voimme myös hävittää isorokko ja polio. Olemme suurelta osin voittaneet nälänhädän sellaisena kuin se on, ja jopa sodat ovat jatkuvasti laskussa.

Jos tulevaisuutemme on jotain menneisyyttämme, voimme olla perustellusti optimistisia tekoälyn tulevaisuuden suhteen. Keinotekoinen supertieto on sitten se, mitä teemme siitä, aivan kuten lapset ovat enemmän kuin vain vanhempiensa biologinen tuote, joten on kriittistä, että päätämme sivilisaationa juuri sen, minkälaisen keinotekoisen tiedustelun haluamme luoda.


Katso video: Uudenmaan maakuntavaltuuston kokous (Lokakuu 2021).