Inteligență artificială. Partea a doua: dispariția sau nemurirea?

Cuprins:

Inteligență artificială. Partea a doua: dispariția sau nemurirea?
Inteligență artificială. Partea a doua: dispariția sau nemurirea?

Video: Inteligență artificială. Partea a doua: dispariția sau nemurirea?

Video: Inteligență artificială. Partea a doua: dispariția sau nemurirea?
Video: Noi, cei din linia întâi (1986) 2024, Mai
Anonim
Inteligență artificială. Partea a doua: dispariția sau nemurirea?
Inteligență artificială. Partea a doua: dispariția sau nemurirea?

Înaintea ta este a doua parte a unui articol din seria „Așteaptă, cum toate acestea pot fi reale, de ce încă nu se vorbește la fiecare colț”. În seria anterioară, a devenit cunoscut faptul că o explozie de inteligență se strecoară treptat până la oamenii planetei Pământ, încearcă să se dezvolte de la inteligența îngustă la inteligența universală și, în cele din urmă, la superinteligența artificială.

„Poate că ne confruntăm cu o problemă extrem de dificilă și nu se știe cât timp este alocat soluției sale, dar viitorul umanității poate depinde de soluția sa”. - Nick Bostrom.

Prima parte a articolului a început destul de inocent. Am discutat despre inteligența artificială limitată (AI, specializată în rezolvarea unei probleme specifice, cum ar fi determinarea rutelor sau jocul de șah), există o mulțime de lucruri în lumea noastră. Apoi au analizat de ce este atât de dificil să crești inteligența artificială direcțională generală (AGI, sau AI, care, în ceea ce privește capacitățile intelectuale, se poate compara cu un om în rezolvarea oricărei probleme), este atât de dificilă. Am ajuns la concluzia că rata exponențială a progresului tehnologic sugerează că AGI ar putea fi în curând. În cele din urmă, am decis că de îndată ce mașinile au ajuns la inteligența umană, s-ar putea întâmpla imediat:

Imagine
Imagine
Imagine
Imagine
Imagine
Imagine
Imagine
Imagine

Ca de obicei, ne uităm la ecran, fără a crede că superinteligența artificială (ISI, care este mult mai inteligentă decât orice persoană) poate apărea în timpul vieții noastre și alegem emoții care ar reflecta cel mai bine opinia noastră cu privire la această problemă.

Înainte de a ne scufunda în specificul ISI, să ne reamintim ce înseamnă pentru o mașină să fie superinteligentă.

Principala diferență constă între superinteligența rapidă și superinteligența de calitate. Adesea, primul lucru care îți vine în minte atunci când te gândești la un computer superinteligent este că poate gândi mult mai repede decât o persoană - de milioane de ori mai repede și, în cinci minute, va înțelege ce i-ar trebui unei persoane zece ani. („Știu kung fu!”)

Sună impresionant, iar ISI ar trebui să gândească mai repede decât oricare dintre oameni - dar principala caracteristică de separare va fi calitatea inteligenței sale, care este complet diferită. Oamenii sunt mult mai deștepți decât maimuțele, nu pentru că gândesc mai repede, ci pentru că creierul lor conține o serie de module cognitive ingenioase care realizează reprezentări lingvistice complexe, planificare pe termen lung, gândire abstractă, de care maimuțele nu sunt capabile. Dacă accelerați creierul unei maimuțe de o mie de ori, acesta nu va deveni mai inteligent decât noi - chiar și după zece ani nu va fi capabil să asambleze un constructor conform instrucțiunilor, care ar dura o persoană cel mult câteva ore. Există lucruri pe care o maimuță nu le va învăța niciodată, indiferent de câte ore petrece sau cât de repede funcționează creierul său.

În plus, maimuța nu știe cât de uman, deoarece creierul său pur și simplu nu este capabil să realizeze existența altor lumi - maimuța poate să știe ce este o persoană și ce este un zgârie-nori, dar nu va înțelege niciodată că un zgârie-nori a fost construit de oameni. În lumea ei, totul aparține naturii, iar macacul nu numai că nu poate construi un zgârie-nori, ci și să înțeleagă că oricine îl poate construi deloc. Și acesta este rezultatul unei mici diferențe în calitatea inteligenței.

În schema generală de inteligență despre care vorbim sau pur și simplu după standardele ființelor biologice, diferența în calitatea inteligenței dintre oameni și maimuțe este mică. În articolul precedent, am plasat abilitățile cognitive biologice pe o scară:

Imagine
Imagine

Pentru a înțelege cât de serioasă va fi o mașină superinteligentă, puneți-o cu două crestături mai sus decât persoana de pe acea scară. Această mașină poate fi doar puțin superinteligentă, dar superioritatea sa față de abilitățile noastre cognitive va fi aceeași cu a noastră - față de maimuțe. Și așa cum un cimpanzeu nu va înțelege niciodată că se poate construi un zgârie-nori, s-ar putea să nu înțelegem niciodată ce va înțelege o mașină cu câțiva pași mai sus, chiar dacă mașina încearcă să ne-o explice. Dar acesta este doar câțiva pași. Mașina mai inteligentă va vedea furnici în noi - ne va învăța cele mai simple lucruri de la poziția sa de ani de zile, iar aceste încercări vor fi complet fără speranță.

Tipul de superinteligență despre care vom vorbi astăzi se află dincolo de această scară. Aceasta este o explozie de inteligență - atunci când o mașină devine mai inteligentă, cu atât mai repede își poate crește propria inteligență, crescând treptat impulsul. S-ar putea să dureze ani până când o mașină de acest gen să depășească cimpanzeii în inteligență, dar poate câteva ore să ne depășească cu câteva crestături. Din acel moment, mașina poate sări deja peste patru trepte în fiecare secundă. De aceea, ar trebui să înțelegem că foarte curând după ce apar primele știri că aparatul a atins nivelul de inteligență umană, putem confrunta realitatea coexistenței pe Pământ cu ceva care va fi mult mai înalt decât noi pe această scară (sau poate, și de milioane de ori mai mare):

Imagine
Imagine

Și din moment ce am stabilit că este complet inutil să încercăm să înțelegem puterea unei mașini care se află la doar doi pași deasupra noastră, să definim odată pentru totdeauna că nu există nicio modalitate de a înțelege ce va face ISI și care sunt consecințele asta va fi pentru noi. Oricine pretinde contrariul pur și simplu nu înțelege ce înseamnă superinteligența.

Evoluția a evoluat încet și treptat creierul biologic de-a lungul a sute de milioane de ani și, dacă oamenii creează o mașină superinteligentă, într-un sens, vom transcende evoluția. Sau va face parte din evoluție - poate că evoluția funcționează în așa fel încât inteligența se dezvoltă treptat până când atinge un moment de cotitură care anunță un nou viitor pentru toate viețuitoarele:

Imagine
Imagine

Din motive pe care le vom discuta mai târziu, o secțiune imensă a comunității științifice consideră că întrebarea nu este dacă vom ajunge la acest punct de vârf, ci când.

Unde ajungem după asta?

Cred că nimeni în această lume, nici eu, nici voi, nu vom putea spune ce se va întâmpla când vom ajunge la punctul de vârf. Filosoful de la Oxford și principalul teoretic al inteligenței artificiale Nick Bostrom consideră că putem rezolva toate rezultatele posibile în două mari categorii.

Mai întâi, uitându-ne la istorie, știm următoarele despre viață: speciile apar, există pentru o anumită perioadă de timp și apoi inevitabil cad de pe balustradă și se sting.

Imagine
Imagine

„Toate speciile mor” a fost o regulă la fel de fiabilă în istorie ca și „toți oamenii mor cândva”. 99,9% din specii au căzut dintr-un butuc de viață și este destul de clar că, dacă o specie atârnă prea mult timp pe acest butuc, o rafală de vânt natural sau un asteroid brusc vor întoarce buștenul. Bostrom numește dispariția starea unui atrăgător - un loc în care toate speciile se echilibrează pentru a nu cădea acolo unde nici o specie nu s-a întors încă.

Și, deși majoritatea oamenilor de știință recunosc că ISI va avea capacitatea de a condamna oamenii la dispariție, mulți cred, de asemenea, că utilizarea capacităților ISI va permite indivizilor (și speciei în ansamblu) să atingă a doua stare a atractivului - nemurirea speciilor. Bostrom crede că nemurirea unei specii este la fel de atrăgătoare ca și dispariția unei specii, adică, dacă vom ajunge la aceasta, vom fi sortiți existenței eterne. Astfel, chiar dacă toate speciile până acum au căzut din acest băț în vâltoarea dispariției, Bostrom crede că bușteanul are două laturi și pur și simplu nu a apărut pe Pământ o astfel de inteligență care ar înțelege cum să cadă pe cealaltă parte.

Imagine
Imagine

Dacă Bostrom și alții au dreptate și, judecând după toate informațiile disponibile, ar putea fi așa, trebuie să acceptăm două fapte foarte șocante:

Apariția ISI pentru prima dată în istorie va deschide calea către o specie pentru a atinge nemurirea și a ieși din ciclul fatal al dispariției.

Apariția ISI va avea un impact atât de inimaginabil de mare încât, cel mai probabil, va împinge omenirea de pe acest buștean într-o direcție sau alta.

Este posibil ca atunci când evoluția atinge un astfel de moment de cotitură, ea să pună capăt întotdeauna relației oamenilor cu fluxul vieții și să creeze o lume nouă, cu sau fără oameni.

Acest lucru duce la o întrebare interesantă pe care doar un prost nu l-ar pune: când vom ajunge la acest punct de basculare și unde ne va pune? Nimeni din lume nu știe răspunsul la această dublă întrebare, dar mulți oameni deștepți au încercat să-și dea seama de zeci de ani. Pentru restul articolului, ne vom da seama de unde au venit.

* * *

Să începem cu prima parte a acestei întrebări: când ar trebui să ajungem la punctul de vârf? Cu alte cuvinte: cât timp mai rămâne până când prima mașină ajunge la superinteligență?

Opiniile variază de la caz la caz. Mulți, inclusiv profesorul Vernor Vinge, omul de știință Ben Herzel, cofondatorul Sun Microsystems, Bill Joy, futuristul Ray Kurzweil, au fost de acord cu expertul în învățare automată, Jeremy Howard, când a prezentat următorul grafic la TED Talk:

Imagine
Imagine

Acești oameni împărtășesc opinia că ISI va veni în curând - această creștere exponențială, care ni se pare lentă astăzi, va exploda literalmente în următoarele câteva decenii.

Alții, precum co-fondatorul Microsoft, Paul Allen, psihologul cercetător Gary Marcus, expertul în calculatoare Ernest Davis și antreprenorul tehnologic Mitch Kapor, cred că gânditori precum Kurzweil subestimează serios amploarea problemei și cred că nu suntem aproape la fel de punct critic.

Tabăra lui Kurzweil susține că singura subestimare care apare este nesocotirea creșterii exponențiale, iar cei care se îndoiesc pot fi comparați cu cei care au privit internetul care crește încet în 1985 și au susținut că nu ar avea niciun impact asupra lumii în viitorul apropiat.

Îndoielile se pot opri că este mai dificil pentru progres să facă fiecare pas ulterior când vine vorba de dezvoltarea exponențială a inteligenței, care neutralizează natura exponențială tipică a progresului tehnologic. Etc.

A treia tabără, în care se află Nick Bostrom, nu este de acord nici cu prima, nici cu cea de-a doua, susținând că a) toate acestea se pot întâmpla absolut în viitorul apropiat; și b) nu există nicio garanție că acest lucru se va întâmpla deloc sau că va dura mai mult.

Alții, precum filosoful Hubert Dreyfus, cred că toate cele trei grupuri cred cu naivitate că va exista un punct de bascul și că cel mai probabil nu vom ajunge niciodată la ISI.

Ce se întâmplă când punem toate aceste păreri la un loc?

În 2013, Bostrom a realizat un sondaj în care a intervievat sute de experți în AI la o serie de conferințe pe tema următoare: „Care vor fi previziunile dvs. pentru realizarea AGI la nivel uman?” și ne-a cerut să numim un an optimist (în care vom avea AGI cu o șansă de 10%), o ipoteză realistă (un an în care vom avea AGI cu o probabilitate de 50%) și o presupunere încrezătoare (primul an în care AGI va apărea din probabilitatea de 90%). Iată rezultatele:

* An optimist mediu (10%): 2022

* An realist mediu (50%): 2040

* Anul pesimist mediu (90%): 2075

Respondenții medii cred că peste 25 de ani vom avea AGI mai degrabă decât nu. O șansă de 90% să apară AGI până în 2075 înseamnă că, dacă sunteți încă destul de tânăr acum, cel mai probabil se va întâmpla în timpul vieții voastre.

Un studiu separat realizat recent de James Barratt (autorul aclamatei și foarte bune cărți Our Latest Invention, extrase din Am prezentat în atenția cititorilor Hi-News.ru) și Ben Hertzel la Conferința AGI, Conferința anuală AGI, au arătat pur și simplu opiniile oamenilor cu privire la anul în care ajungem la AGI: 2030, 2050, 2100, mai târziu sau niciodată. Iată rezultatele:

* 2030: 42% dintre respondenți

* 2050: 25%

* 2100: 20%

După 2100: 10%

Niciodată: 2%

Similar cu rezultatele lui Bostrom. În sondajul Barratt, mai mult de două treimi dintre cei chestionați consideră că AGI va fi aici până în 2050 și mai puțin de jumătate cred că AGI va apărea în următorii 15 ani. De asemenea, este izbitor faptul că doar 2% dintre respondenți, în principiu, nu văd AGI în viitorul nostru.

Dar AGI nu este un punct de vârf ca ISI. Când, potrivit experților, vom avea un ISI?

Bostrom i-a întrebat pe experți când vom ajunge la ASI: a) la doi ani după ce am ajuns la AGI (adică aproape instantaneu din cauza unei explozii de informații); b) după 30 de ani. Rezultate?

Opinia medie este că tranziția rapidă de la AGI la ISI va avea loc cu o probabilitate de 10%, dar în 30 de ani sau mai puțin va avea loc cu o probabilitate de 75%.

Din aceste date, nu știm la ce dată respondenții ar numi o șansă de 50% a unui ASI, dar pe baza celor două răspunsuri de mai sus, să presupunem că sunt 20 de ani. Adică, experții mondiali în AI consideră că punctul de cotitură va veni în 2060 (AGI va apărea în 2040 + vor trece 20 de ani pentru trecerea de la AGI la ISI).

Imagine
Imagine

Desigur, toate statisticile de mai sus sunt speculative și reprezintă pur și simplu opinia experților din domeniul inteligenței artificiale, dar indică, de asemenea, că majoritatea persoanelor interesate sunt de acord că până în 2060 este probabil ca AI să ajungă. În doar 45 de ani.

Să trecem la a doua întrebare. Când ajungem la punctul de vârf, care parte a alegerii fatale ne va determina?

Superinteligența va avea cea mai puternică putere, iar întrebarea critică pentru noi va fi următoarea:

Cine sau ce va controla această putere și care va fi motivația lor?

Răspunsul la această întrebare va depinde dacă ISI obține o dezvoltare incredibil de puternică, o dezvoltare nemăsurabil de terifiantă sau ceva între ele.

Desigur, comunitatea de experți încearcă să răspundă și la aceste întrebări. Sondajul lui Bostrom a analizat probabilitatea posibilelor consecințe ale impactului AGI asupra umanității și s-a dovedit că, cu o șansă de 52%, totul va merge foarte bine și cu o șansă de 31%, totul va merge fie rău, fie extrem de rău. Sondajul atașat la sfârșitul părții anterioare a acestui subiect, realizat printre voi, dragi cititori ai Hi-News, a arătat aproximativ aceleași rezultate. Pentru un rezultat relativ neutru, probabilitatea a fost de doar 17%. Cu alte cuvinte, credem cu toții că AGI va fi o mare problemă. De asemenea, este demn de remarcat faptul că acest sondaj se referă la apariția AGI - în cazul ISI, procentul de neutralitate va fi mai mic.

Înainte de a ne aprofunda în gândirea părților bune și rele ale întrebării, să combinăm ambele părți ale întrebării - „când se va întâmpla acest lucru?” și "este bine sau rău?" într-un tabel care acoperă punctele de vedere ale majorității experților.

Imagine
Imagine

Vom vorbi despre tabăra principală într-un minut, dar mai întâi decideți-vă poziția. Șansele sunt că vă aflați în același loc cu mine înainte de a începe să lucrez la acest subiect. Există mai multe motive pentru care oamenii nu se gândesc deloc la acest subiect:

* După cum sa menționat în prima parte, filmele au confundat serios oamenii și faptele, prezentând scenarii nerealiste cu inteligență artificială, ceea ce a dus la faptul că nu ar trebui să luăm deloc AI în serios. James Barratt a comparat această situație cu cea emisă de Centrele pentru Controlul Bolilor (CDC) cu un avertisment serios despre vampiri în viitorul nostru.

* Datorită așa-numitelor prejudecăți cognitive, este foarte greu pentru noi să credem că ceva este real până nu avem dovezi. Ne putem imagina cu încredere pe oamenii de știință din 1988 care discutau în mod regulat consecințele de anvergură ale internetului și ce ar putea deveni, dar oamenii credeau cu greu că le va schimba viața până nu se va întâmpla efectiv. Doar că computerele nu știau cum să facă acest lucru în 1988, iar oamenii doar s-au uitat la computerele lor și s-au gândit: „Chiar? Asta va schimba lumea? Imaginația lor era limitată de ceea ce învățaseră din experiența personală, știau ce este un computer și era dificil să ne imaginăm de ce ar fi capabil un computer în viitor. La fel se întâmplă acum și cu AI. Am auzit că va deveni un lucru serios, dar, din moment ce nu l-am întâlnit încă față în față și, în general, observăm manifestări destul de slabe ale IA în lumea noastră modernă, este destul de dificil pentru noi să credem că va fi radical schimbă-ne viața. Împotriva acestor prejudecăți, numeroși experți din toate taberele, precum și oamenii interesați, se opun încercării de a ne atrage atenția prin zgomotul egocentrismului colectiv de zi cu zi.

* Chiar dacă am crezut în toate acestea - de câte ori v-ați gândit astăzi la faptul că veți petrece restul eternității în neant? Un pic, de acord. Chiar dacă acest fapt este mult mai important decât orice faceți zi de zi. Acest lucru se datorează faptului că creierul nostru este de obicei axat pe lucruri mici, de zi cu zi, indiferent cât de delirantă este situația pe termen lung în care ne aflăm. Doar că suntem făcuți.

Unul dintre obiectivele acestui articol este să te scoată din tabără numit „Îmi place să mă gândesc la alte lucruri” și să te plasez în tabăra de experți, chiar dacă stai doar la răscruce de drum între cele două linii punctate din piață deasupra, complet nehotărât.

În cursul cercetărilor, devine evident că opiniile majorității oamenilor se îndreaptă rapid spre „tabăra principală”, iar trei sferturi dintre experți se încadrează în două subcampuri din tabăra principală.

Imagine
Imagine

Vom vizita ambele tabere în întregime. Să începem cu distracția.

De ce viitorul ar putea fi cel mai mare vis al nostru?

Pe măsură ce explorăm lumea AI, găsim surprinzător de mulți oameni în zona noastră de confort. Oamenii din pătratul din dreapta sus bâzâie de entuziasm. Ei cred că vom cădea de partea bună a jurnalului și, de asemenea, cred că vom ajunge inevitabil la acest lucru. Pentru ei, viitorul este doar cel mai bun la care se poate visa doar.

Ideea care îi deosebește pe acești oameni de alți gânditori nu este că vor să fie pe partea fericită - ci că sunt siguri că ea ne așteaptă.

Această încredere iese din controversă. Criticii cred că provine dintr-o emoție orbitoare care umbrește potențialele părți negative. Dar susținătorii spun că predicțiile mohorâte sunt întotdeauna naive; tehnologia continuă și ne va ajuta întotdeauna mai mult decât să ne facă rău.

Sunteți liber să alegeți oricare dintre aceste păreri, dar lăsați deoparte scepticismul și aruncați o privire bună asupra părții fericite a balansului, încercând să acceptați faptul că tot ce ați citit este posibil să se fi întâmplat deja. Dacă le-ați arăta vânătorilor-culegători lumea noastră de confort, tehnologie și abundență nesfârșită, le-ar părea o ficțiune magică - și ne comportăm destul de modest, incapabili să admitem că aceeași transformare de neînțeles ne așteaptă în viitor.

Nick Bostrom descrie trei căi pe care le poate lua un sistem AI superinteligent:

* Un oracol care poate răspunde la orice întrebare exactă, inclusiv la întrebări dificile la care oamenii nu pot răspunde - de exemplu, „cum să eficientizăm motorul unei mașini?” Google este un tip primitiv de „oracol”.

* Un geniu care va executa orice comandă de nivel înalt - folosind asamblorul molecular pentru a crea o nouă versiune mai eficientă a unui motor de automobile - și va aștepta următoarea comandă.

* Un suveran care va avea acces larg și capacitatea de a funcționa liber în lume, luând propriile decizii și îmbunătățind procesul. El va inventa un mod de transport privat mai ieftin, mai rapid și mai sigur decât o mașină.

Aceste întrebări și sarcini, care ni se par dificile, vor părea sistemului superinteligent ca și cum cineva ar cere să îmbunătățească situația „creionul meu a căzut de pe masă”, în care pur și simplu l-ai ridica și l-ai pune înapoi.

Eliezer Yudkowski, un specialist american în inteligență artificială, a spus bine:

„Nu există probleme dure, ci doar probleme care sunt dificile pentru un anumit nivel de inteligență. Mergeți cu un pas mai sus (în ceea ce privește inteligența), iar unele probleme vor trece brusc de la categoria „imposibil” în tabăra „evidentului”. Un pas mai sus - și toate vor deveni evidente.

Există mulți oameni de știință, inventatori și antreprenori nerăbdători care au ales o zonă de confort încrezător de la masa noastră, dar avem nevoie doar de un singur ghid pentru a merge mai bine în această lume bună.

Ray Kurzweil este ambiguu. Unii îi idolatrează ideile, alții îl disprețuiesc. Unii rămân la mijloc - Douglas Hofstadter, discutând despre ideile cărților lui Kurzweil, a remarcat elocvent că „parcă ai fi luat o mulțime de mâncare bună și puțină caca de câine, apoi ai amestecat totul în așa fel încât este imposibil de înțeles ce este bine și ce este rău.

Indiferent dacă îți plac sau nu ideile sale, este imposibil să le treci fără o umbră de interes. A început să inventeze lucruri în adolescență, iar în anii următori a inventat mai multe lucruri importante, inclusiv primul scaner plat, primul scaner care a transformat textul în vorbire, binecunoscutul sintetizator de muzică Kurzweil (primul pian electric real) și primul recunoscător de vorbire cu succes comercial. De asemenea, este autorul a cinci cărți senzaționale. Kurzweil este apreciat pentru predicțiile sale îndrăznețe, iar palmaresul său este destul de bun - la sfârșitul anilor '80, când Internetul era încă la început, el a prezis că până în anii 2000 web-ul va deveni un fenomen global. Wall Street Journal l-a numit pe Kurzweil un „geniu neliniștit”, Forbes „o mașină de gândire globală”, Inc. Magazine - „Moștenitorul de drept al lui Edison”, Bill Gates - „cel mai bun dintre cei care prezic viitorul inteligenței artificiale”. În 2012, cofondatorul Google, Larry Page, l-a invitat pe Kurzweil la postul de CTO. În 2011, a cofondat Singularity University, care este găzduită de NASA și parțial sponsorizată de Google.

Biografia sa contează. Când Kurzweil vorbește despre viziunea sa despre viitor, sună ca o nebunie nebună, dar cu adevărat nebunul este că este departe de a fi nebun - este o persoană incredibil de inteligentă, educată și sănătoasă. S-ar putea să credeți că greșește în predicțiile sale, dar nu este un prost. Previziunile lui Kurzweil sunt împărtășite de mulți experți în zona de confort, Peter Diamandis și Ben Herzel. Iată ce crede el că se va întâmpla.

Cronologie

Kurzweil consideră că computerele vor atinge nivelul de inteligență artificială generală (AGI) până în 2029, iar până în 2045 nu vom avea doar superinteligență artificială, ci și o lume complet nouă - timpul așa-numitei singularități. Cronologia sa de IA este încă considerată exagerat de exagerată, dar în ultimii 15 ani, dezvoltarea rapidă a sistemelor de inteligență artificială (AI) foarte concentrate a forțat mulți experți să se alăture lui Kurzweil. Predicțiile sale sunt încă mai ambițioase decât cele din ancheta lui Bostrom (AGI până în 2040, ISI până în 2060), dar nu cu mult.

Potrivit lui Kurzweil, Singularitatea din 2045 este condusă de trei revoluții simultane în biotehnologie, nanotehnologie și, mai important, AI. Dar, înainte de a continua - și nanotehnologia urmărește îndeaproape inteligența artificială - să luăm un moment la nanotehnologie.

Imagine
Imagine

Câteva cuvinte despre nanotehnologie

De obicei, numim tehnologii nanotehnologice care se ocupă de manipularea materiei în intervalul 1-100 nanometri. Un nanometru este o miliardime de metru sau o milionime de milimetru; în intervalul de 1-100 nanometri, pot fi găzduiți viruși (100 nm în diametru), ADN (10 nm în lățime), molecule de hemoglobină (5 nm), glucoză (1 nm) și altele. Dacă nanotehnologia ne devine vreodată supusă, următorul pas va fi manipularea atomilor individuali care au mai puțin de un ordin de mărime (~, 1 nm).

Pentru a înțelege unde oamenii se confruntă cu probleme încercând să manipuleze materia la o astfel de scară, să trecem la o scară mai mare. Stația Spațială Internațională este la 481 de kilometri deasupra Pământului. Dacă oamenii ar fi giganți și ar lovi ISS cu capul, ar fi de 250.000 de ori mai mari decât sunt acum. Dacă măriți ceva de la 1 la 100 nanometri de 250.000 de ori, obțineți 2,5 centimetri. Nanotehnologia este echivalentul unui om, care orbitează ISS, încercând să manipuleze lucrurile de mărimea unui bob de nisip sau a unui glob ocular. Pentru a ajunge la nivelul următor - controlul atomilor individuali - uriașul va trebui să poziționeze cu atenție obiectele cu un diametru de 1/40 milimetri. Oamenii obișnuiți vor avea nevoie de un microscop pentru a-i vedea.

Pentru prima dată, Richard Feynman a vorbit despre nanotehnologie în 1959. Apoi a spus: „Principiile fizicii, din câte îmi dau seama, nu vorbesc împotriva posibilității de a controla lucrurile atom cu atom. În principiu, un fizician ar putea sintetiza orice substanță chimică pe care un chimist a notat-o. Cum? Prin plasarea atomilor acolo unde chimistul spune să obțină substanța. Aceasta este întreaga simplitate. Dacă știi cum să miști molecule sau atomi individuali, poți face aproape orice.

Nanotehnologia a devenit un domeniu științific serios în 1986, când inginerul Eric Drexler și-a prezentat fundamentele în cartea sa fundamentală Machines of Creation, dar Drexler însuși consideră că cei care doresc să afle mai multe despre ideile moderne în nanotehnologie ar trebui să citească cartea sa din 2013. Abundența completă (Radical Abundenţă).

Câteva cuvinte despre „goo gri”

Ne adâncim în nanotehnologie. În special, subiectul „goo gri” este unul dintre subiectele nu foarte plăcute în domeniul nanotehnologiei, care nu poate fi ignorat. Versiunile mai vechi ale teoriei nanotehnologiei au propus o metodă de nano-asamblare care implică crearea a trilioane de nanorobotați mici care ar funcționa împreună pentru a crea ceva. O modalitate de a crea trilioane de nanoroboți este de a crea unul care să se poată autoreplica, adică de la unu la doi, de la doi la patru și așa mai departe. Câteva trilioane de nanoroboti vor apărea într-o zi. Aceasta este puterea creșterii exponențiale. Amuzant, nu-i așa?

Este amuzant, dar exact până când duce la apocalipsă. Problema este că puterea creșterii exponențiale, care îl face o modalitate destul de convenabilă de a crea rapid un trilion de nanobotoți, face din auto-replicare un lucru înfricoșător pe termen lung. Ce se întâmplă dacă sistemul se blochează și, în loc să oprească replicarea pentru câteva trilioane, nanoboții continuă să se reproducă? Ce se întâmplă dacă întregul proces depinde de carbon? Biomasa Pământului conține 10 ^ 45 de atomi de carbon. Un nanobot ar trebui să fie de ordinul a 10 ^ 6 atomi de carbon, astfel încât 10 ^ 39 nanobot vor devora toată viața de pe Pământ în doar 130 de replicări. Un ocean de nanoboti („goo gri”) va inunda planeta. Oamenii de știință cred că nanobotii se pot replica în 100 de secunde, ceea ce înseamnă că o simplă greșeală poate ucide toată viața de pe Pământ în doar 3,5 ore.

Ar putea fi și mai rău - dacă teroriștii și specialiștii nefavorabili ajung pe mâna nanotehnologiei. Ar putea crea mai multe trilioane de nanoboti și îi vor putea programa să se răspândească în liniște în întreaga lume în câteva săptămâni. Apoi, la atingerea unui buton, în doar 90 de minute vor mânca totul, fără nicio șansă.

În timp ce această poveste de groază a fost larg discutată de ani de zile, vestea bună este că este doar o poveste de groază. Eric Drexler, care a inventat termenul „goo gri”, a spus recent următoarele: „Oamenii adoră poveștile de groază, iar aceasta este una dintre poveștile de groază cu zombi. Această idee în sine mănâncă deja creiere."

Odată ce ajungem la baza nanotehnologiei, o putem folosi pentru a crea dispozitive tehnice, îmbrăcăminte, alimente, bioproduse - celule sanguine, luptători împotriva virusului și cancerului, țesutului muscular și așa mai departe - orice. Și într-o lume care folosește nanotehnologia, costul unui material nu va mai fi legat de deficitul său sau de complexitatea procesului său de fabricație, ci mai degrabă de complexitatea structurii sale atomice. În lumea nanotehnologiei, un diamant ar putea fi mai ieftin decât o radieră.

Nici măcar nu suntem aproape acolo. Și nu este pe deplin clar dacă subestimăm sau supraestimăm complexitatea acestei căi. Totuși, totul merge până la punctul în care nanotehnologia nu este departe. Kurzweil presupune că până în anii 2020 îi vom avea. Statele lumii știu că nanotehnologia poate promite un viitor grozav și, prin urmare, investesc multe miliarde în ele.

Imaginați-vă doar ce posibilități ar avea un computer superinteligent dacă ar ajunge la un ansamblu fiabil la scară nano. Dar nanotehnologia este ideea noastră și încercăm să o călătorim, pentru noi este dificilă. Ce se întâmplă dacă sunt doar o glumă pentru sistemul ISI, iar ISI în sine vine cu tehnologii care vor fi de multe ori mai puternice decât orice putem presupune, în principiu? Am fost de acord: nimeni nu-și poate imagina de ce superinteligența artificială va fi capabilă? Se crede că creierul nostru nu este capabil să prezică nici măcar minimul a ceea ce se va întâmpla.

Ce ar putea face AI pentru noi?

Imagine
Imagine

Înarmat cu superinteligență și cu toată tehnologia pe care ar putea să o creeze superinteligența, ISI va fi probabil în măsură să rezolve toate problemele umanității. Încălzire globală? ISI va opri mai întâi emisiile de carbon inventând o serie de modalități eficiente de a genera energie care nu este legată de combustibilii fosili. Apoi va veni cu un mod eficient, inovator, de a elimina excesul de CO2 din atmosferă. Cancerul și alte boli? Nu este o problemă - asistența medicală și medicina se vor schimba în moduri inimaginabile. Foame în lume? ISI va folosi nanotehnologia pentru a crea carne identică cu carnea naturală, de la zero, adevărată.

Nanotehnologia va putea transforma o grămadă de gunoi într-o cuvă de carne proaspătă sau alte alimente (nu neapărat chiar și în forma sa obișnuită - imaginați-vă un cub gigant de mere) și să distribuiți toate aceste alimente în întreaga lume folosind sisteme avansate de transport. Desigur, acest lucru va fi minunat pentru animalele care nu mai trebuie să moară pentru hrană. ISI poate face, de asemenea, multe alte lucruri, cum ar fi conservarea speciilor pe cale de dispariție sau chiar aducerea înapoi a celor dispărute din ADN-ul stocat. ISI ne poate rezolva cele mai dificile probleme macroeconomice - cele mai dificile dezbateri economice, probleme etice și filosofice, comerțul global - toate acestea vor fi dureros de evidente pentru ISI.

Dar există ceva foarte special pe care ISI l-ar putea face pentru noi. Ademenitor și ispititor care ar schimba totul: ISI ne poate ajuta să facem față mortalității … Înțelegând treptat capacitățile AI, poate vă veți reconsidera toate ideile despre moarte.

Nu a existat niciun motiv pentru care evoluția să ne extindă durata de viață mai mult decât acum. Dacă trăim suficient de mult pentru a naște și a crește copii până la punctul în care aceștia se pot descurca singuri, evoluția este suficientă. Din punct de vedere evolutiv, 30+ ani sunt suficienți pentru dezvoltare și nu există niciun motiv pentru mutații care să prelungească viața și să reducă valoarea selecției naturale. William Butler Yates a numit specia noastră „un suflet atașat unui animal pe moarte”. Nu prea distractiv.

Și din moment ce murim cu toții cândva, trăim cu ideea că moartea este inevitabilă. Ne gândim la îmbătrânire în timp - continuând să mergem înainte și să nu putem opri acest proces. Dar gândul la moarte este perfid: capturat de ea, uităm să trăim. Richard Feynman a scris:

„Există un lucru minunat în biologie: nu există nimic în această știință care să vorbească despre necesitatea morții. Dacă vrem să creăm o mașină de mișcare perpetuă, ne dăm seama că am găsit suficiente legi în fizică care fie indică imposibilitatea acestui lucru, fie că legile sunt greșite. Dar nu există nimic în biologie care să indice inevitabilitatea morții. Acest lucru mă face să cred că nu este atât de inevitabil și este doar o chestiune de timp înainte ca biologii să descopere cauza acestei probleme, această teribilă boală universală, va fi vindecată."

Faptul este că îmbătrânirea nu are nicio legătură cu timpul. Îmbătrânirea este atunci când materialele fizice ale corpului se uzează. De asemenea, piesele auto se degradează - dar îmbătrânirea este inevitabilă? Dacă reparați mașina pe măsură ce piesele se uzează, aceasta va dura pentru totdeauna. Corpul uman nu este diferit - doar mai complex.

Kurzweil vorbește despre nanoboti inteligenți, conectați la Wi-Fi în fluxul sanguin, care ar putea îndeplini nenumărate sarcini pentru sănătatea umană, inclusiv repararea sau înlocuirea regulată a celulelor uzate oriunde în corp. Îmbunătățirea acestui proces (sau găsirea unei alternative sugerate de un ASI mai inteligent) nu numai că va menține corpul sănătos, ci poate inversa îmbătrânirea. Diferența dintre corpul unui copil de 60 de ani și al unui copil de 30 de ani este o mână de probleme fizice care ar putea fi corectate cu tehnologia potrivită. ISI ar putea construi o mașină pe care o persoană ar intra atunci când are 60 de ani și ar pleca când va avea 30 de ani.

Chiar și un creier degradat ar putea fi reînnoit. ISI ar ști cu siguranță cum să facă acest lucru fără a afecta datele creierului (personalitate, amintiri etc.). Un bărbat în vârstă de 90 de ani care suferă de o degradare completă a creierului ar putea fi supus recalificării, reînnoirii și revenirii la începutul vieții sale. Poate părea absurd, dar corpul este o mână de atomi, iar ISI le-ar putea manipula cu ușurință, orice structură atomică. Nu este atât de absurd.

Kurzweil crede, de asemenea, că materialele artificiale se vor integra din ce în ce mai mult în corp odată cu trecerea timpului. Pentru început, organele ar putea fi înlocuite cu versiuni super-avansate de mașini care ar dura pentru totdeauna și nu vor da greș niciodată. Apoi am putea face o reproiectare completă a corpului, înlocuind celulele roșii din sânge cu nanoboti perfecți care se mișcă singuri, eliminând cu totul necesitatea unei inimi. Am putea, de asemenea, să ne îmbunătățim abilitățile cognitive, să începem să gândim de miliarde de ori mai repede și să accesăm toate informațiile disponibile umanității prin cloud.

Posibilitățile de a înțelege noi orizonturi ar fi cu adevărat nelimitate. Oamenii au reușit să înzestreze sexul cu un scop nou, o fac din plăcere, nu doar pentru reproducere. Kurzweil crede că putem face același lucru cu mâncarea. Nanobotii ar putea furniza nutriția ideală direct celulelor corpului, permițând substanțelor nesănătoase să treacă prin corp. Teoreticianul nanotehnologiei Robert Freitas a dezvoltat deja un înlocuitor pentru celulele sanguine, care, atunci când este implementat în corpul uman, îi poate permite să nu respire timp de 15 minute - și acest lucru a fost inventat de o persoană. Imaginați-vă când ISI va câștiga putere.

La urma urmei, Kurzweil crede că oamenii vor ajunge la punctul în care vor deveni complet artificiali; momentul în care ne uităm la materialele biologice și ne gândim cât de primitive erau; timp în care vom citi despre primele etape ale istoriei umane, uimiți de modul în care germenii, accidentele, bolile sau pur și simplu bătrânețea ar putea ucide o persoană împotriva voinței sale. În cele din urmă, oamenii își vor învinge propria lor biologie și vor deveni eterni - aceasta este calea către partea fericită a grinzii de echilibru despre care am vorbit încă de la început. Și oamenii care cred în asta sunt, de asemenea, siguri că un astfel de viitor ne așteaptă foarte, foarte curând.

Probabil nu veți fi surprinși de faptul că ideile lui Kurzweil au atras critici puternice. Singularitatea sa în 2045 și viața eternă ulterioară pentru oameni a fost numită „ascensiunea tocilarilor” sau „creație inteligentă a oamenilor cu un coeficient intelectual de 140”. Alții au pus la îndoială perioada optimistă, înțelegerea corpului și a creierului uman, amintind de legea lui Moore, care nu a dispărut încă. Pentru fiecare expert care crede în ideile lui Kurzweil, există trei care cred că greșește.

Dar cel mai interesant lucru este că majoritatea experților care nu sunt de acord cu el, în ansamblu, nu spun că acest lucru este imposibil. În loc să spună „prostii, acest lucru nu se va întâmpla niciodată”, ei spun ceva de genul „toate acestea se vor întâmpla dacă ajungem la ISI, dar aceasta este problema”. Bostrom, unul dintre experții în AI care avertizează despre pericolele AI, recunoaște, de asemenea:

„Nu a mai rămas nicio problemă pe care superinteligența să nu o poată rezolva sau chiar să ne ajute să rezolvăm. Bolile, sărăcia, distrugerea mediului, suferința de tot felul - toată această superinteligență cu ajutorul nanotehnologiei se poate rezolva într-un moment. Superinteligența ne poate oferi, de asemenea, o durată de viață nelimitată prin oprirea și inversarea procesului de îmbătrânire folosind nanomedicina sau capacitatea de a ne încărca în cloud. Superinteligența poate crea, de asemenea, oportunități pentru creșteri nesfârșite ale capacităților intelectuale și emoționale; el ne poate ajuta să creăm o lume în care vom trăi în bucurie și înțelegere, abordându-ne idealurile și realizând în mod regulat visele noastre."

Cu toate acestea, acesta este un citat al unuia dintre criticii lui Kurzweil, care admite că toate acestea sunt posibile dacă putem crea un ASI sigur. Kurzweil a definit pur și simplu ce ar trebui să devină superinteligența artificială, dacă este posibil. Și dacă este un zeu bun.

Cea mai evidentă critică a susținătorilor zonei de confort este că aceștia pot fi al naibii de greșiți atunci când evaluează viitorul ISI. În cartea sa The Singularity, Kurzweil a consacrat 20 de pagini din 700 de potențiale amenințări ISI. Întrebarea nu este când ajungem la ISI, întrebarea este care va fi motivația sa. Kurzweil răspunde la această întrebare cu prudență: „ISI provine din multe eforturi disparate și va fi profund integrat în infrastructura civilizației noastre. De fapt, va fi strâns înglobat în corpul și creierul nostru. El ne va reflecta valorile pentru că va fi unul cu noi.

Dar dacă răspunsul este, de ce sunt atât de mulți oameni deștepți din această lume îngrijorați de viitorul inteligenței artificiale? De ce spune Stephen Hawking că dezvoltarea ISI „ar putea însemna sfârșitul rasei umane”? Bill Gates spune că „nu înțelege oamenii care nu sunt deranjați”. Elon Musk se teme că „chemăm un demon”. De ce mulți experți consideră că ISI este cea mai mare amenințare pentru umanitate?

Vom vorbi despre asta data viitoare.

Recomandat: