Putem impiedica inteligenta artificiala sa depaseasca in inteligenta umanitatea?
, ,

Putem impiedica inteligenta artificiala sa depaseasca in inteligenta umanitatea?

Spectrul masinilor superinteligente care ne fac rau nu este doar science-fiction, spun tehnologii – deci cum ne putem asigura ca inteligenta artificiala ramane „prietenoasa” cu creatorii sai? Scrie Mara Hvistendahl in articolul sau.

„A inceput acum trei miliarde si jumatate de ani, intr-o balta de noroi, cand o molecula a facut o copie a ei insasi si a devenit astfel stramosul suprem al intregii vieti pamantesti. A inceput in urma cu patru milioane de ani, cand volumul creierului a inceput sa creasca rapid in randul hominidelor.

Acum cincizeci de mii de ani, odata cu aparitia lui Homo sapiens sapiens.

Acum zece mii de ani, cu inventarea civilizatiei.

Acum cinci sute de ani, odata cu inventarea tiparului.

Acum cincizeci de ani, odata cu inventarea computerului.

In mai putin de treizeci de ani, se va sfarsi.”

Jaan Tallinn a dat peste aceste cuvinte in 2007, intr-un eseu online intitulat Staring into the Singularity (Privirea in Singularitate – n. red.). „Ea” era civilizatia umana. Autorul eseului prezicea ca omenirea va inceta sa mai existe odata cu aparitia unei superinteligente, sau AI, care va depasi inteligenta umana intr-o gama larga de domenii.

Jaan Tallinn

Jaan Tallinn

Tallinn, un programator de calculatoare nascut in Estonia, are o pregatire in fizica si o inclinatie de a aborda viata ca pe o mare problema de programare. In 2003, a cofondat Skype, dezvoltand backend-ul aplicatiei. Si-a incasat actiunile dupa ce eBay a cumparat-o doi ani mai tarziu, iar acum cauta ceva de facut. Staring into the Singularity (Privirea in Singularitate) a amestecat codul informatic, fizica cuantica si citate din Calvin si Hobbes. Era captivat.

Tallinn a descoperit curand ca autorul, Eliezer Yudkowsky, un teoretician autodidact, scrisese peste 1.000 de eseuri si postari pe blog, multe dintre ele dedicate superinteligentei. El a scris un program care sa extraga scrierile lui Yudkowsky de pe internet, sa le ordoneze cronologic si sa le formateze pentru iPhone-ul sau. Apoi a petrecut aproape un an citindu-le.

Eliezer Yudkowsky

Eliezer Yudkowsky

Termenul de inteligenta artificiala, sau simularea inteligentei in calculatoare sau masini, a fost inventat in 1956, la numai un deceniu dupa crearea primelor calculatoare electronice digitale. Initial, speranta pentru acest domeniu a fost mare, dar in anii 1970, cand previziunile timpurii nu s-au adeverit, s-a instalat o „iarna a inteligentei artificiale”. Cand Tallinn a gasit eseurile lui Yudkowsky, AI trecea printr-o renastere. Oamenii de stiinta dezvoltau inteligente artificiale care excelau in domenii specifice, cum ar fi victoria la sah, curatarea podelei din bucatarie si recunoasterea vorbirii umane. Astfel de AI „ingusta”, asa cum sunt numite, au capacitati supraomenesti, dar numai in domeniile lor specifice de dominatie. O inteligenta artificiala care joaca sah nu poate curata podeaua sau sa va duca din punctul A in punctul B. Inteligenta artificiala superinteligenta, a ajuns sa creada Tallinn, va combina o gama larga de abilitati intr-o singura entitate. In mod mai sumbru, ar putea, de asemenea, sa foloseasca datele generate de oamenii care folosesc smartphone-uri pentru a excela in manipularea sociala.

Citind articolele lui Yudkowsky, Tallinn a devenit convins ca superinteligenta ar putea duce la o explozie sau la o izbucnire a IA care ar putea ameninta existenta umana – ca AI ultrasmart ne vor lua locul pe scara evolutiei si ne vor domina asa cum noi dominam acum maimutele. Sau, si mai rau, ne vor extermina.

Dupa ce a terminat ultimul dintre eseuri, Tallinn i-a trimis un e-mail lui Yudkowsky – toate cu minuscule, asa cum ii sta in fire. „sunt jaan, unul dintre inginerii fondatori ai skype”, a scris el. In cele din urma a ajuns la subiect: „sunt de acord ca… pregatirea pentru evenimentul in care inteligenta artificiala generala va depasi inteligenta umana este una dintre sarcinile de top ale umanitatii”. A vrut sa ajute.

ai, inteligenta artificiala, umanitatea

O saptamana mai tarziu, cand Tallinn a zburat spre Bay Area pentru alte intalniri, l-a intalnit pe Yudkowsky, care locuia in apropiere, intr-o cafenea din Millbrae, California. Intalnirea lor s-a intins pe durata a patru ore. „El a inteles cu adevarat, cu adevarat, conceptele de baza si detaliile”, mi-a spus recent Yudkowsky. „Acest lucru este foarte rar”. Ulterior, Tallinn a scris un cec de 5.000 de dolari (3.700 de lire sterline) catre Singularity Institute for Artificial Intelligence, organizatia nonprofit unde Yudkowsky a fost cercetator. (Organizatia si-a schimbat numele in Machine Intelligence Research Institute, sau Miri, in 2013). De atunci, Tallinn a dat institutului peste 600.000 de dolari.

Intalnirea cu Yudkowsky i-a adus lui Tallinn un scop, trimitandu-l in misiunea de a ne salva de propriile noastre creatii. El s-a angajat intr-o viata de calatorii, tinand conferinte in intreaga lume despre amenintarea reprezentata de superinteligenta. In principal, insa, a inceput sa finanteze cercetarea unor metode care ar putea oferi omenirii o cale de scapare: asa-numita inteligenta artificiala prietenoasa. Aceasta nu inseamna ca o masina sau un agent este deosebit de priceput in a discuta despre vreme sau ca isi aminteste numele copiilor dumneavoastra – desi AI superinteligenta ar putea fi capabila sa faca ambele lucruri. Nu inseamna ca este motivata de altruism sau dragoste. O eroare frecventa este aceea de a presupune ca AI are impulsuri si valori umane. „Prietenos” inseamna ceva mult mai fundamental: ca masinile de maine nu ne vor nimici in incercarea lor de a-si atinge obiectivele.

In primavara lui 2018, am luat masa cu Tallinn in sala de mese a Jesus College de la Universitatea Cambridge. Spatiul asemanator cu o biserica este impodobit cu vitralii, mulaje aurii si picturi in ulei cu barbati cu peruci. Tallinn s-a asezat la o masa grea de mahon, purtand hainele casual ale Silicon Valley: blugi negri, tricou si adidasi de panza. Un tavan boltit din lemn se intindea la inaltime deasupra socului sau de par blond-cenusiu.

Jaan Tallinn

Jaan Tallinn

La 47 de ani, Tallinn este, intr-un fel, un antreprenor tehnologic ca la carte. Crede ca, datorita progreselor din stiinta (si cu conditia ca inteligenta artificiala sa nu ne distruga), va trai „multi, multi ani”. Atunci cand iese in cluburi cu cercetatorii, ii intrece chiar si pe tinerii absolventi. Preocuparea sa cu privire la superinteligenta este comuna in randul cohortei sale. Fundatia cofondatorului PayPal, Peter Thiel, a donat 1,6 milioane de dolari lui Miri, iar in 2015, fondatorul Tesla, Elon Musk, a donat 10 milioane de dolari Institutului Future of Life, o organizatie pentru siguranta tehnologiei din Cambridge, Massachusetts. Dar intrarea lui Tallinn in aceasta lume rarefiata a avut loc in spatele cortinei de fier in anii 1980, cand tatal unui coleg de clasa care avea un loc de munca in cadrul guvernului a oferit catorva copii straluciti acces la computerele mainframe. Dupa ce Estonia a devenit independenta, acesta a fondat o companie de jocuri video. In prezent, Tallinn locuieste inca in capitala sa – numita si Tallinn – impreuna cu sotia sa si cu cel mai mic dintre cei sase copii ai sai. Cand vrea sa se intalneasca cu cercetatori, de multe ori ii duce pur si simplu cu avionul in regiunea baltica.

Peter Thiel

Peter Thiel

Strategia sa de donatii este metodica, ca aproape tot ceea ce face. Isi imparte banii intre 11 organizatii, fiecare dintre ele lucrand la diferite abordari ale sigurantei AI, in speranta ca una dintre ele va ramane. In 2012, a cofondat Centrul Cambridge pentru Studiul Riscului Existential (CSER), cu o investitie initiala de aproape 200.000 de dolari.

Riscurile existentiale – sau riscurile X, asa cum le numeste Tallinn – sunt amenintari la adresa supravietuirii umanitatii. Pe langa inteligenta artificiala, cei aproximativ 20 de cercetatori de la CSER studiaza schimbarile climatice, razboiul nuclear si armele biologice. Dar, pentru Tallinn, aceste alte discipline “sunt de fapt doar droguri de acces”. Preocuparea fata de amenintari mai larg acceptate, cum ar fi schimbarile climatice, ar putea atrage oamenii. Spera ca oroarea masinilor superinteligente care vor cuceri lumea ii va convinge sa ramana. El a fost in vizita la Cambridge pentru o conferinta, deoarece doreste ca comunitatea academica sa ia mai in serios siguranta inteligentei artificiale.

Elon Musk

Elon Musk

La Jesus College, tovarasii nostri de masa au fost un sortiment aleatoriu de participanti la conferinta, inclusiv o femeie din Hong Kong care studia robotica si un britanic care a absolvit Cambridge in anii 1960. Barbatul mai in varsta i-a intrebat pe toti cei de la masa unde au facut facultatea. (Raspunsul din Tallinn, Universitatea Tartu din Estonia, nu l-a impresionat.) Apoi a incercat sa indrepte conversatia catre stiri. Tallinn s-a uitat la el fara sa vada nimic. „Nu ma intereseaza riscurile pe termen scurt”, a spus el.

Tallinn a schimbat subiectul la amenintarea superinteligentei. Atunci cand nu vorbeste cu alti programatori, el recurge la metafore si a trecut prin suita sa de metafore: inteligenta artificiala avansata poate dispune de noi la fel de repede cum oamenii taie copacii. Superinteligenta este pentru noi ceea ce noi suntem pentru gorile.

O inteligenta artificiala ar avea nevoie de un corp pentru a prelua controlul, a spus barbatul mai in varsta. Fara un fel de carcasa fizica, cum ar putea obtine controlul fizic?

Tallinn avea pregatita o alta metafora: „Puneti-ma intr-un subsol cu o conexiune la internet si as putea face multe pagube”, a spus el. Apoi a luat o muscatura din risotto.

Orice inteligenta artificiala, fie ca este vorba de Roomba sau de unul dintre potentialii sai descendenti care ar putea domina lumea, este determinata de rezultate. Programatorii atribuie aceste obiective, impreuna cu o serie de reguli privind modul de urmarire a acestora. Inteligenta artificiala avansata nu ar trebui neaparat sa primeasca obiectivul de dominare a lumii pentru a-l atinge – ar putea fi pur si simplu accidental. Iar istoria programarii calculatoarelor este plina de mici erori care au declansat catastrofe. In 2010, de exemplu, cand un trader al companiei de fonduri mutuale Waddell & Reed a vandut mii de contracte futures, software-ul firmei a omis o variabila cheie din algoritmul care a ajutat la executarea tranzactiei. Rezultatul a fost „prabusirea fulgeratoare” de mii de miliarde de dolari din SUA.

Nick Bostrom

Nick Bostrom

Cercetatorii fondurilor Tallinn considera ca, daca structura de recompensa a unei AI supraomenesti nu este programata corespunzator, chiar si obiectivele benigne ar putea avea scopuri insidioase. Un exemplu bine cunoscut, expus de filosoful Nick Bostrom de la Universitatea Oxford in cartea sa Superinteligenta, este un agent fictiv dirijat sa faca cat mai multe agrafe de hartie posibil. Inteligenta artificiala ar putea decide ca atomii din corpul uman ar fi mai bine folositi ca materie prima.

sah si AI

Un barbat joaca sah cu un robot proiectat de Institutul de Cercetare a Tehnologiei Industriale (ITRI) din Taiwan, in Taipei, in 2017.

Punctul de vedere al lui Tallinn are detractorii sai, chiar si in randul comunitatii de persoane preocupate de securitatea AI. Unii obiecteaza ca este prea devreme sa ne facem griji cu privire la restrictionarea inteligentei artificiale superinteligente atunci cand inca nu o intelegem. Altii spun ca concentrarea asupra actorilor tehnologici corupti distrage atentia de la cele mai urgente probleme cu care se confrunta domeniul, cum ar fi faptul ca majoritatea algoritmilor sunt conceputi de barbati albi sau se bazeaza pe date tendentioase in favoarea acestora. „Riscam sa construim o lume in care nu ne dorim sa traim daca nu abordam aceste provocari pe termen scurt”, a declarat Terah Lyons, director executiv al Partnership on AI, un consortiu al industriei tehnologice care se concentreaza pe securitatea AI si pe alte probleme. (Mai multe dintre institutele pe care Tallinn le sprijina sunt membre.) Dar, a adaugat ea, unele dintre provocarile pe termen scurt cu care se confrunta cercetatorii, cum ar fi eliminarea prejudecatilor algoritmice, sunt precursoare ale celor pe care omenirea le-ar putea vedea cu o inteligenta artificiala superinteligenta.

Terah Lyons

Terah Lyons

Tallinn nu este atat de convins. El sustine ca inteligenta artificiala superinteligenta aduce amenintari unice. In cele din urma, el spera ca comunitatea AI sa urmeze exemplul miscarii antinucleare din anii 1940. In urma bombardamentelor de la Hiroshima si Nagasaki, oamenii de stiinta s-au unit pentru a incerca sa limiteze continuarea testelor nucleare. „Oamenii de stiinta din cadrul Proiectului Manhattan ar fi putut spune: ‘Uite, noi facem inovatie aici, iar inovatia este intotdeauna buna, asa ca hai sa mergem inainte’”, mi-a spus el. „Dar au fost mai responsabili de atat”.

Tallinn avertizeaza ca orice abordare a sigurantei inteligentei artificiale va fi greu de realizat corect. Daca un AI este suficient de inteligent, ar putea intelege mai bine constrangerile decat o fac creatorii sai. Imaginati-va, a spus el, „sa va treziti intr-o inchisoare construita de o gasca de copii orbi de cinci ani”. Asa ar putea fi pentru o inteligenta artificiala superinteligenta care este inchisa de oameni.

inteligenta artificiala

Teoreticianul Yudkowsky a gasit dovezi ca acest lucru ar putea fi adevarat atunci cand, incepand din 2002, a organizat sesiuni de chat in care el a jucat rolul unui AI inchis intr-o cutie, in timp ce o rotatie de alte persoane au jucat rolul gardianului insarcinat sa tina AI-ul inauntru. De trei din cinci ori, Yudkowsky – un simplu muritor – spune ca l-a convins pe gardian sa il elibereze. Cu toate acestea, experimentele sale nu i-au descurajat pe cercetatori sa incerce sa proiecteze o cutie mai buna.

Cercetatorii pe care Tallinn ii finanteaza urmaresc o mare varietate de strategii, de la cele practice pana la cele aparent neverosimile. Unii teoretizeaza despre izolarea inteligentei artificiale, fie fizic, prin construirea unei structuri reale care sa o contina, fie prin programarea unor limite pentru ceea ce poate face. Altii incearca sa invete AI sa adere la valorile umane. Cativa lucreaza la o ultima solutie de oprire. Un cercetator care se ocupa de toate aceste trei aspecte este matematicianul si filozoful Stuart Armstrong de la Institutul Future of Humanity al Universitatii Oxford, pe care Tallinn il numeste „cel mai interesant loc din univers”. (Tallinn a oferit FHI peste 310.000 de dolari).

Stuart Armstrong

Stuart Armstrong

Armstrong este unul dintre putinii cercetatori din lume care se concentreaza cu norma intreaga pe securitatea AI. Cand l-am intalnit la o cafea in Oxford, purta o camasa de rugby descheiata si avea infatisarea cuiva care isi petrece viata in spatele unui ecran, cu o fata palida incadrata de o incalceala de par nisipos. Si-a presarat explicatiile cu un amestec dezorientant de referinte din cultura populara si matematica. Cand l-am intrebat cum ar putea arata succesul in domeniul securitatii AI, a spus: „Ati vazut filmul Lego? Totul este minunat”.

Un aspect al cercetarilor lui Armstrong se refera la o abordare specifica a boxului, numita AI „oracol”. Intr-o lucrare din 2012, impreuna cu Nick Bostrom, cofondator al FHI, acesta a propus nu numai sa inchida superinteligenta intr-un bazin de retinere – o structura fizica – ci si sa o limiteze la a raspunde la intrebari, ca o tabla Ouija foarte inteligenta. Chiar si cu aceste limite, o inteligenta artificiala ar avea o putere imensa de a remodela soarta umanitatii prin manipularea subtila a interogatorilor sai. Pentru a reduce posibilitatea ca acest lucru sa se intample, Armstrong propune limite de timp pentru conversatii sau interzicerea intrebarilor care ar putea rasturna ordinea mondiala actuala. De asemenea, el a sugerat sa se dea oracolului masuri proxy ale supravietuirii umane, cum ar fi media industriala Dow Jones sau numarul de oameni care traverseaza strada in Tokyo, si sa-i spuna sa le mentina constante.

Tom Murphy VII

Tom Murphy VII

In cele din urma, Armstrong crede ca ar putea fi necesar sa se creeze, asa cum il numeste intr-o lucrare, un „mare buton rosu de oprire”: fie un intrerupator fizic, fie un mecanism programat intr-o inteligenta artificiala pentru a se opri automat in cazul unei evadari. Dar proiectarea unui astfel de comutator este departe de a fi usoara. Nu este vorba doar de faptul ca un AI avansat interesat de autoconservare ar putea impiedica apasarea butonului. Ar putea, de asemenea, sa devina curios cu privire la motivul pentru care oamenii au conceput butonul, sa-l activeze pentru a vedea ce se intampla si sa-l faca inutil. In 2013, un programator pe nume Tom Murphy VII a proiectat o inteligenta artificiala care se putea invata singura sa joace jocuri pentru Nintendo Entertainment System. Hotarat sa nu piarda la Tetris, AI a apasat pur si simplu butonul de pauza – si a tinut jocul inghetat. „Cu adevarat, singura miscare castigatoare este sa nu joci”, a observat Murphy cu ironie, intr-o lucrare despre creatia sa.

Pentru ca strategia sa reuseasca, o inteligenta artificiala trebuie sa fie dezinteresata de buton sau, dupa cum a spus Tallinn: „Trebuie sa atribuie o valoare egala lumii in care nu exista si lumii in care exista”. Dar chiar daca cercetatorii pot realiza acest lucru, exista si alte provocari. Ce se intampla daca AI-ul s-a copiat pe sine de cateva mii de ori pe internet?

Abordarea care ii incita cel mai mult pe cercetatori este gasirea unei modalitati de a face AI-ul sa adere la valorile umane – nu prin programarea acestora, ci prin invatarea IA sa le invete. Intr-o lume dominata de politici partizane, oamenii se opresc adesea asupra modului in care principiile noastre difera. Dar, mi-a spus Tallinn, oamenii au multe in comun: „Aproape toata lumea isi pretuieste piciorul drept. Doar ca nu ne gandim la asta”. Speranta este ca o inteligenta artificiala ar putea fi invatata sa discearna astfel de reguli imuabile.

In acest proces, un AI ar trebui sa invete si sa aprecieze latura mai putin logica a oamenilor: faptul ca adesea spunem un lucru si vrem sa spunem altceva, ca unele dintre preferintele noastre intra in conflict cu altele si ca oamenii sunt mai putin de incredere atunci cand sunt beti. In ciuda provocarilor, Tallinn considera ca merita sa incerce, deoarece mizele sunt atat de mari. „Trebuie sa ne gandim cu cativa pasi inainte”, a spus el. „Crearea unei inteligente artificiale care nu ne impartaseste interesele ar fi o greseala ingrozitoare”.

In ultima sa seara la Cambridge, am luat cina cu Tallinn si doi cercetatori la un restaurant. Un chelner ne-a asezat intr-o pivnita vopsita in alb, cu o atmosfera ca de pestera. Ne-a inmanat un meniu de o pagina care oferea trei tipuri diferite de piure. Un cuplu s-a asezat la masa de langa noi, iar cateva minute mai tarziu a cerut sa se mute in alta parte. „Este prea claustrofobic”, s-a plans femeia. M-am gandit la comentariul lui Tallinn despre daunele pe care le-ar putea provoca daca ar fi inchis intr-un subsol cu nimic altceva decat o conexiune la internet. Si iata-ne aici, in cutie. Ca la un semnal, barbatii au contemplat modalitati de a iesi.

Seán Ó hÉigeartaigh

Seán Ó hÉigeartaigh

Printre invitatii lui Tallinn s-au numarat fostul cercetator in genomica Seán Ó hÉigeartaigh, care este directorul executiv al CSER, si Matthijs Maas, cercetator in domeniul inteligentei artificiale la Universitatea din Copenhaga. Acestia au glumit pe seama unei idei pentru un film de actiune intitulat „Superinteligenta versus Blockchain!” si au discutat despre un joc online numit Universal Paperclips, care se bazeaza pe scenariul din cartea lui Bostrom. Exercitiul presupune sa dati click in mod repetat pe mouse pentru a face agrafe de hartie. Nu este tocmai spectaculos, dar da o idee despre motivul pentru care o masina ar putea cauta modalitati mai rapide de a produce consumabile de birou.

Matthijs Maas

Matthijs Maas

In cele din urma, discutia s-a indreptat spre intrebari mai importante, asa cum se intampla adesea cand Tallinn este prezent. Scopul final al cercetarii in domeniul securitatii AI este de a crea masini care sa fie, dupa cum a spus odata filosoful de la Cambridge si cofondatorul CSER, Huw Price, „supraomenesti atat din punct de vedere etic, cat si cognitiv”. Altii au ridicat intrebarea: daca nu vrem ca AI sa ne domine, vrem sa dominam AI-ul? Cu alte cuvinte, are AI drepturi? Tallinn considera ca aceasta este o antropomorfizare inutila. Se presupune ca inteligenta este egala cu constiinta – o conceptie gresita care ii deranjeaza pe multi cercetatori in domeniul AI. Mai devreme in cursul zilei, José Hernández-Orallo, cercetator la CSER, a glumit spunand ca, atunci cand vorbeste cu cercetatorii in domeniul AI, constiinta este „cuvantul cu C”. („Iar ‘liberul arbitru’ este cuvantul cu L”, a adaugat el).

In pivnita, Tallinn a spus ca constiinta nu conteaza: „Sa luam exemplul unui termostat. Nimeni nu ar spune ca acesta este constient. Dar este foarte incomod sa te confrunti cu acest agent daca te afli intr-o camera care este setata la minus 30 de grade”.

Ó hÉigeartaigh a intervenit. „Ar fi frumos sa ne facem griji cu privire la constiinta”, a spus el, „dar nu ne vom permite luxul de a ne face griji cu privire la constiinta daca nu am rezolvat mai intai provocarile tehnice de siguranta.”

Oamenii se preocupa prea mult de ceea ce este AI superinteligent, a spus Tallinn. Ce forma va lua? Ar trebui sa ne facem griji cu privire la preluarea controlului de catre o singura inteligenta artificiala sau de catre o armata de astfel de inteligente? „Din punctul nostru de vedere, important este ceea ce face AI”, a subliniat el. Iar acest lucru, crede el, ar putea depinde inca de oameni – deocamdata.

De Mara Hvistendahl. Traducere si adaptare dupa popsci.com.

0 replies

Leave a Reply

Want to join the discussion?
Feel free to contribute!

Leave a Reply

Your email address will not be published. Required fields are marked *