Vasile Ernu a discutat cu antropologul Alexandru Bălășescu despre provocările aduse de ceea ce numim inteligență artificială.
„Cred că ce nu înțelege publicul foarte bine este ce e acela un algoritm și ce face și ce nu face el – ca să zic așa. Algoritmul nu gândește în termeni umani. Algoritmul este o modalitate de a ajunge la un rezultat urmărind o succesiune de propoziții logice, codificate în numere”, explică Bălășescu.
Antropologul român a făcut studiile la University of California, Irvine, studiază de ceva timp inteligența artificială și pregătește un volum pe această temă în curs de apariție la prestigioasa editură germano-britanică Springer Nature.
De ce oamenii confundă exactitudinea sistemului de operare matematic cu acuratețea observației
Vasile Ernu: Alexandru Bălășescu, hai să stabilim mai întâi: ce este inteligența artificială? Sau, poate, cine este ea? Și ce poate deveni?
Alexandru Bălășescu: Sunt multe posibile definiții, mie îmi place să gândesc că, din perspectivă semantică, e o greșeală de denumire, cu premise greșite și consecințe adânci…
Premisa este că inteligența e de tip unidimensional și logic formală. Din această „numire eronată” se trag și cele mai multe neînțelegeri privitoare la aceste sisteme automate de decizie bazate pe algoritmi.
Cred că ce nu înțelege publicul foarte bine este ce e acela un algoritm și ce face și ce nu face el – ca să zic așa. Algoritmul nu gândește în termeni umani. Algoritmul este o modalitate de a ajunge la un rezultat urmărind o succesiune de propoziții logice, codificate în numere. Pentru simplificare, e ca în gluma aceea în care un grup știa bancurile pe numere și spunea doar numărul și toată lumea râdea, însă cineva din exterior nu ar înțelege nimic.
Acum, marea confuzie vine din faptul că necesitatea de a lucra cu valori numerice imprimă evident sistemului exactitudinea matematicii, iar oamenii confundă exactitudinea sistemului de operare matematic cu acuratețea observației.
Ce înseamnă asta: simplu, că un algoritm poate să dea răspunsul exact greșit, dar că oamenii se vor raporta la el ca la adevăr. Însă algoritmii lucrează cu aproximări matematice ale realității umane, adică cu modele. Cum știe orice programator, toate modelele sunt greșite; unele sunt folositoare.
Cea mai mare problemă a modelelor este incapacitatea lor de a integra un context dinamic. Publicul însă ajunge să se raporteze fix invers, tocmai datorită numelui păcătos dat sistemelor de acest fel: modelele au dreptate, realitatea e greșită, dar o vom fixa cu ajutorul inteligenței artificiale, care ne spune cum ar trebui să fie.
Mirajul IA, dorință de a atinge „utopia perfectă”
– Omul, adică noi, este cel care a inventat-o. Ce vrem noi, de fapt, de la IA? Știm ce vrem?
– Ce spuneam mai sus: se pare că vrem să „rezolvăm societatea, viața pe de-a-ntregul”. De fapt asta este echivalentul cu a spune că nu știm ce vrem. Aceste sisteme sunt foarte bune pentru a optimiza alte sisteme închise (de la motoare la sisteme de irigații dacă vrei). Aplicate sistemelor umane, ele conțin promisiunea optimizării, însă de multe ori sfârșesc ele însele în nevoia de optimizare continuă, tocmai pentru că un sistem deschis, cel cu oameni în el, se modifică permanent.
Am două concluzii la întrebarea asta, după câțiva ani buni de cercetare antropologică pe temă:
1. Vrem să optimizăm totul, ca un copil de 4 ani cu un ciocan pentru care fiecare obiect se transformă într-un cui. Avem un ciocan pneumatic, iar realitatea este o mare cutie de cuie în acest moment;
2. Profund, vrem nemurirea. Raportarea la IA frizează teologicul din multe puncte de vedere, vezi și limbajul înconjurător care vorbește de profeți IA, apostoli IA, evangheliști sau îngeri investitori și de singularitate ca un prag al salvării. Am vrea ca IA să ne rezolve toate problemele, să instaureze utopia perfectă (inclusiv războiul automatizat) și să ne facă nemuritori, măcar temporar… 😉 Adică pacea de 1000 de ani după venirea lui Mesia (prima, a doua, depinde pe unde te afli cu monoteismul).
– Din punct de vedere etic i-am stabilit niște limite? Dar din punct de vedere politic? Până unde dăm frâu liber: îi stabilim niște limite, hotare?
– Mie mi se pare foarte periculoasă această conversație care vorbește la general despre etica IA. Nu este etica IA, este etica umană. Despre ea a fost întotdeauna vorba, ei trebuie să îi dăm sens politic, trasăm limite și acceptăm direcții.
În prezent, etica dominantă este cea a profitului și IA face doar să o urmeze.
Discuțiile despre etica IA, dacă te uiți atent, sunt discuții despre etica profitului, de exemplu: putem extrage date (deci profit) din zonele private? Ce înseamnă privat și cum îl redefinim pentru a asigura un și mai mare profit? Ce înseamnă drepturi individuale sau drepturi de autor? Cum le putem folosi sau conturna pentru a genera profit pe baza automatizării?
Deci etica în acest domeniu ar trebui să se aplece asupra tuturor etapelor în viața IA – de la codificarea de date la designul de sisteme și aplicarea lor, așa cum o face mai mult în partea de critică universitară – având în minte însă întrebarea fundamentală: am definit bine obiectivul? Este el unul de îmbunătățire a vieții sau e mai degrabă optimizarea monetară?
Oamenii știu ce poate IA, dar nu știu unde poate fi cel mai bine folosită
– În acest moment știm ce poate? Dar ce poate să devină ne imaginăm?
– În mare știm ce poate, însă nu știm care sunt domeniile în care aplicabilitatea dă rezultatele așteptate. Mult mai important este că nu știm exact ce nu poate și credem că e omnipotentă. De fapt, pentru că suntem parte din sisteme deschise, nu putem niciodată conta pe rezultate controlabile, vor fi întotdeauna consecințe neașteptate.
Cu cât spațiul în care le aplicăm este mai deschis, cu atât rezultatele sunt mai puțin previzibile. Cum deja îl aplicăm în biologie (bio-tech) și neurologie, chiar este greu de spus ce fel de creaturi ale acestui Prometeu modern vor apărea în viitor.
– Spune-mi, te rog, de unde această frică față de IA? Planează un soi de frică că vom scăpa de sub control acest „animal domestic tehnologic”…
– La nivel profund cred că este teama de tenebrele propriilor dorințe, pentru că efectiv ne raportăm la IA ca la duhul din sticlă: dacă îl eliberăm, ne va îndeplini toate dorințele și undeva în subconștient avem dorințe autodistructive. Cred că vrem în același timp să predăm controlul „cuiva” care știe mai bine sau perfect realitatea (partea teologică a chestiunii, un nou zeu suprem de creație proprie), dar vrem să și continuăm să îl controlăm.
Ne e teamă de ce ne dorim, de fapt… și pe bună dreptate. Deci nu aș spune că suntem în fața unui „animal domestic tehnologic”, ci al unui „zeu tehnologic al propriilor dorințe”. IA e un fel de expresie a egoului uman, cu acces direct la „id” (locul dorințelor necenzurate), însă fără a fi dezvoltat deocamdată un supraego colectiv pe măsură.
Cum va influența IA piața muncii
– Se vorbește tot mai mult de o influență tot mai mare asupra vieții noastre și în mod special asupra muncii noastre. Și aici avem o viziune optimistă – ne va elibera de muncă și una pesimistă – ne va înlocui și vom muri de foame. Cum vezi această direcție?
– Ca pe un impas: problema nu este că ne va elibera de muncă, ci aceea că nu vom ști, de fapt, nu știm, ce să facem cu acea libertate. E ca în bancul care circulă deja: credeam că IA o să muncească pentru mine și eu voi scrie poezii și voi picta, însă e exact invers, eu muncesc pentru IA și ea scrie poezii și pictează.
Trăim într-o societate extrem de moralizatoare, un fel de puritanism secularizat și generalizat, în care valoarea umană individuală e dată de muncă. Judecăm oamenii după munca pe care o fac, după ocupație sau venit, și mai și recompensăm asta pe de-a-ndoaselea, adică plătim puțin munci esențiale, cum ar fi salubritatea sau educația primară.
Nu suntem pregătiți cultural să ne oprim să muncim pentru că am automatizat munca. Asta se vede deja, David Graeber, în cartea tradusă în română cu titlul „Munci de mare rahat”, analizează cum mare parte dintre angajații managementului de mijloc sunt ținuți artificial în poziții fără sens, cu efecte destul de devastatoare la nivelul sănătății mintale.
Asta pentru simplul motiv că nu mai știm să dăm nu doar sens, ci valoare vieții în afara muncii. Dacă doar munca dă sens vieții (iar asta are tot rădăcini teologice, fiind pedeapsa pentru păcatul originar), viața în huzurul automatizat e, de fapt, fără sens sau, și mai rău, moral reprimabilă, efectiv traiul în păcat – pentru că din punct de vedere cultural, opusul muncii nu este „bucuria” de a trăi, ci „lenea”.
Mai e și problema generată de automatizare, și anume că sistemul actual al muncii cere performanțe asemănătoare mașinilor și îi așază pe oameni în concurență directă cu ele. Aici, cu siguranță, există un singur câștigător…
Impactul IA asupra educației. Efectul dăunător de a confunda informația cu adevărul
– Acum o privire din alt unghi: deja vedem cum tehnologia devine un pedagog pentru copii uneori mai important decât părinții și școala. Cum vezi această influență mai ales asupra generațiilor care vin? Va fi o „bonă bună” IA? Cum ne va influența viața?
– Oh, aici nu pot să mă exprim. Am văzut și văd într-adevăr „nativii digital” (data natives), dar să știi că nu e un fenomen atât de răspândit până la urmă. Mi-e teamă însă că nu știm cum să gestionăm încă în mod optim relația dintre educație și folosirea sistemelor de IA, din nou din pricina tendințelor de care vorbeam mai sus.
Deunăzi vorbeam cu o prietenă, șefa IA-human interaction de la IBM Europa, despre această confuzie gigantică în care se află lumea acum, între sistemele IA și adevăr… Dincolo de orice avans în materie, legea de bază a ciberneticii rămâne valabilă: introduci gunoi, iese gunoi.
Educația ar trebui să fie despre discernământ, despre a ști cum să cureți bobul de neghină, despre gândirea critică și dinamica de context. Întâi, sistemele IA nu fac acest lucru și doi, faptul că le punem în față ecranul copiilor ca sursă ultimă de adevăr absolut va duce la slăbirea capacității lor de discernământ.
Cred că un reflex foarte dăunător, acela de a confunda informația cu adevărul, este deja destul de răspândit și cu rezultate vizibile în viața politică. O altă chestiune, mai profundă, este că am început deja să reflectăm în logica binară a sistemelor de bază IA în propriul mod de raportare la realitate. Asta duce, așa cum se discută foarte mult, la polarizarea societății.
Dacă educația va fi condusă în acest tip de logică, a terțului exclus (adică logica formală), amplificată prin IA, atunci, în mod clar, generația următoare va fi mult mai puțin echipată cu instrumente pentru a discerne adevărul și va confunda informația cu adevărul – dacă nu se va îneca în ea.
Va urma însă o altă generație, pe care noi doi, Vasile, nu o vom mai prinde (doar dacă nu cumva rezolvăm mortalitatea până atunci), care cred că ar fi prima cu o privire echidistantă și interesantă asupra sistemelor de tip IA. Ei vor fi cei care vor dezvolta supraegoul colectiv care să gestioneze egoul tehnologic, deocamdată în serviciul „id”-ului…
Evident, pericolul este că, dacă într-adevăr rezolvăm nemurirea, nu vor mai fi alte generații, căci, nu-i așa, ce rost ar mai avea? Iată și aici cum își scoate capul paradoxul dorințelor ambivalente.
Tehnopolitica, între tehnooptimism și tehnototalitarism
– Mai există o chestiune legată de putere și control. O resimțim în diverse forme: tehnologia devine deja parte a politicii, tehnopolitică. Vedem ce putere are de control, firește sub ghidajul oamenilor. Cum vezi acest domeniu destul de fragil: IA va duce la mai multă libertate sau poate deveni un spațiu unde autoritarisme de tot felul să domine?
– Din toate motivele expuse mai sus consider că tehnopolitica este o propunere în care utopia paradiziacă și distopia totalitară se întâlnesc. Poți vorbi de tehnooptimism în anumite domenii cum spuneam, însă aplicată sistemelor umane sau mai larg, naturale, acesta devine mai devreme sau mai târziu tehnototalitarism.
Însăși definiția unui sistem politic totalitar ca sistem închis se suprapune perfect unui sistem algoritmic care este închis, bazat pe modele. Ambele sisteme, cel politic totalitar și cel tehnopolitic, seduc prin aceeași promisiune: salvarea societății de eroarea umană.
Indiferent ce vei auzi de la „apostolii sau evangheliștii” IA cum că noile sisteme neuronale acceptă noi informații și se schimbă conform acestora, ele nu vor acționa niciodată ca oamenii, însă s-ar putea să ajungă să îi imite aproape perfect. Ba mai mult, propria noastră gândire, cum spuneam, se va mula după modul simplu algoritimic de a vedea lucrurile. Se întâmplă deja, nu doar în politică sau la muncă.
Dacă asculți cu atenție, vei vedea că nativii digital se raportează la relațiile interumane și păstrarea lor ca la un mecanism decizional automat, cu „checklists”. De ce nu pot fi sistemele bazate pe algoritmi ca oamenii? Pentru că, prin definiție, ceea ce consumă ele ca „date” sunt deja realități trunchiate.
Bun, se poate spune că și noi facem la fel (avem un anumit spectru al percepțiilor care trunchiază realitatea). Însă sistemele acestea primesc trunchierea trunchierii ca să zic așa. Pentru ele, aceasta este întreaga realitate, iar această imagine produsă tehnologic, luată și reaplicată realității să spunem într-un sistem politic care o impune, este, repet, prin definiție, totalitară – pentru că nu mai lasă opțiuni în afara sa, pentru că omoară imaginația politică. Iar dacă le împingi către concluzia logică, la fel ca orice sisteme totalitare, vor sfârși prin a elimina eroarea, adică viețile nonconforme modelului… Acestea sunt adevăratele „terminatoare”.
– Cum vezi viitorul colaborării dintre om și IA? Ești optimist?
– Față de pesimiști, da. Un pesimist ar spune: mai rău de-atât nu se poate. Eu aș spune: oh, ba da, se poate! Ca mai sus. Ce mă face să fiu optimist, fără glumă, este puterea fantastică a oamenilor de a colabora între ei și de a găsi soluții întotdeauna, cât și capacitatea lor de uitare – de-a lungul istoriei am uitat multe tehnologii, probabil o vom uita și pe aceasta sau vom păstra doar ce este cu adevărat important și necesar.
Pentru perioada imediat următoare însă nu sunt neapărat optimist. Cel mai mult mă sperie lipsa curentă de discernământ în adoptarea acestor sisteme, cât și testarea lor liberă pe populație (pentru că asta fac cei de la ChatGPT sau alte aplicații care folosesc IA generativă).
Tranzițiile sunt întotdeauna sângeroase, ar trebui să știm asta mai bine… Problema fundamentală pe care ar trebui să ne-o punem nu este „cum să rezolvăm societatea cu IA”, pentru că atunci vom încerca să creăm o societate rezolvabilă cu IA și i-o vom da pe mână, ca să antropomorfizez.
Ar trebui să ne întrebăm: ce fel de societate ne dorim și cum am putea folosi IA ca să ne apropiem de ea, fără a sacrifica nici imaginația politică, nici posibilitatea ca dorințele noastre să nu fie aceleași cu ale celorlalți sau cu ale generațiilor următoare. Cu alte cuvinte este extrem de important să nu închidem posibilitățile în perfecțiunea unui model reiterat de tehnologie, ci să ne dăm voie să greșim.
Pentru că la început vorbeam de modele, context și incompatibilitatea lor: mi-e teamă că suntem pe un drum în care morala însăși devine discurs tehnocratic rigid fără nuanța contextului, dar asta pentru altă ocazie.
Textul a apărut inițial pe pagina de internet LIBERTATEA.