De la teorie la Premiul Nobel. Inteligența Artificială și puterea ei de a schimba lumea
„Noi nu avem nicio experiență a ceea ce înseamnă să avem lucruri mai inteligente decât noi. Va fi minunat în multe privințe… dar trebuie să ne îngrijorăm și de o serie de consecințe negative, în special de amenințarea ca aceste lucruri să scape de sub control” – Geoffrey Hinton, Premiul Nobel pentru Fizică 2024
Pentru a pune lucrurile în perspectivă, dacă te-ai născut înainte de 1998, ești mai vârstnic decât faimosul motor de căutare (sau search engine) „Google”, iar dacă te-ai născut înainte de 1990, ai o vârstă mai înaintată decât cea a internetului sau „world wide web” cum este consacrat.
Douăzeci și ceva de ani mai târziu, trăim o nouă revoluție tehnologică, cea a inteligenței artificiale (artificial intelligence sau pe scurt AI).
Conceptul de inteligență artificială nu este nou, s-a impregnat de-a lungul timpului în multe cărți și filme de ficțiune. Acestea prezintă atât beneficiile pe care dezvoltarea tehnologică le poate aduce prin evoluția inteligenței artificiale, cât și scenarii distopice în care avansarea tehnologică exagerată duce la înrobirea omenirii de către propriile creații. În povestea renumitei serii de cărți futuristice „Dune”, scrisă de Frank Herbert 1, este inclus un citat din Biblia lumii fictive: „Să nu faci o mașină după asemănarea minții umane!”, care face referire la povețele, la lecțiile învățate din tragediile umane provocate de utilizarea iresponsabilă sau necontrolată inteligenței artificiale.
Dar în lumea reală, care sunt aspectele de neînlocuit ale minții umane? Ce este, de fapt, inteligența artificială? Este până la urmă aceasta prieten sau dușman?
De la 0 la 1 – o scurtă istorie
Inteligența artificială, sau, în alte cuvinte, ideea că o mașinărie ar putea căpăta „inteligență”, „cogniție” și „conștiință”, înglobează o serie de întrebări fundamentale la intersecția filozofiei, științei și tehnologiei. Părintele inteligenței artificiale este considerat ilustrul matematician, logician și informatician Alan Turing, care în articolul științific seminal „Computing Machinery and Intelligence”, publicat în 1950, adresează întrebarea „Pot mașinăriile gândi?” prin prisma capacității lor de a „imita” răspunsuri umane într-un mod imposibil de diferențiat față de o persoană în carne și oase 2. În acest fel, el întoarce întrebarea nu atât spre ce face în sine mașina sau dacă „gândește” per se, ci spre abilitatea noastră de o percepe și identifica sau nu ca pe o mașinărie.
În aceeași perioadă, psihologul american Donald Hebb formula concepte despre procesul de învățare la nivel biologic. În cartea lui „ The Organization of Behavior: A Neuropsychological Theory” sintetizează ideea că neuronii care sunt activați prin procesul de gândire în mod simultan își consolidează conexiunea între ei. Hebb conceptualizează astfel ideea că rețelele neuronale ar putea funcționa precum niște noduri computaționale 3. Aceste idei au pus baza unei interacțiuni interdisciplinare care a dus, pe de o parte, la dezvoltarea de modele din ce în ce mai complexe a funcțiunii creierului – neuroștiință computațională (computational neuroscience), iar pe de cealaltă parte, la dezvoltarea de algoritmi computaționali care prin asociere pot procesa informații cât mai complexe și apropiate de „gândirea umană” – învățarea automatizată (machine learning).
În alte cuvinte, abstractizând acest „model al gândirii” putem concepe un algoritm de învățare care primește un set de date de instruire – learning stage. Pe baza acestor date, algoritmul își ajustează parametrii, iar cu acești parametri modificați facilitează ca modelul obținut să clasifice și să facă predicțiile unui nou set de date într-un mod mai precis – prediction stage.
O descoperire de Nobel. Premiul Nobel 2024
Ca oameni, în viața de zi cu zi noi nu valorificăm capacitatea vastă de asociere a noțiunilor în categorii, ci luăm ca atare, de exemplu, cât de ușor putem distinge că un copac nu este o floare, că plantele nu sunt animale, asocieri pe care le învățăm de mici și pe care le ajustam cu experiența fără a ne întreba cum, sau mai exact, ce parametri disting aceste categorii. Aceste întrebări apar totuși când încercăm să construim instrumente mecanice cu capacitatea de a procesa și adapta informații.
Încercarea de a transpune la nivel mecanistic aceste noțiuni și de a modela un cod care să „învețe” și „înțeleagă” aceste diferențe fine prin ajustarea parametrilor este o provocare, dar o provocare pe care informaticienii, fizicienii și neurocercetătorii o aprofundează constant. În consecință, în acest an, premiul Nobel în Fizică a fost acordat cercetătorilor John Hopfield și Geoffrey Hinton pentru „descoperirile fundamentale și invențiile care au permis învățarea automată (machine learning) și a rețelei neurale artificiale (artificial neural network)” 4.
Aplicabilitatea acestor sisteme de inteligență artificială a fost reflectată de către decernarea premiului Nobel în Chimie, obținut tot în acest an de doi cercetători din cadrul proiectului Google Deep Mind, Demis Hassabis și John Jumper, pentru dezvoltarea unui model de inteligentă artificială capabil să prezică structurile complexe ale proteinelor, facilitând și accelerând astfel crearea unor noi proteine folosite în medicamente, vaccinuri, nanomateriale și micro-senzori 5.
Cât de inteligentă este inteligența artificială astăzi?
La conferința de decernare a premiilor Nobel, Geoffrey Hinton a susținut că inteligența artificială „va fi comparabilă cu revoluția industrială, dar în loc să întreacă oamenii în putere fizică, va întrece oamenii în capacitatea intelectuală”. Și a adaugat că „noi nu avem nicio experiență a ceea ce înseamnă să avem lucruri mai inteligente decât noi. Va fi minunat în multe privințe… dar trebuie să ne îngrijorăm și de o serie de consecințe negative, în special de amenințarea ca aceste lucruri să scape de sub control”.
Deși au o complexitate iluzorie, aceste modele sunt la fel de bune pe cât datele folosite în procesul de instruire, adică acel learning stage. Dacă datele sau noțiunile alimentate sunt din start eronate, la fel va fi și rezultatul. Importanța constă în capacitatea noastră de a depista informațiile eronate și de a corecta sistemul. Modelele nefiind din fire bune sau rele, ele sunt pregătite să servească scopului determinat de cel cu capacitate de control. Spre exemplu, în medicină, cercetătorii se întrec spre a face modele de inteligență artificială cât mai performante pentru interpretarea imaginilor medicale în scopul diagnosticării diferitelor boli în specialități precum radiologia, patologia, gastroenterologia sau oftalmologia, care se bazează intens pe interpretarea acestor imagini de către specialiști 6. Recent, un grup de cercetători a introdus „RETfold”, un model de inteligență artificială instruit pe baza a 1.6 milioane de imagini de retină, care atunci când este pus față în față cu imaginile de retină ale pacienților poate depista și clasifica anomalii, astfel ajutând la diagnosticul atât al bolilor oculare, cât și al altor afecțiuni sistemice complexe, cum ar fi insuficiența cardiacă și infarctul miocardic 7. Deși aceste modele nu depășesc sau înlocuiesc un medic specialist, ele pot deveni foarte utile și facilita diagnosticul.
Când vine vorba de comparația între inteligența artificială și cea umană, ne putem uita la o interacțiune directă în cazul jocului strategic Go, în care modelul de inteligență artificială construit tot de compania Deep Mind, AlfaGo, l-a învins pe campionul național la Lee Sedol 8. Meci cunoscut ca „DeepMind Challenge Match”. Aceste modele își perfecționează performanța prin erorile a mii de jocuri repetate, într-un mod foarte rapid împotriva propriilor sisteme, acumulând astfel diverse strategii de joc adaptate fiecărei mutări. Exemplul ilustrează cum inteligența artificială atinge un nivel capabil să concureze cu cel uman în domenii considerate „creative”, creatorii Alpha admițând că nici măcar ei nu pot explica pe deplin raționamentul pe care s-au bazat anumite mișcări. În schimb, la nivel biologic, performanța aduce cu sine schimbări structurale ale creierului, cunoscută, de altfel, ca plasticitatea creierului (brain plasticity).
Spre exemplu, un studiu care investighează creierul jucătorilor de șah profesioniști, arată că aceștia și-au adaptat o regiune a creierului cunoscută ca Fusiform Face Area 9. Această regiune este desemnată în mod normal percepției fețelor umane, lucru la care ne pricepem foarte bine când vine vorba între a distinge între indivizi sau a ne aminti dacă am mai văzut o persoană sau nu. În mod interesant, jucătorii de șah profesioniști reprofilează această arie a creierului specializată fețelor, care este activată în acest caz deopotrivă și de către aranjamente ale tablei de șah.
Când vine vorba de algoritmi la nivel cognitiv, psihologul – economist Daniel Kahneman propune în cartea sa „Thinking Fast and Slow” că evaluarea noastră mentală se bazează pe două „sisteme” antitetice: Sistemul 1 – automat, rapid și lipsit de efort, care procesează prin prisma unor scurtături mentale, și Sistemul 2 – anevoios, încet și epuizant care are o abordare pas-cu-pas 10 . Deși de multe ori Sistemul 1 pare mai practic și conglomerează analogii, asocieri și emoții, el face apel la scurtături mentale și este predispus erorilor de judecată. Pe de alta parte, Sistemul 2, care se bazează pe fundamente logice și algoritmi clari, este mai exact. Această reflexie asupra sistemelor de gândire poate aminti de inteligența artificială, considerând că algoritmul pe care se bazează este exact, poate arăta o performanță ridicată, posibil lipsit de carismă dar logic și concis. De pildă, modelele moderne de învățare automată stau și la baza modelelor lingvistice mari (large language models) precum ChatGTP.
Într-un studiu recent, un astfel de model numit Habermas Machine, a fost folosit pentru a media problema opiniilor divergente 11. Habermas Machine a ajutat două grupuri cu opinii politice diferite pe foarte multe planuri să ajungă la un numitor comun, mașina făcând declarații logice și informative fără a înlătura perspectivele minoritare, sugerează autorii studiului. În acest scop, inteligența artificială poate servi spre a ajuta la unificarea colectivă a unor grupuri divizate, dar poate și manipula opiniile publice în direcția dorită.
Cum vrem să trăim?
După cum am văzut, inteligența artificială întâmpină progrese rapide și ramificate în multe aspecte ale societății. Astfel, inteligența artificială se lovește de probleme legislative, diplomatice și de prelucrare a datelor cu caracter personal. De asemenea, apare problema unui nou strat de discrepanță între instituțiile/statele care au acces la această tehnologie, personal instruit și capacitatea vastă de procesare a acestor tehnologii, care sunt foarte anevoioase și costisitoare 6. Căpitanul navei din îndrăgitul film de animație science-fiction Disney, WALL-E declară într-un moment culminant, când realizează că viața oamenilor e ghidată de mașinării pe nava sa, în timp ce Pământul este nelocuibil și cufundat în deșeuri: „Nu vreau să supraviețuiesc. Vreau să trăiesc!”.
În era inteligenței artificiale, putem să ne întrebăm și noi cum vrem să trăim? Cu toate aceste posibilități noi și utilități ale inteligenței artificiale care scot din uz munca intelectuală umană, devenim inutili sau ne este dăruit mai mult loc de creativitate? Cum vrem să ne ramificăm, redefinim și amplifica creativitatea și inteligența exclusiv umană? Răspunsul la aceste întrebări rămâne de văzut, ceea ce e cert e că noi, societatea și umanitatea, definim cu fiecare pas activ drumul spre o lume utopică sau distopică, purtați de milenii de o sete de cunoaștere și înțelegere caracteristică.
Referințe:
1. Herbert, Frank. 2006. Dune. London, England: Hodder Paperback.
2. Turing, Alan Mathison. “Computing Machinery and Intelligence. Mind 49 (1950): 433–460
3. Morris RG. D.O. Hebb: The Organization of Behavior, Wiley: New York; 1949. doi: 10.1016/s0361-9230(99)00182-3. PMID: 10643472.
4. https://www.nobelprize.org/prizes/physics/2024/press-release/
5. https://www.nobelprize.org/prizes/chemistry/2024/press-release/
6. Rajpurkar, P. et al. AI in health and medicine. Nat Med 28, 31–38 (2022). https://doi.org/10.1038/s41591-021-01614-0
7. Zhou, Y. et al. A foundation model for generalizable disease detection from retinal images. Nature 622, 156–163 (2023). https://doi.org/10.1038/s41586-023-06555-x
8. https://deepmind.google/research/breakthroughs/alphago/
9. Bilalić M, et al. Many faces of expertise: fusiform face area in chess experts and novices. J Neurosci. (2011) Jul 13;31(28):10206-14. doi: 10.1523/JNEUROSCI.5727-10.2011.
10. Kahneman, D. (2013). Thinking, fast and slow. First paperback edition. New York, Farrar, Straus and Giroux.
11. Tessler M, et al. AI can help humans find common ground in democratic deliberation. Science (2024).DOI:10.1126/science.adq2852
Acest articol este preluat din ediția print a Revistei CARIERE nr. 293