Un computer a generat o soluţie la o problemă de matematică superioară (problema discrepanţei Erdős). Nu aceasta e noutatea însă. Noutatea e ca această soluţie este atât de lungă încât demostraţia nu poate fi validată de niciun om din lumea aceasta.  E vorba de o demostraţie mai lungă decât toate textele din Wikipedia (13 GB de date vs. 11 GB).

Ce treabă are aceasta cu posthumanismul/transhumanismul, condiţia umană şi felul in care intelegem noi ştiinţele şi lumea, în general?

Pe scurt, posthumanismul/transhumanismul (pentru cei care nu s-au întâlnit cu respectivii termeni sau nu au timp să parcurgă articolul destul de comprehensiv din Wikipedia)  e o teorie (cu conotaţii implicite mistic-escatologice, la drept vorbind) potrivit căreia destul de curând (mulţi dau o dată în timpul vieţii nostre, prin 2030) computerele vor deveni atât de puternice încât vor dobândi conştiinţă de sine, ne vor depăşi cu inteligenţa şi din acel moment se vor „€œreproduce/upgrada/evolua“ singure cu o viteză extrem de mare. În termenii teoriei se va produce o „€œsingularitate tehnologică“ (termen calchiat după singularităţile găurilor negre). Cu alte cuvinte, privind din prezent nu putem spune nimic despre ce se va întâmpla dincolo de orizontul de evenimente al acelui moment.

Nu putem şti dacă această inteligenţă supraumană va fi singulară sau multiplă (un invivid sau o specie întreagă, cu individualităţi, personalităţi, interese diferite), dacă raportarea ei la umanitate va fi benevolentă (atitudine filială) sau răuvoitoare (ne vor înlocui ca specie dominantă), dacă umanitatea va ajunge la alt nivel prin intermediul acestei inteligenţe (nemurire, capacităţi cognitive mult avansate) sau dacă va ocupa un rol marginal (un fel de gândaci în bucătăria unor entităţi de neînţeles), dacă aceste entităţi artificiale vor fi marcate ideologic (de exemplu: va gândi după tipicul şi valorile islamice dacă e făcută de Iran sau liberal dacă e făcută de Olanda).
 
La drept vorbind nu putem şti nici măcar dacă acest lucru este inevitabil. Sunt teoreticieni care afirmă că o inteligenţă artificială în sensul tare nici nu poate exista (şi alţii care spun că poate exista doar dacă are un corp - €“cu alte cuvinte roboţii pot ajunge să capete conştiinţă de sine, în vreme ce progamele de calculator nu pot).

Sunt futurologi care cred într-o abordare lateral/simbiotică a dezvoltării tehnologiei (cu alte cuvinte nu vor exista inteligenţe artificiale de sine stătătoare, ci doar „€œproteze cognitive“ care ne vor face să gândim mai rapid, să trăim dincolo de existenţa fizică a corpului nostru, etc).  În fine, cred că e interesant de observat că, pentru prima dată în istoria umanităţii, există o mişcare intelectuală relativă mainstream (şi cu mulţi adepţi în zona high-tech/venture world) care afirmă că ne vom mântui prin tehnologie, iar mulţi încearcă să îşi maximizeze şansele pentru a atinge acel punct de singularitate. După o mie de ani avem de-a face cu un nou milenarism, de data asta componenta mistică fiind fundamentată tehnologic. Dacă aş fi psiholog, aş analiza chestia asta în raport cu New Age-ul anilor '60-'70.
 
Dar problematica e atât de largă încât introducerea aceasta tinde să scape de sub control.

Aşadar, zilele acestea unui computer i s-a dat o problemă nerezolvată de oameni de vreo 80 de ani, iar el a soluţionat-o într-un mod atât de complex, încât niciun om nu o poate valida. Mai mult decât atât, nici măcar rezultatul la care a ajuns nu este inteligibil de către un om.

Care sunt implicaţiile ce mi se par mie interesante în povestea asta:

1.     Computerele lucrează cu infinitul (problema prespunea şiruri infinite de numere). Recunosc că nu sunt la curent cu modul în care sunt utilizate computerele în cercetarea matematică, însă faptul că se poate jongla cu axiome suficient de abstracte încât să presupună noţiunea de infinit mi se pare extraordinar.
 
 2.     O problemă complexă a fost rezolvată fără să fie înţeleasă în sensul pe care îl dăm noi conceptului de înţelegere. Cu alte cuvinte respectivul computer nu are conştiinţă de sine, nu are o acumulare istorică de cunoştinţe (aşa cum se dezvoltă copiii, de la numărat mai mult sau mai puţin automat până la înţelegerea avansată), nu are intuiţie. El pur şi simplu a primit un set de axiome şi un rezultat la care trebuia să ajungă. Şi a ajuns în câteva ore după ce „a scris“ mai mult decât scriu probabil 100 de matematicieni în timpul întregii vieţi.

Din chestia de mai sus apar tot felul de implicaţii.

3.     Inflaţia de probleme/teoreme. Pornind de la un set de axiome suficient de mare, un computer poate ajunge să genereze în mod combinatoriu un număr înfricoşător de mare de teoreme. Mai multe decât numărul  atomilor din Univers, în teorie (în practică ar fi imposibil pentru că fiecare bit se stochează pe mai mulţi atomi, cel puţin deocamdată). Leibnitz ar fi foarte încântat.
 
 4.     Nominalism vs. platonicianism matematic? Ce s-a întâmplat acolo în „€œcutia neagră“ a calculatorului. S-a inventat/creat ceva nou, s-a certificat ceva real, care exista anterior? Şi ce înseamnă că nimeni (niciun om) nu poate relua demostraţia?
 
 5.     Argumentul autorităţii include computerele avansate? Cu alte cuvinte dacă nimeni nu poate urmări argumentaţia, e valid să includem această rezolvare în corpusul ştiinţei sau e o chestie invalidă? E suficient ca matematicienii să analizeze precondiţiile (software-ul, inputul de axiome) sau o problemă se notează ca fiind rezolvată doar dacă se poate face un peer-review complet (de către oameni).

 6.     Ce ar însemna un peer-review din partea altui computer? O altă soluţie? Pentru că o parcurgere a algoritmilor (fără înţelegerea exactă a sensului formulelor -€“ capacitate pe care o acordăm doar creierului uman deocamdată) nu ar fi evident o formă de validare.
 
 7.     Minimalismul soluţiei. Ştiinţele exacte apreciază frumuseţea dată de minimalismul explicaţiilor. Multe premii Nobel în fizică (inclusiv Feynman) s-au dat pentru reformulări „€œfrumoase“ (asta însemnând în primul rând puterea de explicare/reutilizare mare, nu doar claritate), pentru reformulări care au împins ştiinţa înainte prin modul inovator de a reconsidera legităţi deja existente. Ce trebuie făcut cu o problemă rezolvată în 13 GB? Încercăm să facem un soft care să o rezolve în 5 GB? Mai încercăm să o rezolvăm uman, de la zero, sau încercăm să optimizăm soluţia?

Întrebările de tipul acesta fac ca problema respectivă să mi se pară nu o chestie ştiinţifica de nişă, ci una care atinge fix modul în care percepem noi ştiinţa şi rolul omului de fiinţă cugetătoare.

P.S.: Vreau să mai ating subiectul acesta al trans/posthumanismului, inclusiv din perspectiva software-ului de „nemurire digitală“ pe care doreşte să îl creeze Marius Ursache.