Pot mașinăriile să gândească? - Inteligența artificială în Ex Machina



Autor: Dan Gavrilă

2016-03-07



 

Ironia inteligenței artificiale este că vrea să imite entitatea care o creează, ceea ce dă naștere unui cerc vicios. Asta înseamnă că inteligența nativă are dublă responsabilitate în îndeplinirea acestui obiectiv. Pe de-o parte, cunoașterea de sine e posibilă doar prin exploatarea de sine și, pe de altă parte, are nevoie să creeze modele abstracte în urma cunoștințelor acumulate, pentru a se replica. Totodată, acest fapt poate garanta în teorie un model al inteligenței, sau poate da măsura entropiei unui sistem inteligent.Oamenii pot caracteriza inteligența printr-un model analitic, prin ecuații de algebră și analiză numerică despre cantitatea de cunoștințe acumulate într-un sistem. Iar entropia este măsura informației unui sistem, a cunoștințelor noi acumulate în condiții de incertitudine, adică poate da cantitatea de informație cu un anumit grad de încredere.1 Entropia informațională este o ramură a teoriei informaționale, care a fost dezvoltată de către Claude Shannon în lucrarea A Mathematical Theory of Communication (1948) și definește cantitatea de informație conținută într-un mesaj transmis printr-un canal de comunicație. Această teorie stă la baza teoriei codurilor corectoare și detectoare de erori (Richard Hamming - Error detecting and error correcting codes, 1950) care sunt necesare pentru transmiterea și recepționarea unui mesaj. Având o măsură a informației, aceste coduri pot garanta recuperarea unui mesaj codificat la recepție, cu o anumită probabilitate, iar cele mai uzuale aplicații sunt ale înregistrării datelor pe CD/DVD (de aceea putem asculta un CD cu muzică zgâriat), iar posibilitățile se extind la aplicații complexe în analiza genomului uman.

Filmul Ex Machina prezintă în formă dramatică formarea inteligenţei artificiale prin personajul lui Ava, un android de gen feminin, în care se fac referiri la condiția existenței inteligenței artificiale. Imaginația poate accepta ușor acest scenariu, deoarece în ziua de astăzi suntem înconjurați de exercitări parțiale ale inteligenței artificiale. Se consideră că IA a luat naștere ca domeniu de activitate în anul 1943, odată cu definirea neuronului artificial de către Warren S. McCulloch și Walter Pitts în lucrarea A Logical Calculus of the Ideas Immanent in Nervous Activity. Până la definirea neuronului artificial, oamenii au dezvoltat idei și mecanisme prin care să poată înțelege natura umană.Filozofia a stat la baza altor științe care au modelat de-a lungul timpului domeniul nostru de interes, cum ar fi matematica, fizica, logica, psihologia, biologia, lingvistica sau teoria informațională, toate contribuind la înțelegerea și rezolvarea problemelor de inteligență artificială.

Ex Machina ne poartă într-un „viitor nu foarte îndepărtat”, prezentând chiar elemente ale inteligenței artificiale deja în uz, cum ar fi casa inteligentă în care se desfășoară acțiunea. Spun „inteligentă”, deoarce are componente interconectate și autonome, menite să asigure comunicarea dintre oameni și agenți inteligenți: în scena de la intrarea în casă, ne este explicat un mecanism de recunoaștere facială, iar mai apoi sunt prezentate obiecte interconectate, cum ar fi ușile de acces sau luminile care sunt acționate prin comandă vocală (home automation), un tip de legătură cunoscut astăzi ca The Internet of Things. Faptul că obiecte uzuale sunt conectate la un sistem inteligent este caracterizat de fenomenul datability, acela că există tot mai multe dispozitive care înregistrează date din domeniul lor de activitate, ceea ce le permite oamenilor să interpreteze în diferite moduri aceste date, în funcție de scop. La nivel macro, acest fenomen este cunoscut sub numele de Big Data.

Suntem, așadar, aduși în proximitatea unui android al cărui proces tehnologic a depășit barierele actuale. Ava este dotată cu un creier artificial, numit Blue Book, care imită materialul biologic al creierului uman. Acest material cel puțin ingenios ar trebui să formeze o rețea neuronală artificială de magnitudinea rețelei neuronale a creierului uman adult, anume, aproximativ 86 miliarde de neuroni, fiecare având între 10.000 și 100.000 de conexiuni cu alți neuroni, în timp ce, în realitatea contemporană, cea mai mare rețea neuronală artificială a putut modela 1 milion de neuroni, în cadrul proiectului SyNAPSE (Systems of Neuromorphic Adaptive Plastic Scalable Electronics). Blue Book pare un model din viitor a ceea ce se numește, prin coincidență, Blue Brain Project, un proiect de cercetare care construiește un model digital de creier de animal ce abstractizează fiziologia și tipurile de neuroni cu funcțiile specifice celor biologici.

Ava este un android, adică un robot umanoid ce reprezintă conceptul de agent inteligent, iar asta presupune un sistem dotat cu senzori, ce acționează autonom într-un mediu real. Scenariul filmului construiește o naraţiune în jurul definirii unui agent inteligent. Pentru asta se apelează la Testul Turing, definit în 1950 de Alan Turing în lucrarea Computing Machinery and Intelligence, cu scopul de a oferi un cadru operațional pentru definirea inteligenței, care abordează problema din perspectivă cognitivă (rațională), dar în contextul minții umane, deoarece a acționa corect poate avea două laturi, obiectivă și subiectivă. Aici, mă refer la etică, logică, pe de-o parte, și la credință, conștiință pe de altă parte. Diviziunea e una inegală, ca și la oameni. Se știe că oamenii sunt agenți raționali, dar acesta e mai degrabă modelul ideal. Am ales etica și logica drept factori obiectivi, pentru că sunt externi, iar credința și conștiința ca factori subiectivi ce denotă subiectivitatea fiecărui individ. Asta pentru că în lucrarea lui A. Turing, se ia în considerare caracterul uman al rațiunii în evaluarea inteligenței artificiale. Evident, doar abordarea cognitivă nu poate susține un sistem inteligent, cu precădere al unui robot. În continuare, e nevoie ca acesta să fie capabil să interpreteze imagini (computer vision), să comunice (înțelegerea limbajului natural - natural language processing), să memoreze (persistența și reprezentarea cunoștințelor - knowledge representation), să învețe sau să deducă (mecanisme de inferență, achiziționarea automată a cunoștințelor - machine learning) și să se miște (robotică - planificare automată, euristică; constraint satisfaction problems – probleme care presupun satisfacerea de condiții sau limitări). Asta denotă faptul că un robot este o colecție de agenți specializați (simpli, bazați pe scop, pe utilitate, de reflex, etc.), adică un sistem multiagent.

Aflăm câteva lucruri despre cum a fost creată Ava, având o bază de cunoștințe acumulată prin intermediul motoarelor de căutare pe Internet. Această colecție de date a fost prelucrată, prin tehnici de inteligență colectivă, ce presupune ca, prin motoare de căutare, utilizatorii să-și exprime interesele sau dorințele și să dea o măsură a utilității aplicațiilor pe care le folosesc, sau pur și simplu să se exprime în scris și prin imagini. În orice caz, avem de-a face în acest caz cu tehnici de achiziționare sau învățare a cunoștințelor, care sunt împărțite în trei mari categorii: învățare supervizată (cu antrenarea modelului de cunoștințe - a ecuației de regresie sau a rețelei neuronale - adică prin „hrănirea” modelului cu „fapte” - supervised learning), învățare nesupervizată (învățare empirică, prin calcul neuronal - unsupervised learning) și învățare prin întărire (învățare supervizată cu atribuirea unei funcții de utilitate pentru output: reinforcement learning).

Mai mult decât atât, o vedem pe Ava în multe scene în care ne dă de înțeles că apelează la conștiință. Acest lucru este curios, dând naștere ipotezei dacă un computer (calculator digital sau mașină, în literatura de specialitate) inteligent poate avea conștiință. Alan Turing a lansat întrebarea Can machines think? în lucrarea mai sus amintită, ceea ce a dat naștere multor controverse pe această temă. Subiectul e delicat, pornind chiar de la analiza lingvistică a întrebării în sine, deoarece cuvintele sunt abstractizări ce pot avea mai multe înțelesuri, în funcție de context, lucru analizat și susținut de filozoful Ludwig Wittgenstein: „Oare o mașinărie poate să gândească? Poate să simtă durere? Corpul uman poate fi considerat o asemenea mașinărie? Sigur e foarte apropiată de a fi una. Dar o mașinărie nu poate gândi! -- Asta e o declarație empirică? Nu. Spunem doar despre o ființă umană sau ceva care îi seamănă că gândește. Spunem asta și despre păpuși și, fără îndoială, despre spirite. Poți privi cuvântul «a gândi» ca pe o unealtă.”

În încercarea de a demonstra conștiința unei mașini, este necesar mai întâi să concluzionăm dacă aceasta poate gândi (autonom), ceea ce ne duce cu gândul la caracterul rațional al agenților inteligenți, apoi la comportamentul inteligent, la fenomenologia achiziționării de cunoștințe și folosirea memoriei. Așa cum ne este prezentat în cartea Artificial Intelligence, a Modern Approach de Stuart Russell și Peter Norvig (1995), achiziționarea de cunoștințe prin învățare supervizată presupune o etapă de antrenare a rețelei neuronale de către un om, iar învățarea nesupervizată necesită un grad de generalizare a experimentelor foarte greu de dedus într-o rețea neuronală artificială. De asemenea, Alan Turing tratează problema conștiinței unei mașini, tot în lucrarea amintită mai sus, și o susține prin faptul că nu ar trebui să cerem mașinilor mai mult ca oamenilor, adică să le cerem să fie tot timpul conștiente și totodată în condițiile în care noi nu putem ști cu exactitate când o persoană e conștientă și când nu. Iar de aici, apare întrebarea dacă noi, oamenii, mai suntem inteligenți atunci când suntem inconștienți.

Comportamentul Avei este tentant de credibil în exercitarea conștiinței, pentru că ea are intenții bine definite, își pune întrebări despre experiențe ipotetice (atunci când iși imaginează cum ar fi să simtă ceea ce cunoaște deja, dar n-a avut ocazia să experimenteze), sau atunci când se îmbracă după tendințele actuale, fiind nevoită să aplice o tehnică de învățare supervizată prin întărire) și multe alte exemple.

Cercetătorii domeniului IA dezbat problema conștiinței în multe moduri, cum ar fi experimentul The Chinese Room Argument (Searle, 1980), care vrea să demonstreze că mașinile nu ar putea gândi și avea conștiință: Rularea unui program care, deși a trecut Testul Turing, nu a înțeles datele de intrare și de ieșire nu este o condiție suficientă pentru ca un sistem să poată gândi și să fie conștient. Constă într-un exercițiu de imaginație: într-o cameră cu o mică deschidere spre exterior, se află un vorbitor de limba engleză, niște foi de hârtie și o carte de instrucțiuni scrisă tot în limba engleză. Persoana primește foi ce sunt înscrise cu simboluri indescifrabile pentru ea ale alfabetului chinezesc – simboluri pe care le identifică în cartea de instrucțiuni și le scrie pe altă foaie conform instrucțiunilor, după care înapoiază ceea ce a scris, rezultatul fiind o traducere a unui dialog în limba chineză. Nici persoana, nici cartea, nici foile nu cunosc chineza sau nu o înțeleg. Și totuși, output-ul este unul care satisface testul Turing. Faceți apoi o analogie cu un sistem de calcul cu o arhitectură von Neumann, persoana fiind unitatea centrală de calcul(UAC/CPU), cartea de instrucțiuni fiind programul care rulează pe UAC, iar foile de hârtie – dispozitivul de stocare. Așadar, conform lui Searle, executând programul potrivit, nu este garantată înțelegerea unui lucru.

De asemenea, dacă toate elemetele unui sistem nu sunt capabile de înțelegere, atunci nici întregul nu este; argumentele aduse sunt ușor contrate în cartea Artificial Intelligence, a Modern Approach, pe baza argumentului empiric al lui Searle cum că doar un mediu natural biologic – biological naturalism(Searle, 1980)poate susține conștiința și nu unul artificial. Pe scurt, făcând o analogie cu corpul unui om, căruia i se admite inteligență nativă, ar trebui să înțelegem exclusiv fie că acest lucru nu este posibil, dat fiind faptul că moleculele corpului nostru nu posedă același grad de înțelegere, ori că până și moleculele noastre posedă conștiință. Nu putem alege niciuna din variante – așadar, argumentul lui Searle nu poate sta în picioare, ceea ce înseamnă un argument în minus împotriva ipotezei existenței inteligenței artificiale.

Inteligența nativă este un concept abstract, cu specializări exercitate de fiecare ființă. Inteligența artificială este iarăși un concept abstract, cu specializări ale abstractizărilor fenomenelor biologice (de exemplu, algoritmii genetici, care sunt inspirați din fenomene naturale de evoluție, cum ar fi creșterea unei plante în jurul unui obstacol). Apare în strânsă legătură cu biologia, deoarece natura este întruparea celui mai complex sistem autonom cunoscut de către oameni, iar scopul IA este exercitarea funcțiilor sistemului inteligent artificial în lumea reală, în mijlocul naturii, acolo unde capătă utilitate.

În ziua de astăzi, e un paradox faptul că mașinile pot gândi și avea conștiință, însă istoria ne-a demonstrat că e o chestiune de timp ca un paradox să fie demontat, cel mai elocvent exemplu fiind paradoxul copernican: odată, părea un paradox că Pamântul se învârte în jurul Soarelui, așa că eu cred că într-un „viitor nu foarte îndepărtat” vom avea lângă noi mașini care gândesc.

1Unitatea de măsură este bitul - de exemplu, faptul că un fișier digital ce reprezintă o melodie encodată în format mp3 are 45000 biți, asta dă măsura cantității de informație necesară pentru generarea conținutului unei melodii encodate: un șir 45000 de simboluri de 0 sau 1, fiecare cu o probabilitate de a se activa, adică un simbol să aibă o probabilitate p să se activze (simbolul să fie 1) și o probabilitate q=1-p, să nu se activeze. În urma calcului pe un șir de 0 și 1, fiecare având o probabilitate, formula de calcul fiind H = -Ʃpi*log(pi), unde log este logaritmul în baza 2, pi este probabilitatea elementului i al seriei și H este notația pentru informație, ne rezultă cantitatea de informație necesară înțelegerii unui sistem.