Anticipatia.com

Foresight ROBOETIC

Sunday, 23 December 2012 17:31

ROBOETICA (I)


GFERobotFilosofii au încercat dintotdeauna găsirea unei soluţii la problema dilemei dintre libertate și necesitate. Dar, se pot pune pe același plan omul şi mașinile?


Roboetica este etica aplicată roboticii, este etica oamenilor, nu a roboţilor, a celor care proiectează, construiesc şi folosesc roboţii.


Un scriitor de science fiction nu scrie doar o poveste, ci mai degrabă construiește o lume, de multe ori paradoxala și neverosimilă, dar coerentă. "Ideea” pentru un scriitor de science fiction, ca şi "descoperirea" pentru un om de ştiinţă, servește drept punct de plecare. Ea poate fi înlăturată sau acceptată, dar niciodată ignorată. Atunci când Isaac Asimov (1920-1992) începea să scrie povestiri scurte despre roboți (faimoasa colecţie “Eu, Robot” - 1950), şi enunța cele “Trei Legi ale Roboticii”, modul de gândire asupra robotului în literatura de specialitate, avea să se schimbe pentru totdeauna.

 

 


Legea 1
Un robot nu are voie să pricinuiască vreun rău unei ființe umane, sau, prin neintervenție, să permită ca unei ființe omenești să i se facă un rău.
Legea 2
Un robot trebuie să se supună ordinelor date de către o ființă umană, atât timp cât ele nu intră în contradicție cu Legea 1.
Legea 3
Un robot trebuie să-și protejeze propria existență, atât timp cât acest lucru nu intră în contradicție cu Legea 1 sau Legea 2.


În momentul în care “legile” lui Asimov se aplică la lumea reală de azi, acestea ridică însă o serie de probleme și de ambiguități. Ce se înţelege prin "să pricinuiască vreun rău"? Și, pe acest “rău” cine îl cuantifică? Cine este responsabil? Conceptul de “rău” pare a fi legat de conceptul de ”daună” (nu doar fizică), iar problema răului și a acestor dimensiuni esențiale au reprezentat subiecte de studiu pentru multe generații de filosofi, teologi, scriitori și artiști.
Creierul pozitronic, raţional şi riguros, ar fi capabil să configureze și să rezolve ecuațiile “raului” printr-o ediţie actualizată a calcului lui Leibniz, care consideră că orice problemă își găsește soluția cu condiţia să stabilim termenii problemei într-un mod cât mai riguros și cantitativ? Mă îndoiesc.


De fapt, conceptul de “daună”, “rău” care apare în Legile lui Asimov are multe ambiguități: în cazul în care un om ataca o altă ființă umană, “făcându-i rău” (de exemplu, încearcă să-l omoare), cum ar trebui să reacţioneze un robot? În cazul în care intervine va provoca “rău” criminalului, dar inacţiunea cauzează prejudicii victimei.
În plus, noi, oamenii suntem câteodată contradictorii: cum ar trebui să se comporte un robot care primește comenzi contradictorii (de la aceeaşi persoană sau de la două persoane diferite) - moment în care profilul său logic şi sistemul de evaluare sunt în criză? Atunci când un om se confrunta cu o contradicţie, rezolvarea o găseşte prin “ieşirea din sistem”. Dar aceasta evadare este posibilă umanilor datorită iraţionalităţii sau nebuniei creative. Pentru a permite unui robot să nu se paralizeze în fața unei contradicții, am putea să-l programăm, probabil, cu puţină nebunie ... dar cu ce consecințe?
Se poate specula în continuare: dacă s-ar încredința dezvoltarea "speciei" robot unui proces evolutiv analog cu cel biologic (sau bio-cultural), aceştia ar putea face - în esență, dincolo de controlul nostru - progrese care să le permită evaluări etice mult mai rafinate și mai precise decât ale noastre. De exemplu, s-ar putea, mai devreme sau mai târziu, să înțelega mai bine decât noi aplicarea termenilor de “bine” și “rău” (chiar dacă binele și răul se referă întotdeauna la un subiect: “bine” pentru cine? pentru cine “rău”?) şi în felul acesta să găsească răspunsul la întrebarea milenară “de ce în lume există răul?” Teologii formulează această întrebare astfel: “dacă Creatorul lumii noastre este de o bunătate infinită, de ce în lume există răul?” Dar să nu uităm: pentru roboţi “Creatorul lumii” suntem noi (cei care îi proiectam).

Dar nu suntem totuşi nişte creatori imperfecţi, în imposibilitatea de a construi o lume fără contradicții “rele” și incurabile? Mai mult decât atât, în filmele lui Stanley Kubrick: A Space Odyssey (1968) computerul HAL 9000 preia comanda navei încercând să omoare oameni - în felul acesta împiedică îndeplinirea misiunii, inversând ordinea importanței legilor, prin subordonarea legii nr.1 şi a legii nr.2 în favoarea legii nr.3.
Asimov şi-a pus cu siguranță probleme de acest tip, astfel că, mai târziu, într-o poveste din 1950, “Conflictul evitabil”, el a adaugat Legea Zero, cu prioritate în fața celorlalte legi:


Legea 0:
Un robot nu are voie să facă vreun rău umanității sau să permită prin neintervenția sa ca umanitatea să fie pusă în pericol.


Această lege suplimentară este interesantă şi datorită caracterului său suprem şi confirmă faptul că primele trei nu sunt suficiente pentru a constituii o etică în condiții de siguranță. De fapt, în cazul în care un nebun amenință distrugerea în masă a omenirii, Legea Zero împuternicește robotul să-l distrugă, autorizându-l astfel să intre în conflict cu Prima Lege. Aceasta deschide problema de evaluare cantitativă a daunelor, deși rezonabile (dar totuşi discutabilă!) în conformitate cu morala tradițională a utilitarismului: a ucide mai mulţi este (ar fi) mai grav decât să ucizi unul singur.
Dar chiar și cu acest plus de putere al lui Asimov, robotul ar putea să nu ne protejeze de comportamente dăunătoare, deoarece consecințele unei acțiuni pe timp îndelungat pot fi dăunătoare pentru umanitate sau pentru ființele umane individuale. Analiza acestor consecințe pe termen lung ar putea contesta cea mai dezvoltată inteligenta (naturală sau artificială) imaginabilă.
Dar ce se întâmplă când spaţiul în care acţionează roboţii se modifica? Cum ar trebui programaţi roboţii - militari pentru câmpul de luptă? Şi care sunt implicaţiile? Ce rol poate avea etica în acest caz?
Atacatorul nu poate fi oprit decât dacă este ucis pe câmpul de luptă. În cazul acesta prima lege al lui Asimov, din nou, nu s-ar putea aplica. Negocierea în război pe câmpul de luptă nu exista. Dar dacă robotul nu poate “face rău” oamenilor (chiar şi duşmani) cum ar mai putea lupta în acest caz? Cele trei legi ale lui Asimov par proiectate mai mult pentru o lume paşnică, decât pentru o lume în război. În definitiv, interzice a priori folosirea roboţilor în război.

 - va urma -

Bianca Stan

Jocurile ascund viitorul. Studiază, creşti sau ieşi.

Analist, mediator intercultural - "Arcobaleno", publicistă de opininie a revistei "IL”, scriitor.

 

Login pentru a posta comentarii
You are now being logged in using your Facebook credentials