Explorări în virtualitatea imediată. Mașini inteligente și decizii morale

  • Recomandă articolul

În medie, 1,2 milioane de oameni sînt uciși în fiecare an în accidente de mașină. Iar 90% dintre aceste accidente au drept cauză o eroare umană. Se presupune că mașinile inteligente, care se conduc singure, ar putea să ne ajute să eliminăm acele 90 de procente, astfel încît viețile noastre cotidiene să devină mai sigure.

Mașinile inteligente au un comportament extrem de precis. Folosesc un set de senzori specializați, astfel încît să-și creeze o reprezentare despre mediul înconjurător. Sînt capabile să diferențieze elemente precum: pietoni, bicicliști sau alte mașini care participă la trafic. De asemenea, pe baza inteligenței artificiale, au posibilitatea de a prezice comportamentul obiectelor din jur – în limita posibilului. Se presupune că un astfel de mecanism automatizat va reuși să țină mereu cont de regulile de circulație, să observe obstacolele neprevăzute mai rapid și să acționeze optim, inclusiv în situații‑limită.

Într-adevăr, principiile interne de funcționare a mașinilor inteligente sînt extrem de sigure și performante. Și totuși, există încă semne de întrebare cu privire la adoptarea unor astfel de soluții în viața reală. O piedică importantă este însăși etapa de tranziție: e de presupus că, pentru o perioadă de timp, mașinile tradiționale ar trebui să coexiste cu cele inteligente. În această situație, mașinile care se conduc singure ar trebui să fie suficient de inteligente încît să se adapteze constant la comportamentul imprevizibil al oamenilor din trafic. Aceia dintre voi care stau în București vor putea să confirme că o astfel de sarcină este incredibil de complicată. Mașinile inteligente ar fi de mai mare încredere, dacă toți participanții la trafic ar avea un regim de funcționare automatizat. E cam ca atunci cînd părinții îți spun că nu îți dau mașina pentru că „eu știu că tu conduci bine, da’ mie mi-e frică de ceilalți!“… doar că în contextul ăsta e adevărat. Oamenii nu sînt niște șoferi prea grozavi și pot crea riscuri atît de nebănuite, încît un pilot automat să nu le poată gestiona.

Chiar în cea mai bună dintre lumile posibile, în care mașinile inteligente sînt implementate cu succes, încă mai există acel procent de 10% al accidentelor care nu pot fi evitate prin automatizare. În aceste situații, programul de inteligență artificială este nevoit să ia decizii cu implicații morale profunde. De exemplu, ce se presupune că ar trebui să facă o mașină, atunci cînd nu poate opri, iar în orice direcție ar întoarce, ar călca pe cineva? Pentru că inteligența artificială are un comportament atît de precis, o să facă exact ce o vom învăța noi să facă. Nu există posibilitatea să greșească sau să nu respecte instrucțiunile. Prin urmare, nu este o opțiune să lăsăm astfel de decizii la voia întîmplării. O echipă de cercetători de la MIT Media Lab, formată din Iyad Rahwan, Jean-François Bonnefon, Azim Shariff a creat Moral Machine – o platformă on-line unde utilizatorii pot vota care este cel mai bun comportament al mașinii în diferite situații‑limită. Pe cine alege să calce dintre:

o femeie versus un bărbat;

un copil versus o bătrînică;

un doctor versus doi hoți;

doi bebeluși, o femeie însărcinată, o femeie neînsărcinată și o pisică (toți deodată) versus un chirurg, un hoț, un bătrînel și un bărbat obișnuit…

După cum vedeți, scenariile pot deveni foarte elaborate.

De asemenea, o întrebare importantă în această dezbatere este dacă ar trebui sau nu ca securitatea pasagerilor să fie o prioritate. În anumite contexte, autodistrugerea vehiculului ar putea să fie cea mai bună opțiune pentru a preveni o tragedie și mai mare. Și totuși, cercetările celor de la MIT Media Lab arată că oamenii nu ar cumpăra o ma­șină cu pilot automat, da­că ar exista riscul ca a­ceasta să sacrifice pasagerii în anumite situații.

Folclorul internetului a interpretat acest proiect drept o acțiune de a strîn­ge păreri, care urmează să fie introduse în mod direct în programul de inteligență artificială al ma­șinilor. Această informație a fost preluată și de jurnaliștii (care se presupune că sunt respectabili) din România. Din fericire, cercetătorii MIT sînt mai responsabili decît atât și realizează că un formular anonim de pe internet nu este suficient pentru a lua astfel de decizii, de care ar putea depinde viețile unor oameni.

Datele adunate vor fi folosite în cercetare. Unul dintre scopurile echipei de cercetători este acela de a recomanda politici de stat care să reglementeze echitabil noile tehnologii. De exemplu, Iyad Rahwan spune, în cadrul unei conferințe TED, că în urma interpretării de date au ajuns la concluzia că oamenii nu ar cumpăra o mașină care și-ar putea sacrifica pasagerii în numele siguranței publice. În această situație, companiile de mașini ar începe să producă automobile care își protejează pasagerii, indiferent de consecințe. Rahwan sugerează că ar putea fi o soluție ca statul să le impună producătorilor de mașini să ia în considerare siguranța pietonilor și a celorlalți participanți la trafic atunci cînd își antrenează programele de inteligență artificială.

Adaugă comentariu

object(WP_Term)#13241 (11) { ["term_id"]=> int(19326) ["name"]=> string(7) "Nr. 901" ["slug"]=> string(6) "nr-901" ["term_group"]=> int(0) ["term_taxonomy_id"]=> int(19326) ["taxonomy"]=> string(7) "numbers" ["description"]=> string(0) "" ["parent"]=> int(0) ["count"]=> int(31) ["filter"]=> string(3) "raw" ["term_order"]=> string(1) "0" }