La 14 iulie 2017, premierul rus, Dmitri Medvedev, împreună cu ministrul de externe, Serghei Lavrov, și cu alţi membri ai cabinetului rus au stabilit o întâlnire într-o clădire de birouri din suburbiile Moscovei.
Cercetătorul Michal Kosinski, profesor la Universitatea Stanford, avea să fie adus cu elicopterul pentru a prezenta un software care poate detecta înclinaţiile sexuale ale unei persoane doar analizând caracteristicile faciale dintr-o poză.
Kosinski, un cercetător specializat pe „big data” și inteligenţa artificială, spune că nu a intenţionat niciodată să demonstreze că un calculator poate prezice înclinaţiile sexuale ale unei persoane, ci aceasta a fost o descoperire întâmplătoare pe care a făcut-o lucrând la alt proiect.
Fiziognomonia, o disciplină popularizată prin secolul XIX, care pretindea să determine caracterul oamenilor după fizionomia lor, a fost demult catalogată de lumea academică drept pseudoștiinţa care a stat la baza eforturilor știinţifice rasiste din secolele XIX-XX folosite pentru a demoniza, condamna și în final extermina categorii întregi de populaţie. Acum Kosinski susţine că există tot mai multe dovezi că fiziognomonia este știinţă reală și că avansurile tehnologice vor demonstra că există legături evidente între caracteristicile fizice ale unui om și psihologia sa, iar nu peste mult timp algortimii vor putea detecta emoţii, IQ, ba chiar predispoziţia de a comite anumite acte delincvente. Totul sună bine și frumos când ne gândim la câte crime și atentate ar putea fi prevenite. Dar dacă o asemenea tehnologie de supraveghere aplicată în masă ar conţine prejudecăţi inerente care ar duce la persecutarea unor oameni nevinovaţi?
Ce poate face AI?
Într-o lucrare publicată anul trecut în colaborare cu un alt profesor de la Stanford, Yilun Wang, Kosinski a raportat că un software de recunoaștere facială a fost capabil să distingă cu un grad mare de acurateţe între persoane homosexuale și persoane heterosexuale, dintr-o galerie de peste 35.000 de fotografii culese de pe site-uri de dating. Kosinski însuși s-a declarat „șocat” de rezultate, iar presa a început să relateze subit despre „radarul pentru gay”, care poate ghici corect orientarea sexuală în 81% din cazuri pentru bărbaţi și 71% pentru femei.
De fapt, realitatea despre acurateţea algoritmului este puţin alta. Nu este ca și cum algoritmul a trecut prin toate fotografiile, câte una pe rând, la întâmplare, după care le-a sortat pe categorii de homosexuali și heterosexuali. Algoritmul a fost testat pe perechi de fotografii, una a unei persoane heterosexuale și alta a unei persoane homosexuale, dintre care trebuia să aleagă varianta homosexuală, ceea ce nu înseamnă deloc că algoritmul poate identifica corect orientarea sexuală a oricărei persoane în 81% din cazuri. De fapt, atunci când algoritmul a fost pus să aleagă singur dintr-o bază de date cu 1.000 de fotografii, în care doar 7% erau persoane gay, reflectând proporţia bărbaţilor heterosexuali vs. homosexuali din SUA, sistemul a identificat corect 47 de cazuri și a greșit în restul de 53. Ceea ce sugerează că Kosinski supraestimează capacităţile sistemului și chiar pe cele ale fiziognomoniei, scriu cei de la The Verge, convinși că ne îndreptăm spre o reînviere a pseudoștiinţelor, prin crearea a diverși algoritmi care să fie evaluatori mai buni și mai obiectivi decât pot fi oamenii, dar care conţin prejudecăţi inerente pe care creatorii lor nici măcar nu sunt conștienţi că le-au introdus.
În cazul de faţă, criticii atrag atenţia asupra faptului că s-au folosit fotografii de pe site-uri de dating, unde oamenii își pun fotografii atent alese pentru a transmite anumite lucruri, printre care și orientarea sexuală. Pe lângă asta, criticii spun că Kosinski doar crede că algoritmul său face o legătură directă între caracteristicile faciale și orientarea sexuală, dar nu a reușit să demonstreze că algoritmul nu a ţinut cont și de alte semnalmente, cum ar fi machiajul, ochelarii, barba la bărbaţi, unghiul pozei. Selfie-urile postate pe site-urile de dating proiectează un număr mare de indicii non-faciale pe care algoritmul se poate să le fi luat în calcul, spune unul dintre cei mai vocali critici al studiului, Alexander Todorov, profesor la Universitatea Princeton.
Iar pe lângă asta, să reduci o chestiune complexă, cum este orientarea sexuală, la un singur factor cuantificabil, aici fiind vorba de structura osoasă a feţei, are în spate o lungă istorie de eșecuri, toate pretinzând să fi descoperit „semnalmentele homosexualităţii”, ba mărimea șoldurilor la bărbaţi, ba mărimea clitorisului la femei și altele. Acum Konsinski argumentează în lucrarea sa că „bărbaţii gay se preconizează a avea mandibule mai mici, sprâncene mai subţiri, nasuri mai lungi și frunţi mai înalte… Iar opusul ar trebui să fie valabil pentru lesbiene.” Studiile lui Kosinski „miros a determinism biologic” și aduc aminte de argumentele criminologului și medicului italian Cesare Lombroso, care susţinea că criminalii nu au liber-arbitru și ar trebui mai degrabă compătimiţi decât pedepsiţi, notează Paul Lewis pentru The Guardian. De fapt, mai nou au revenit în modă aceste argumente, aduse în faţă de ateii militanţi pe baza mai multor studii care ar arăta că subconștientul decide ce vom face înainte să realizăm în mod conștient respectiva decizie. În realitate însă, nici aceste studii, nici alte experimente nu au reușit să demonstreze știinţific că liberul-arbitru este ceva iluzoriu, scrie Norel Iacob într-un editorial dedicat acestui subiect. Mai degrabă, „experimentele arată că, atunci când nu avem convingerea că soarta decide pentru noi, suntem mai responsabili și mai morali”.
Pe lângă asta, în cele mai rele cazuri, cercetările care s-au bazat pe un soi de determinism biologic sau altul au fost folosite ca unelte opresive, pretexte știinţifice pentru a dezumaniza și persecuta anumite minorităţi, amintește profesorul de sociologie Greggor Mattson. Cum ar fi ca aceste tehnologii să fie folosite în ţări unde homosexualitatea este pedepsită cu moartea, de exemplu în Iran sau în Arabia Saudită? Todorov este de acord. El spune că asemenea studii sunt contestabile din punct de vedere etic și că ar putea fi folosite pentru a da credibilitate guvernelor care ar dori să folosească tehnologii de recunoaștere facială pentru a oprima diverse grupuri sociale. „Dezvoltarea inteligenţei artificiale și a algoritmilor care învaţă singuri a permis rasismului știinţific să intre într-o nouă eră”, conchide Todorov.
Kosinski se apără spunând că cercetările sale sunt menite tocmai să ne ajute să conștientizăm la nivelul opiniei publice potenţialul negativ al acestor tehnologii, pentru a opri folosirea lor la scară largă în scopuri nefaste. Explicaţia nu prea ţine, din moment ce însuși Kosinski s-a declarat flatat de atenţia pe care cabinetul rus i-a acordat-o anul trecut, după publicarea cercetării sale. Iar dacă ne gândim că Kosinski este nimeni altul decât cercetătorul al cărui algoritm a fost duplicat și folosit de Cambridge Analytica pentru realizarea profilurilor psihologice ale votanţilor americani folosind datele din profilurile de Facebook pentru a manipula voturile lor în favoarea celui care acum ocupă Biroul Oval din Washington D.C., ne întrebăm dacă Kosinski, la cei 36 de ani ai săi, este incredibil de naiv sau este un geniu malefic. Și mai mult decât atât, ne întrebăm ce urmează pentru societate în circumstanţele în care tot mai multe state dau mână liberă supravegherii în masă, iar cerinţa pentru softurile de recunoaștere facială este în creștere.
Ce se caută?
Deja cele mai multe forţe de securitate naţionale și transnaţionale lucrează cu baze de date cu fotografii în scenarii statice – compară o fotografie dintr-o bază de date cu o captură dintr-un video înregistrat în spaţiul public. Pe măsură ce tehnologia avansează, recunoașterea facială live este următorul pas logic. Poliţia din China deja o folosește la scară largă, iar SUA o testează în mai multe aeroporturi, dar și la nivelul poliţiei locale.
Problema este că ne aflăm în situaţia în care tot mai multe state sau forţe de securitate sunt interesate de aceste sisteme, iar companiile sunt dornice să vândă, însă știinţa este încă departe de a da rezultate demne de încredere. Brian Brackeen, directorul companiei Kairos, specializată în softuri de recunoaștere facială este printre puţinii din industrie care recunoaște defectele tehnologiei și insistă ca ele să nu fie folosite de state. Brackeen este afro-american și a văzut pe pielea lui că tehnologia disponibilă momentan se chinuie să distingă oamenii de culoare. Și nu este doar o impresie.
Un studiu recent al MIT arată că algoritmii dezvoltaţi de Microsoft, IBM și Face++ din China eșuează mult mai des în identificarea persoanelor de culoare. Programele nici nu au putut identifica corect sexul unor persoane de culoare faimoase, precum Michelle Obama, Oprah Winfrey și Serena Williams. Când poliţia din Cardiff, Ţara Galilor, a făcut prima încercare a unei astfel de tehnologii la un meci de fotbal în 2017, a rezultat o rată de „fals pozitiv” de 92%, adică programul a identificat greșit mii de oameni din cauza luminii proaste și a problemelor inerente algoritmului. Sistemul de recunoaștere facială folosit de FBI în schimb are o rată de identificări eronate de 14%.
„Suntem într-un moment în care tehnologia este comercializată, deși încă nu este dovedită ca unealtă sigură pentru protecţia publicului”, spune Matt Cagle, avocat în cadrul Uniunii pentru Libertăţile Civile Americane din California de Nord, care a făcut publice eforturile companiei Amazon de a-și vinde tehnologia de recunoaștere facială în cadrul poliţiei, după care, la testare, 28 de membri ai Congresului american au fost identificaţi greșit cu persoane din baza de date a persoanelor cu cazier. O coaliţie de 70 de organizaţii pentru drepturi civile, sute de academicieni, dar și unii dintre investitorii și angajaţii companiei Amazon au cerut public sistarea parteneriatului, dar acest lucru nu s-a întâmplat. Poliţia din Orlando, Florida, de exemplu a decis să continue pentru a-i testa capacităţile. În decizia sa, șeful poliţiei a amintit de un caz de anul trecut când un poliţist a fost urmărit de un suspect pe care poliţiștii îl căutau de săptămâni întregi, fără succes. El speră că această tehnologie ar putea preveni astfel de cazuri, însă Brian Brackeen este convins că „nu există nicio variantă în care programele acestea să nu fie folosite pentru suprimarea unor oameni”.
China a mers cel mai departe cu expansiunea acestei tehnologii în teritoriu și este folosită în scopuri diverse. În regiunea Zhengzhou, poliţia folosește ochelari cu tehnologie de recunoaștere facială pentru a prinde traficanţi de droguri în staţiile de tren. În partea vestică, tehnologia este folosită pentru a urmări populaţia musulmană uighr, o minoritate în zonă. Statul se folosește de umilirea publică pentru a-și controla cetăţenii. După ce vara trecută poliţia a realizat un panou public cu fotografii, nume și alte elemente de identificare ale unor oameni care au traversat strada ilegal într-o anume intersecţie, numărul de incidente de acest fel a scăzut brusc.
Partea bună pentru un stat care gândește astfel de strategii este că nici nu este nevoie să extindă reţeaua de supraveghere peste tot. Doar percepţia oamenilor că sunt urmăriţi sau îndoiala, faptul că nu știu sigur dacă și când sunt urmăriţi îi face automat mai obedienţi. Partea proastă pentru noi este potenţialul ca așa ceva să se extindă și în locuri din SUA și Europa, mai ales în metropole, unde deja există o reţea extinsă de camere de supraveghere.
Edward Snowden deja ne-a informat că SUA își spionează cetăţenii în masă prin programele de supraveghere ale Agenţiei Naţionale de Securitate sub pretextul permanent al monitorizării celulelor teroriste, iar abilitatea Europei de a impune limite morale și etice, chiar în ciuda GDRP-ului, nu este cea mai bună atunci când vine vorba despre protejarea de terorism. Toate superputerile europene, Franţa, Germania și Marea Britanie, dar și ţări precum Polonia, Austria, Italia sau Suedia au adoptat în ultimii ani legislaţii pentru extinderea supravegherii domestice și străine, tot în numele combaterii terorismului. Europa are în general multe de spus atunci când vine vorba despre aspectul comercial al datelor private ale cetăţenilor UE, dar puţine atunci când în discuţie intră aspecte sensibile precum creșterea numărului de imigranţi și atentate teroriste.
Nu este însă cazul să cădem în teorii ale conspiraţiei. Nevoie este mai degrabă ca publicul informat asupra acestor scenarii să pună presiune pe companii și instituţiile publice care se aventurează în astfel de experimente pentru transparenţă și dezbateri publice. Pentru că problema cea mai mare nu este că am ajunge să fim supravegheaţi de o forţă justiţiară oarbă și perfect calibrată, ci că am ajunge să fim supravegheaţi prin impostură, din moment ce, până la urmă inteligenţa artificială nu este deloc artificială și superioară, ci cât se poate de umană și de failibilă.
Autor: Eliza Vlădescu
Păcură !! Să ne d cu păcură pe fata . Nu te mai recunoDte in veci
Up
Doamne ai mila de noi pacatosii
Nu sunt locuri pentru o tara un popor
Cititi cartea Cugetarile unei inimi smerite, manuscris din sec al XV lea in care se fac p[rofetii despre vremea lui antihrist.
Intr-un pasaj se avertizeaza asupra faptului ca cei ce vor avea unre de virtuti crestine vor fi recunoscuti dupa fetele lor si ca lumea se va teme ca fata le descopera neinchinarea la antihrist; (citat vag din memorie).
Identificat pasajul si redati-l cu exactitate.
Prin urmare ce semnalati dvs este inceputil. In apus probabil ca sunt mult mai avansati.
http://www.cuvantul-ortodox.ro/cand-oceanul-raului-va-inunda-intreaga-lume-atunci-va-veni-sfarsitul-lumii/
https://www.librariasophia.ro/carti-Cugetarile-unei-inimi-smerite-so-341.html