Concurs pentru selectarea unei companii/persoane fizice în vederea achiziției serviciilor de traducere simultană

 

TERMENE DE REFERINȚĂ

 

 

I. Prezentare generală:

Centrul de Resurse Juridice din Moldova (CRJM) este o organizație non-guvernamentală cu sediul în Chișinău, creată în noiembrie 2010 de un grup de juriști, care contribuie la consolidarea democrației și a statului de drept în Republica Moldova, cu accent pe justiție și drepturile omului. CRJM realizează activități de cercetare și advocacy și este o organizație independentă și neafiliată politic. 

II. Scopul concursului:

CRJM anunţă concurs de oferte pentru selectarea traducătorilor, persoane fizice și juridice, care vor presta, în perioada iunie 2021 – iunie 2023, servicii de traducere simultană în cadrul evenimentelor publice de lansare a studiilor și rapoartelor sale, precum și alte activități ale Asociației pentru perechile de limbi:  

  1. română-engleză-română
  2. română-franceză-română

Persoana fizică și/sau juridică selectată va presta serviciile solicitate conform condițiilor indicate de CRJM în baza contractului de prestare servicii semnat între părți (persoana fizică/juridică selectată și CRJM) pentru perioada iunie 2021 – iunie 2023.

III. Criteriile de selecție:

  • Experiența profesională (studii superioare de specialitate și experiența în traducerea simultană cu specific juridic constituie un avantaj);
  • Reputația profesională;
  • Oferta financiară.

Oferta trebuie să fie semnată  de către ofertant/ă și expediată prin e-mail la applications@old2.old.crjm.org până pe 30 mai 2021.

 Oferta de participare la concurs va conţine informație concisă cu indicarea următoarelor date:

  • Date generale despre companie (denumirea, persoana și telefonul de contact, adresa electronică, pagina web) sau Nume, Prenume și datele de contact ale persoanei fizice;
  • Copia certificatului de înregistrare / Extrasul din Registrul de Stat al persoanelor juridice eliberat de ASP pentru persoană juridică (indicând persoana responsabilă de executarea traducerii simultane și anexând CV-ul acesteia) sau CV-ul actualizat al candidatului/tei pentru persoană fizică, care să confirme experiența de traducere simultană cu specific juridic;
  • Referințe la cel puțin trei evenimentele unde a fost prestat serviciul de traducere simultană. În cazul în care nu sunteți de acord ca CRJM să verifice informația, Vă rugăm să menționați expres acest fapt;
  • Oferta financiară cu indicarea prețului per oră în MDL, completată după modelul atașat la prezenta solicitare de oferte. În cazul persoanelor fizice va fi indicat prețul net per oră, iar persoanele juridice vor indica prețul per oră, inclusiv TVA.

    De asemenea, persoanele juridice vor indica disponibilitatea livrărilor cu aplicarea scutirii de TVA, la prezentarea documentelor confirmative de către Beneficiar. Ofertele prezentate în altă valută vor fi convertite la cursul oficial al BNM din data limită pentru prezentarea ofertelor;  

  • Declarația privind conflictul de interese. În cazul existenței unui conflict de interese, real sau potențial, cu conducerea Asociației (președintele și/sau Consiliul de administrare), ofertantul se obligă să-l declare în baza unei declarații completate în formă liberă și anexate la ofertă.

 

Persoana fizică/juridică poate participa la concurs  pentru una sau ambele perechi de limbi, indicate mai sus.

Toate companiile ofertante, care vor depune ofertele în cadrul prezentului concurs, vor fi anunțate despre decizia cu privire la compania selectată după finalizarea procesului de selectare.

Pentru informații suplimentare, Vă rugăm să ne contactați la numărul de telefon 022 843601 ext. 110 sau la adresa de e-mail: applications@old2.old.crjm.org.

 

Notă: CRJM își rezervă dreptul să nu aleagă nicio companie/persoană fizică în cazul în care ofertele primite nu vor corespunde cerințelor sale.

CRJM este o organizație care promovează incluziunea și diversitatea. Noi valorificăm diferențele, promovăm egalitatea și abordăm frontal comportamente discriminatorii, astfel consolidând capacitatea organizațională. Toate companiile calificate sunt încurajate să aplice. Noi nu discriminăm în funcție de dizabilitate, rasă, culoare, etnie, gen, religie, orientare sexuală, vârstă, stare civilă, statut parental sau orice alt criteriu protejat prin lege. Toate aplicațiile recepționate vor fi procesate cu respectarea strictă a confidențialității datelor furnizate. 

Dezinformare și deepfakes – posibile implicații pentru democrație

Trăim în epoca post-adevărului (post-truth), un climat cultural și politic în care există tot mai puțin respect pentru adevăr. Acest concept presupune că oamenilor – și mai ales politicienilor – le pasă mai puțin de ceea ce spun și dacă ceea ce spun este adevărat.[1]

În spatele unei asemenea atitudini formate în timp, nu stă neapărat ignoranța, ci eforturile concertate prin care spațiul public, mai cu seamă cel online, este invadat constant de informații false, părtinitoare sau neverificate, a.k.a. Fake news!. Pe lângă metodele deja devenite „tradiționale” precum paginile web de știri false sau trolii, o nouă tehnologie care amenință să consolideze și să întărească era post-adevărului sunt tehnologiile deepfakes, numite convențional și synthetic media.

Ce sunt deepfakes și cum sunt create?

Deepfakes sunt videoclipuri false create prin intermediul aplicațiilor digitale și sistemelor automate. Imaginile video reale sunt combinate pentru a crea conținut nou, cu declarații sau acțiuni care nu s-au întâmplat în realitate.

[embed]https://www.youtube.com/watch?v=cQ54GDm1eL0&ab_channel=BuzzFeedVideo[/embed]

Exemplu de DeepFake: Discrus al fostului președinte american, Barack Obama

 

Conceptul de bază din spatele tehnologiei este recunoașterea facială (vezi articolul integral aici). Videoclipurile false pot fi create folosind o tehnică de învățare automată și inteligență artificială numită „rețea contradictorie generativă” sau acronimul din engleză GANs. În cuvinte simple, modul în care acționează această tehnologie este următorul: Un GANs scanează fotografii sau video-uri cu o anumită persoană. Tehnologia stabilește puncte de reper pentru a mapa fața persoanei în funcție de anumite caracteristici specifice precum colțurile ochilor și gurii, nările și conturul liniei maxilarului, printre altele, după care poate crea conținut video nou cu o combinație de sunete sau mișcări inexiste.[2] Pe lângă imaginile video, tehnologia GANs poate fi utilizată pentru a genera sunete noi din cele existente, sau un text nou dintr-un text existent.

De ce trebuie să fim precauți în legătură cu Deepfakes?

Tehnologia deepfake nu mai este limitată doar în cercurile academice ci disponibilă pe internet. Aplicații software precum FakeApp sau FaceSwap, Snapchat sau Facebook Messenger, utilizează această tehnologie în care fața reală a persoanei este suprapusă cu fața unei alte persoane sau animații.[3] Chiar dacă în prezent, majoritatea video-urilor false sunt de o calitate care ușor poate fi depistată ca fiind falsă, potrivit experților, această tehnologie avansează zilnic.[4] Astfel foarte curând ne va fi complicat să putem discerne dacă un anumit video este sau nu în realitate fals. Rezultatele unui deepfake vor fi destul de convingătoare, aceste video-uri fiind foarte dificil de identificat ca fiind false.

Riscul principal de utilizare al tehnologiei deepfake este că acesta poate permite la un moment dat oricărui utilizator să videoclipuri despre oricine, făcând și spunând orice.[5]  Implicațiile unei asemenea tehnlogii pentru dezinformare sunt majore, mai ales dacă nu doar imaginea video poate fi replicată dar și vocea persoanei, până la exactitate. Iată câteva exemple de utilizare a tehnologiei deepfake:

  • Panică publică indusă prin urgențe „false” precum calamități naturale sau stare de asediu și război;
  • Discursuri politice manipulatorii sau false;
    • Atacuri asupra unor persoane publice, apărători ai drepturilor omului sau jurnaliști.

Ce putem face în legătură cu Deepfakes?

Specialiștii recomandă câțiva pași care merită urmați atunci când credem că avem de afacere cu un video care portretizează o declarație neobișnuită sau informație posibil falsă. Ca și în cazul informației scrise, pretins false, trebuie să urmăm câțiva pași de control[6]:

  1. Să analizăm cu atenție de fiecare dată sursa – specialiștii recomandă de fiecare dată să atragem atenție originii conținutului video. Câteva întrebări care neapărat trebuie adresate sunt: A fost încărcat de către un utilizator cunoscut sau într-un cont aleatoriu pe o rețea socială? Este sau nu conținut sponsorizat? Cine pretinde că este proprietarul acesteia?. A fost publicat de către un portal de știri cu reputație bună sau un site/portal necunoscut?
  2. Să verificăm dacă video-ul mai poate fi găsit online și în altă parte: Verificăm unde mai poate fi găsit videoclipul, dacă mai este (sau nu) de găsit online, pentru a vedea dacă sunt mai multe știri cu acest video din partea unor publicații cu reputație bună sau persoane credibile (jurnaliști, formatori de opinie);
  3. Să ne abținem de la concluzii până nu primim confirmări suplimentare. La această etapă este foarte important să nu distribuim mai departe video-ul. Acest lucru este valabil mai ales în situațiile de ultimă oră, în care informațiile se mișcă rapid și sunt adesea greșite sau interpretate greșit în primele ore de la difuzare, până ce sunt verificate.

Suplimentar pașilor descriși, putem apela la anumite programe sau organizații media care verifică în regim online dacă im conținutul video are semne a fi fals, sau dacă este acesta este original.

De exemplu, programul Reality Defender[7] scanează și verifică dacă conținutul este fals, manipulatorii sau original. Un raport asupra fiecărui videoclip trimis rezumă concluziile fără a specula intenția manipulărilor.

Un alt mecanism, Platforma Stop-fals[8], o campanie împotriva informației false și tendențioase, desfășurată de Asociația Presei Independente (API) din Republica Moldova stochează o bază de date și cu ajutorul specialiștilor verifică autenticitatea conținutului video. Oricine poate sesiza platforma stop-fals dacă întâlnește conținut posibil fals, inclusiv video.

Rămâneți alături de CRJM pentru a afla mai multe detalii despre noile tehnologii și drepturile omului în era digitală. Ne puteți urmări pe pagina noastră web CRJM.org și rețelele de socializare Facebook, OK.ruTwitterLinkedin.

Acest articol face parte dintr-o serie de publicații non-academice realizate de Centrul de Resurse Juridice din Moldova (CRJM) în cadrul proiectului „Program de capacitare în drepturi digitale” susținut de Centrul Internațional pentru Drept non-profit (ICNL). Opiniile exprimate aparțin CRJM şi nu reflectă în mod necesar poziția ICNL.

[1] https://dictionary.cambridge.org/dictionary/english/post-truth

[2] How to Spot a Deepfake Like the Barack Obama‐Jordan Peele Video”, Craig Silverman,

BuzzFeed News: https://www.buzzfeed.com/craigsilverman/obama-jordan-peele-deepfake-video-debunk-buzzfeed; Mal-uses of AI-generated Synthetic Media and Deepfakes: Pragmatic Solutions Discovery Convening (2018).

[3] Deepfakes: It’s Not What it Looks Like”, Sam Gregory, Atlantic Council:

https://www.youtube.com/watch?v=Qh_6cHw50l0&feature=youtu.be;  “Mal-uses of AI-generated Synthetic Media and Deepfakes: Pragmatic Solutions Discovery Convening” (2018).

[4] Fake Videos of Real People and How to Spot Them”, Supasorn Suwajanakorn, TED:

https://www.youtube.com/watch?v=o2DDU4g0PRo.

[5] https://www.reuters.com/article/us-chertoffdonahoe-hacking-commentary-idUSKCN1NH1W2

[6] Commentary: For Election Hackers a New and More Dangerous Tool”, Michael Chertoff and

Eileen Donahoe, Reuters: https://www.reuters.com/article/us%E2%80%90chertoffdonahoe%E2%80%90hackingcommentary/commentary%E2%80%90for%E2%80%90election%E2%80%90hackers%E2%80%90a%E2%80%90new%E2%80%90and%E2%80%90more%E2%80%90dangerous%E2%80%90toolidUSKCN1NH1W2

[7] Reality Defender: https://rd2020.org/index.html.

[8] Platforma Stop-Fals (Asociația Presei Independente): https://semnale.stopfals.md/ro/about.

Rețelele sociale – gardieni sau detractori ai libertății de exprimare?

Până nu demult, majoritatea din noi obișnuiam să aflăm știrile și evenimentele din toată lumea citind presa scrisă sau pornind televizorul și răsfoind canalele TV. În ultimii ani însă, ceva s-a schimbat dramatic în această rutină. Cu mult înainte de a porni televizorul sau de a cumpăra un ziar, știrile de ultimă oră ajung aproape instant la noi prin intermediul unui telefon mobil, prin notificări instante, canale telegram sau pe „pereții” conturilor noastre de socializare. Pentru mulți dintre noi, verificarea „wall-ului” de pe Facebook a devenit o rutină zilnică cu care începem sau ne încheiem ziua.

Odată cu această schimbare, indiferent dacă suntem conștienți sau nu, rețelele sociale și-au schimbat și ele rolul - de la un simplu instrument de interacțiune între prieteni, cunoscuți, foști colegi de clasă sau facultate, într-un intermediar care primește și împarte cu noi, utilizatorii, informații și știri din întreaga lume.

Fără a nega beneficiile evidente ale unor astfel de căi de comunicare, platformele de socializare care acționează ca intermediari în acest proces au ajuns să aibă un rol mult mai important decât la prima vedere, odată ce informația care „apare” la fiecare utilizator pe așa numitul wall (perete) nu de fiecare dată depinde în totalitate de preferințele individuale, ci de niște reguli distincte, deseori automate, elaborate printr-un algoritm sofisticat puse în acțiune de către această platformă de socializare. Lucrurile devin și mai complicate atunci când platformele decid singure ce conținut poate fi blocat și ce conținut este protejat de libertatea de exprimare, chiar dacă acesta supără sau șochează.

Acest lucru ne aduce la o întrebare care capătă mai multă amploare în spațiul public și mediul academic – și-au asumat oare platformele de socializare noi roluri și responsabilități fără a avea un mandat expres de a face acest lucru? Ar trebui platformele de socializare să se confrunte cu noi roluri, implicit  responsabilități și obligații, luând în considerare rolul pe care îl joacă în facilitarea sau uneori limitarea dreptului nostru de a căuta, primi și transmite informații? Încercăm să răspundem astăzi la câteva din aceste întrebări.  

Platformele de socializare și libertatea de exprimare

Libertatea de exprimare este considerată a fi unul dintre pilonii democrației, iar exercițiul său prin intermediul platformelor de social media este adesea calificat de către mediul academic drept „oxigenul democrației”.[1] Cadrul internațional al drepturilor omului oferă un set complet de instrumente pentru asigura libertatea de exprimare în mediul online. Ca valoare comună globală, libertatea de exprimare este recunoscută de ar. 19 din Declarația Universală a Drepturilor Omului (DUDO) și codificată în continuare în art. 19 din Pactul internațional privind drepturile civile și politice (PIDCP).

Consiliul ONU pentru Drepturile Omului a elaborat Comentariul general nr. 34 (CG nr. 34) în anul 2011, care explică conținutul normativ al dreptului la libertatea de exprimare consacrat în PIDCP. Conform CG nr. 34, libertatea de exprimare include „exprimarea și primirea de comunicări ale oricărei forme de idei și opinii capabile de transmitere către alții, inclusiv discurs politic, comentarii proprii și despre chestiunile publice, sondaje, discuții despre drepturile omului, jurnalism, cultură și expresie artistică, predare și discurs religios ”. CG extinde mijloacele de diseminare a informațiilor, menționând forme de audiovizual, precum și „moduri de expresie electronice și bazate pe internet”.

Moderarea conținutului de către platformele de socializare  

Moderarea conținutului este practica prin care o rețea de socializare se ocupă de trierea, verificarea (și uneori blocarea) conținutului (știri, poze, comentarii, altele) plasat de utilizatori, în conformitate cu regulile „termenilor și condițiilor” elaborate de către această platformă.[2] Termenii și condițiile pe care companiile de internet le stabilesc deseori interzic diferite tipuri de conținut. Mai mult, ceea ce este considerat conținut legal pe această platformă în particular variază în funcție de țări și regiuni. De obicei, platformele sociale vor include atât conținutul ilegal, cât și conținutul pe care, în ciuda legalității sale, este considerat nedorit în lista conținutului pasibil spre moderare. Exemplele pot include imagini nud, conversații despre sex și anumite tipuri de discurs care poate fi catalogat drept discurs discriminatoriu sau discurs de ură.[3]

Deciziile cu privire la moderarea conținutului și consecințele sale, care ar putea include eliminarea permanentă a conținutului, suspendarea contului sau chiar interzicerea unui utilizator de pe o platformă, pot avea ramificații nu numai pentru libera exprimare, ci și alte drepturi fundamentale, precum dreptul la libertatea de asociere , precum și pentru a se bucura de drepturile economice, sociale și culturale.

Responsabilități corporative privind drepturile omului în ceea ce privește moderarea conținutului și libertatea de exprimare

În 2014, o cauză judecată în fața Curții Europene a Drepturilor Omului a adus la lumină o provocare specifică asigurării libertății de exprimare online din perspectiva responsabilității pentru comentariile făcute de utilizatorii pe o platformă de internet. În cazul Delphi v. Estonia, CEDO a examinat problema responsabilității platformei în lumina comentariilor făcute de către utilizatori pe un portal de știri despre un articol.[4] Solicitantul, unul dintre cele mai mari portaluri media din Estonia, a fost obligat să șteargă anumite comentarii presupuse defăimătoare, inclusiv conținutul amenințător referitor la o persoană. Compania a iradiat comentarii pretins defăimătoare, dar a refuzat să repare daunele. În cele din urmă, instanțele naționale au obligat compania să plătească daunele, care este unul dintre motivele pentru care solicitanții au adresat această problemă CEDO, invocând că au fost cenzurați.[5]

Unul dintre argumentele invocate de portalul de știri a fost că acesta a acționat ca un intermediar care le-a permis utilizatorilor să-și transmită opiniile, dar nu ca editor unic, pentru care aceștia ar fi răspunzători pentru conținutul de pe site-ul lor web.[6] Solicitantul a clarificat în continuare că nu există nicio lege care să impună companiei solicitante obligația de a monitoriza în mod pro activ comentariile utilizatorilor, în cazul în care autorii reali ai comentariilor ar trebui să fie responsabili pentru conținutul acestora.[7] 

Într-o dispută care a ajuns până la Marea Camera CtEDO, curtea a declarat că „Datorită interesului [lor] economic în publicarea comentariilor, atât un editor al presei tipărite, cât și un operator de portal de internet cum ar fi platforma web în cauză pot fi considerați pasibili de o anumită răspundere. În particular, CEDO a menținut concluziile instanțelor naționale prin care portalul era responsabil cu monitorizarea și moderarea comentariilor considerate inadecvate.[8] Curtea de la Strasbourg a concluzionat, printre altele, că societatea reclamantă trebuie considerată că a exercitat un grad substanțial de control asupra comentariilor publicate pe portalul său și a impus societății solicitante obligația de a elimina de pe site-ul său web, fără întârziere după publicație, comentariile defăimătoare.[9]

Cazul Delfi este unul reprezentativ dar nu unul singur. Platformele de socializare precum Facebook sau analogii săi ruși Vkontakte și Ok.ru definesc în diferite straturi nivelul responsabilității lor ca intermediari ai libertății de exprimare, dar de cele mai multe ori și-l limitează. De exemplu, acordul utilizatorului Facebook prevede că poate elimina orice conținut sau informații pe care utilizatorii le postează pe Facebook dacă consideră că încalcă politicile Facebook.[10] În același timp, Facebook susține că nu este responsabil pentru acțiunile, conținutul, informațiile sau datele terților.[11] Acest lucru implică pretenția companiei de a adera la abordarea imparțială / neutră în care își retrage responsabilitatea pentru reglementarea conținutului și atât la o abordare pro activă, când ia decizii de reglementare a unui conținut specific:

„Când guvernele cred că ceva de pe internet încalcă legile lor, pot contacta companii precum Facebook și ne pot cere să restricționăm accesul la conținutul respectiv. În mod similar, putem primi ordine de restricționare a conținutului de la instanțele din țările în care furnizăm servicii sau cereri de la entități neguvernamentale, precum membri ai comunității Facebook, ONG-uri și organizații caritabile. Dacă, după o examinare legală atentă, stabilim că conținutul este ilegal în conformitate cu legislația locală, atunci îl vom face indisponibil în țara sau teritoriul relevant. ” [12]

Există și abordări mai directe, în care platforma de social media decide singură restricționarea accesului sau blocarea conținutului pentru utilizatori, chiar și fără o solicitare din partea Guvernului. În ianuarie 2021, compania Twitter a decis suspendarea permanentă a contului fostului președinte SUA Donald Trump din cauza riscului de incitare în continuare a violenței, pretins realizate de către fostul președinte în contextul alegerilor din 2020.[13] Acest lucru ne aduce la o întrebare centrală care urmează să fie clarificată  -  dacă își pot asuma platformele de socializare noi roluri și responsabilități de blocare a conținutului, și în ce măsură acest lucru poate încălca libertatea de exprimare. În orice caz, o asemenea responsabilitate trebuie să treacă un control judiciar.

Pe de altă parte, rețelele de socializare din rusia Vkontakte sau Ok.ru, una dintre cele mai vizitate platforme de socializare din Rusia și din fostele republici sovietice, cu un flux zilnic de milioane de utilizatori adoptă o abordare diferită. Conform standardelor comunității platformelor, utilizatorii sunt obligați să respecte prevederile legislației rusești. Termenii VK și alte documente speciale ale administrației site-ului. La o cerere similară, conform acordului de licență OK.ru, platforma își rezervă puterea de a cenzura / șterge / orice conținut care consideră că încalcă legile Federației Ruse. Platforma își rezervă dreptul de a șterge, fără nicio justificare și fără notificare, orice conținut, inclusiv conținut care, în opinia licențiatorului, încalcă și / sau poate încălca legile Federației Ruse. În asemenea caz, există pericolul că rețelele sociale pot acționa mai degrabă nu neapărat ca și gardieni ai liberții de exprimare, ci mai degrabă detractori ai acestei libertăți.

Recomandări regionale privind platformele de socializare și libertatea de exprimare

Recomandarea CM / Rec (2012)4 a Comitetului de Miniștri către statele membre privind protecția drepturilor omului în ceea ce privește serviciile de rețele sociale stabilește, printre altele, că serviciile de rețele sociale sunt un instrument de exprimare cu un mare potențial de a promova exercitarea și drepturilor omului și a libertăților fundamentale, în special libertatea de exprimare. În același timp, recomandarea exprimă îngrijorarea faptului că drepturile omului pot fi amenințate pe rețelele de socializare.

Aceasta recomandă statelor membre, în consultare cu actorii din sectorul privat și societății civile, să elaboreze și să promoveze strategii coerente pentru a proteja și promova respectarea drepturilor omului în ceea ce privește serviciile de rețele sociale, în special prin angajarea cu furnizorii de rețele sociale pentru a realiza următoarele acțiuni:

  • să ofere utilizatorilor rețelelor sociale un mediu care să le permită să își exercite în continuare drepturile și libertățile;
  • să crească gradul de conștientizare a utilizatorilor, prin intermediul unui limbaj clar și ușor de înțeles, cu privire la posibilele provocări ale drepturilor lor și la modalitățile de a evita un impact negativ asupra drepturilor altor persoane atunci când utilizează aceste servicii;
  • să protejeze utilizatorii fără a limita libertatea de exprimare și accesul la informații;
  • să îmbunătățească transparența cu privire la prelucrarea datelor și abținerea de la prelucrarea ilegitimă a datelor cu caracter personal.

Rămâneți alături de CRJM pentru a afla mai multe detalii despre noile tehnologii și drepturile omului în era digitală. Ne puteți urmări pe pagina noastră web CRJM.org și rețelele de socializare Facebook, OK.ruTwitterLinkedin.

Acest articol face parte dintr-o serie de publicații non-academice realizate de Centrul de Resurse Juridice din Moldova (CRJM) în cadrul proiectului „Program de capacitare în drepturi digitale” susținut de Centrul Internațional pentru Drept non-profit (ICNL). Opiniile exprimate aparțin CRJM şi nu reflectă în mod necesar poziția ICNL.

[1] Benedej W., Ketterman M., „Freedom of Expression and the Internet”, Council of Europe Publishing, Strasbourg, 2013, p. 24.   p. 24.

[2] https://www.accessnow.org/cms/assets/uploads/2019/05/AccessNow-Preliminary-Recommendations-On-Content-Moderation-and-Facebooks-Planned-Oversight-Board.pdf

[3] https://www.accessnow.org/cms/assets/uploads/2019/05/AccessNow-Preliminary-Recommendations-On-Content-Moderation-and-Facebooks-Planned-Oversight-Board.pdf

[4] CEDO, Delfi AS v. Estonia, ECtHR 64669/09,  din 17 februarie 2014, disponibil https://hudoc.echr.coe.int/fre#%7B%22display%22:[2],%22itemid%22:[%22002-8960%22]%7D.

[5] Ibidem. para. 68.

[6] Ibidem. para. 69.

[7] CEDO, Delfi AS v. Estonia, ECtHR 64669/09,  din 17 februarie 2014, para. 77 disponibil https://hudoc.echr.coe.int/fre#%7B%22display%22:[2],%22itemid%22:[%22002-8960%22]%7D.

[8] Ibidem, para. 112.

[9] Ibidem, para. 157.

[10] Facebook, politica legală: <https://www.facebook.com/legal/terms> secțiunea 5. Protecting Other People’s rights, pct. 2.

[11] Facebook, politica legală:  <https://www.facebook.com/legal/terms secțiunea 15. disputele, pct. 3.

[12] https://www.facebook.com/help/1601435423440616?helpref=related.

[13] https://blog.twitter.com/en_us/topics/company/2020/suspension.

Ce au în comun tehnologia de recunoaștere facială și rețeaua 5G?

Facial Recognition Technology, adică tehnologia de recunoaștere facială (TRF) sau recunoaștere feței, este o metodă unică de identificare biometrică. Această tehnologie analizează fața unei persoane, apoi o compară și o măsoară matematic cu o bază de date digitală în scopul identificării unei persoanei. TRF este o inovație tehnologică inedită care ne permite să conectăm o parte din noi care este inerent privată, adică, identitatea noastră, cu o parte din noi care este inerent publică, adică fața noastră. Datorită lansării noilor smartphone-uri construite cu această caracteristică (începând cu iPhone X, Samsung Galaxy S8, sau OnePlus 5T) tehnologia a devenit pe larg accesibilă, fiind utilizată de milioane de persoane din întreaga lume.[1]

Comparativ cu alte tehnologii biometrice, cum ar fi scanarea amprentelor, TRF se remarcă prin faptul că este una din trăsăturile noastre cele mai modificabile, dar și una dintre părțile corpului cu care ne identificăm cel mai mult. În majoritatea contextelor culturale, fața noastră este întotdeauna expusă publicului.[2]

Tehnologia de recunoaștere facială are o gamă largă de utilizare, fie că este vorba despre sectorul public sau cel privat. Pe lângă utilizarea TRF pentru chestii simple, precum deblocarea telefonului,  tehnologia de recunoaștere facială este deja utilizată pe larg de către state și companii.[3]

Alte întrebuințări alte tehnologiei TRF[4]

Sistemul bancar

Instituțiile financiare utilizează verificarea facială pentru a securiza tranzacțiile bancare

Evenimente în masă

Evenimentele de divertisment, cum ar fi evenimentele sportive și concertele, pot folosi tehnologia FRT în loc de bilete.

Securitatea locuinței

Proprietarii locuințelor pot instala sisteme care integrează FRT, cum ar fi soneriile inteligente.

Școală

Sistemele de FRT pot fi integrate pentru a monitoriza frecvența (și absențele) sau evalua atenția elevilor

Potrivit unui raport publicat în 2016, cel puțin 50% dintre populația adultă a Statelor Unite s-ar afla într-o bază de date utilizată pentru identificarea suspecților de la locul crimei. O cantitate similară de date ar fi disponibilă în China, unde, cel puțin 700 de milioane de persoane sunt incluse într-o bază de date guvernamentală.[5]  În țările europene și în special zona Schengen, tehnologia de recunoaștere facială este, de asemenea, utilizată în mod obișnuit de către autoritățile de control vamal pentru identificarea la controlul la frontieră și în scopuri de control. Sistemul numit control automat al frontierei (ABC), constă din ecrane automate ale cabinei echipate cu senzori, scanere și camere video care sunt instalate la intrările și ieșirile din aeroport. Se așteaptă ca în curând această tehnologie să înlocuiască oamenii din procesul de verificare a frontierei din cauza fluxului crescător de pasageri care utilizează traficul aerian.[6]

TRF are o gamă largă de utilizare și în sectorul privat. De exemplu, o companie de trenuri din Germania testează sisteme de recunoaștere a feței cu scopul de a detecta și evita în prealabil situațiile periculoase pentru utilizatorii de metrou.[7] Începând cu 2013, retailerul chinez Alibaba a testat tehnologia de recunoaștere facială pentru a autoriza plățile pentru tranzacțiile lor online.[8] Mai mult, în 2017, sistemul a fost replicat într-un lanț chinez retail care utilizează tehnologia pentru a confirma plățile. [9]  Sistemul „zâmbește la plată” prevede că clienții pot plăti scanându-și fața. [10]  Se așteaptă ca tehnologia să fie reprodusă în curând de sectorul financiar și, cel mai probabil, de alte domenii.

Un studiu controversat realizat de cercetătorii de la Stanford susține că expresia feței poate detecta chiar homosexualitatea.[11] Autorii susțin că algoritmul elaborat de către aceștia ar putea distinge corect între bărbații homosexuali și heterosexuali în 81% din cazuri și în 74% din cazuri pentru femeile cu o singură imagine. Acuratețea algoritmului crește dacă sunt furnizate mai multe imagini faciale per persoană.[12] Cu toate acestea, metodologia studiului și colectarea datelor au fost extrem de criticate de comunitatea academică și grupurile de advocacy pentru drepturile omului, care contestă rezultatele din cauza metodologiei de studiu cu deficiențe.[13]

Ce are în comun recunoașterea facială și rețeaua 5G?

Tehnologia de comunicații mobile de generația a cincea, cunoscută și sub numele de „5G”, este o tehnologie viitoare care nu numai o conexiune mai rapidă la internet, dar are o legătură directă cu implementarea TRF. Rețelele rapide 5G vor permite milioanelor de camere de supraveghere, multe echipate cu software de recunoaștere facială de ultimă generație, să monitorizeze milioane de oameni în timp real.[14] Astfel, odată cu implementarea rețelei 5G, posibilitatea de supraveghere continuă a persoanelor devine omniprezentă.

Amenințările specifice pe care TRF le poate aduce drepturilor omului unei persoane sunt numeroase. Unele dintre principalele domenii care pot fi afectate de utilizarea TRF sunt următoarele:[15]

  • Libertatea de gândire, conștiință și religie în cazul în care sistemele de recunoaștere facială sunt utilizate pentru a monitoriza adunările cultelor, minorităților etnice sau religioase dintr-o țară);
  • Libertatea de exprimare în cazul în care sistemele de recunoaștere facială sunt utilizate pentru a monitoriza protestele anti-guvernamentale);
  • Libertatea de mișcare în cazul în care sistemele de recunoaștere facială sunt utilizate la controlul frontierelor);
  • Egalitatea și nediscriminare în cazul în care sistemele de recunoaștere facială rulează pe baza unor algoritmi părtinitori, care „aleg” cine este eligibil și cine nu să beneficieze de un serviciu sau produs);
  • Viața privată în cazul în care camerele echipate cu recunoaștere facială sunt utilizate în spații publice în scop de supraveghere și control).

Cum putem acționa pentru a preveni utilizarea TRF pentru a limita drepturile și libertățile fundamentale?

Ca și în cazul altor tehnologii moderne asociate recunoașterii faciale, există numeroase eforturi globale și regionale de reglementare a TRF. Având în vedere că nivelul de intruzivitate al recunoașterii faciale și încălcarea conexă a drepturilor la confidențialitate și la protecția datelor vor varia în funcție de situația particulară, utilizarea TRF ar trebui să facă obiectul unei dezbateri democratice privind utilizarea acestuia și posibilitatea unui moratoriu.

În 2021, Consiliul Europei a emis Liniile directoare privind utilizarea TRF.[16] Documentul prevede, printre altele, că utilizarea recunoașterii faciale cu singurul scop de a determina culoarea pielii, convingerile religioase sau de altă natură, sexul, originea rasială sau etnică, vârsta, starea de sănătate sau starea socială ar trebui interzisă, cu excepția cazului în care sunt prevăzute garanții adecvate. În mod similar, recunoașterea „afectelor” adică utilizarea tehnologiilor de recunoaștere facială pentru a detecta trăsături de personalitate, sentimente interioare ale persoanei, sau sănătatea mintală este una periculoasă și trebuie interzisă, mai ales dacă va fi utilizată în procesele de angajare, acces la educație sau alte prestări sociale.

Legalitatea utilizării tehnologiilor de recunoaștere facială se va baza pe scopurile procesării biometrice prevăzute de lege și garanțiile necesare care completează Convenția nr. 108 pentru protecția persoanelor cu privire la prelucrarea automată de date personale, la care Republica Moldova este parte.[17]

În loc de concluzie, fiecare tehnologie are beneficii și riscuri, iar TRF nu este diferit. Aceasta poate fi utilizată în scopuri benefice precum prevenirea criminalității, dar și pentru a reprima drepturile și libertățile fundamentale ale persoanei. Orice reglementare potențială a tehnologiei TRF în Moldova trebuie să echilibreze interesul public pentru disponibilitatea și utilizarea unei tehnologii cu riscuri potențiale pentru drepturile și interesele colective și individuale ale oamenilor. În contextul implementării rețelei 5G, posibilitatea de supraveghere continuă a persoanelor devine omniprezentă, motiv pentru care sunt necesare asigurări adiționale, iar în unele cazuri, moratoriu sau chiar interzicerea unor practici TRF.

Rămâneți alături de CRJM pentru a afla mai multe detalii despre noile tehnologii și drepturile omului în era digitală. Ne puteți urmări pe pagina noastră web CRJM.org și rețelele de socializare facebook, OK.ru, twitter, linkedin.

Acest articol face parte dintr-o serie de publicații non-academice realizate de Centrul de Resurse Juridice din Moldova (CRJM) în cadrul proiectului „Program de capacitare în drepturi digitale” susținut de Centrul Internațional pentru Drept non-profit (ICNL). Opiniile exprimate aparțin CRJM şi nu reflectă în mod necesar poziția ICNL.

[1] The Economist, ‘Facial recognition technology will change the way we live’ (2017) The Economist <https://www.youtube.com/watch?v=nT_PXjLol_8>

[2] Nessa Lynch, Liz Campbell, Joe Purshouse, Marcin Betkier FACIAL RECOGNITION TECHNOLOGY IN NEW ZEALAND

[3] ‘CCTV watchdog warns UK police over use of facial recognition’ Financial Times <https://www.ft.com/content/ab60f9f2-bb26-11e7-8c12-5661783e5589>

[4] Joy Buolamwini, Vicente Ordóñez, Jamie Morgenstern, and Erik Learned-Miller „Facial Recognition

Technologies” A primer (2020), available at: https://global-uploads.webflow.com/5e027ca188c99e3515b404b7/5ed1002058516c11edc66a14_FRTsPrimerMay2020.pdf

[5] The Economist, ‘Facial recognition technology will change the way we live’ (2017) The Economist <https://www.youtube.com/watch?v=nT_PXjLol_8>

[6] Jose Sanchez del Rio, Daniela Moctezuma et. all „Automated border control e-gates and facial recognition systems” (2016) <https://ac.els-cdn.com/S0167404816300736/1-s2.0-S0167404816300736-main.pdf?_tid=67b63f7c-f3d5-11e7-b9ff-00000aab0f01&acdnat=1515348535_d8332765026e4e5ef6211303e1a43816>

[7] Maximiliane Koschyk „Big brother in Berlin „Face recognition technology gets tested” (2017) <http://www.dw.com/en/big-brother-in-berlin-face-recognition-technology-gets-tested/a-39912905

[8] Wochit Tech, „Alibaba Wants You to Pay for Things on Your Smartphone by Scanning Your Face” (2015) <https://www.youtube.com/watch?v=WRK91J0veQk

[9] Routers Staff „Just smile: In KFC China store, diners have new way to pay” Routers (2017) <https://uk.reuters.com/article/us-alibaba-payments-facialrecognition/just-smile-in-kfc-china-store-diners-have-new-way-to-pay-idUKKCN1BC4EL>  

[10] Wochit Tech, „Alibaba Wants You to Pay for Things on Your Smartphone by Scanning Your Face” (2015) <https://www.youtube.com/watch?v=WRK91J0veQk

[11] Yilun Wang, Michal Kosinski, „Deep neural networks are more accurate than humans at detecting sexual orientation from facial images” Journal of Personality and Social Psychology (2017) <https://osf.io/zn79k/>

[12] Ibid. summary

[13] Heather Murphy „Why Stanford Researchers Tried to Create a ‘Gaydar’ Machine” New York Times (2017) <https://www.nytimes.com/2017/10/09/science/stanford-sexual-orientation-study.html>

[14] John Markman „Facial Recognition: A Force for Good...or Government?” Forbes (2019)  https://www.forbes.com/sites/jonmarkman/2019/09/27/facial-recognition-a-force-for-good-or-government/?sh=16fd203b2154.

[15] Nessa Lynch, Liz Campbell, Joe Purshouse, Marcin Betkier „Facial Recognition Technology In New Zealand” (2021), https://apo.org.au/node/310281.

[16] Council of Europe, „Guidelines on the use of Facial Recognition” https://rm.coe.int/guidelines-on-facial-recognition/1680a134f3.

[17] Convenția nr. 108: https://www.legis.md/cautare/getResults?doc_id=117361&lang=ro.

Inteligența artificială va înlocui oamenii…zău?

În curând sistemele algoritmice, cunoscute mai popular ca „inteligența artificială” (IA), vor invada fiecare aspect al vieții noastre: asistența medicală, sistemele bancare și de aplicare a legii, platformele de social media și chiar nucleul existenței noastre — drepturile omului și libertățile fundamentale.

Deși sunt relevante la nivel global, discuțiile despre aspectele pozitive și negative ale inteligenței artificiale încă nu primesc o atenție cuvenită în Moldova. În toată multitudinea strategiilor naționale dedicate economiei, sistemului medical și dezvoltării sectorului IT, inteligența artificială este menționată[1] doar o singură dată și chiar și atunci fără vreo evaluare. De asemenea, nu ar fi o exagerare dacă am spune că atât statului, cât și actorilor societății civile le lipsește înțelegerea magnitudinii acestor sisteme și a impactului pe care ele îl pot avea.

Ce este totuși inteligența artificială?

Înainte de a începe discuția despre inteligența artificială, este necesar de înțeles noțiunile de bază ale acestui domeniu. Și aici apare o provocare. Chiar și pentru instituții precum Consiliul Europei, definiția inteligenței artificiale este „greu de formulat și de împărtășit”[2]

Explicată în cele mai simple cuvinte, inteligența artificială înseamnă orice tip de sistem automatizat, conceput pentru a facilita procesul de luare a deciziilor sau a oferi o înțelegere aprofundată a datelor introduse în el. AI Now Institute[3], un centru de cercetare interdisciplinară dedicat înțelegerii implicațiilor sociale ale inteligenței artificiale, oferă o definiție mai cuprinzătoare[4]:

[…] „Un sistem care folosește raționamentul automatizat pentru a ajuta sau a înlocui un proces decizional care altfel ar fi desfășurat de oameni. Adesea, un sistem automatizat de luare a deciziilor este un software. Un exemplu ar fi un program de computer care folosește informația privind preferințele de școlarizare ale elevilor pentru a genera repartizări școlare. Toate sistemele automatizate de luare a deciziilor sunt proiectate de oameni și presupun un anumit grad de implicare umană în funcționarea lor. În ultimă instanță oamenii sunt responsabili de modul în care datele de intrare sunt introduse într-un sistem (de exemplu, cine colectează datele care vor fi introduse în sistem), modul în care este utilizat sistemul și modul în care sunt interpretate și utilizate informațiile generate de sistem”.

Sursă: AI NOW: Algorthmic Accountability Policy Toolkit (octombrie 2018) 

Dacă această definiție nu a reușit să vă disperseze complet senzația de ambiguitate, vă asigurăm că foarte mulți simt același lucru. Totuși, unele elemente ale acestei definiții aduc suficientă claritate pentru scopurile documentului nostru.

Sistem automatizat de raționare

Proiectat de oameni(de obicei, un software)

Ajută sau înlocuiește un proces decizional care altfel ar fi desfășurat de oameni

Presupune un anumit grad de implicare umană în funcționarea lui

În ultimă instanță oamenii sunt responsabili de modul în care datele de intrare sunt introduse într-un sistem

Aceste elemente ale definiției indică că un sistem automatizat nu poate face prea multe singur, fără intervenția oamenilor care fie îl proiectează, fie îl direcționează. Acesta este primul și cel mai important mit care trebuie să fie demontat atunci când discutăm despre inteligența artificială, cel puțin în anul 2021. Un sistem de superinteligență, capabil să înlocuiască complet oamenii în procesul decizional (a se vedea secțiunea despre AGI, mai departe în acest document), deocamdată nu există. Mai mult, unii comentatori susțin că este extrem de improbabil că acesta va fi inventat în viitorul apropiat.[5]

În prezent se disting trei tipuri principale de sisteme automatizate cu capacități diferite:[6]

tipuri de ia

 

Tipuri de sisteme automatizate

În cazul inteligenței artificiale simbolice lucrurile sunt simple. Inteligența artificială simbolică poate fi atribuită oricărui sistem algoritmic cu pași simpli de alegere (dacă / atunci, da / nu). Algoritmul codifică cunoștințele într-un set de reguli care pot fi executate de un computer. După executarea algoritmului, formula „ejectează” un răspuns (output).

 

Exemplu

Algoritmul încorporat (exemplu)

Nivelul de autonomie

IA simbolică

Funcția „etichetare” pe Facebook, care permite sistemului să detecteze automat o față umană într-o fotografie.

Dacă pe fotografie există anumite modele — o față, un ochi, o ureche, o gură, păr etc. — atunci, cel mai probabil, imaginea reprezintă un om.

Nicio autonomie, totul este proiectat și controlat de oameni.

În cazul celui de-al doilea tip de inteligență artificială, cunoscut ca inteligența artificială restrânsă, învățarea programată sau inteligența artificială bazată pe date, lucrurile devin puțin mai complicate. Învățarea programată este o abordare a inteligenței artificiale care se bazează pe instruirea algoritmilor cu ajutorul unor seturi mari de date, astfel încât aceștia să-și formuleze propriile reguli sau să descopere noi modele, care nu au fost observate până atunci de oameni.

 

Exemplu

Algoritmul încorporat (exemplu)

Nivelul de autonomie

Învățarea programată și IA bazată pe date

 

Recomandări de videoclipuri sau filme care ar putea să-i placă unei persoane, făcute de YouTube sau Netflix pe baza istoricului vizionărilor altor utilizatori cu preferințe similare.

Dacă utilizatorului îi plac sitcomuri, sistemul învață să propună noi recomandări.

Suplimentar la IA simbolică, algoritmii învață și alte modele de la alți utilizatori care au privit sitcomuri similare. Acestea pot include caracteristici cunoscute sau necunoscute (celor care privesc sitcomuri probabil că le vor plăcea și filme cu supereroi). Sistemul colectează aceste date și se ajustează corespunzător pentru a oferi recomandări mai potrivite în viitor.

Cu toate că presupune o anumită autonomie, procesul de „învățare” este oricum îngrijit de oameni.

 

Alte exemple de sisteme de inteligență artificială restrânsă[7]:

Chatboturi

(chatbotul din Facebook Messenger)

Asistență vocală pe dispozitive mobile

(Siri, Alexa, Bixbi etc.)

Instrumente de traducere online

(Google Translate)

Tehnologia automobilelor autonome

(Tesla)

Motoare de căutare

(Google Search, Yandex, Bing)

Servicii de cartografiere

(Google Maps)

 

Superinteligență, inteligență artificială generală (AGI) sau „inteligența artificială pură” este superinteligența complet independentă care imită inteligența umană și evoluează de sine stătător, chiar și fără intervenția oamenilor. Cu alte cuvinte, AGI se referă la capacitatea unei mașini de a îndeplini orice sarcină pe care o poate îndeplini un om.

 

Exemplu

Algoritm

Nivelul de autonomie

Superinteligența / inteligența artificială generală

Nu există... deocamdată!

Necunoscut

 

Autonomie completă

Experții susțin că, cel puțin în secolul nostru, nu există o combinație suficientă de știință și putere de procesare pentru ca să putem discuta despre AGI. Există, însă, și voci mai optimiste, care spun că AGI va deveni posibilă până în anul 2060.[8] Însă, indiferent de perspectivele AGI, unele state, cum ar fi SUA, China, Regatul Unit, Elveția și Suedia, precum și cel puțin 40 de corporații mari, cum ar fi Alibaba, Amazon, Apple și Intel, fac cercetări active în domeniul AGI.[9]

În încheiere, vom spune că există multe tipuri și forme de sisteme automatizate clasificate drept inteligența artificială, care au diferite capacități și grade de autonomie. În general, ele presupun o combinație de procese și tehnologii care permit computerelor să îndeplinească sarcini concrete, cum ar fi luarea deciziilor sau rezolvarea problemelor, care altfel ar fi îndeplinite de oameni. De aceea experții spun că termenul „inteligența artificială” este mai degrabă un „termen-container”[10] sau „termen-constelație”[11] utilizat pentru a defini tehnologii și sisteme bazate pe algoritmi, care au diferite grade de complexitate.

Ok ...Cel mai probabil, inteligența artificială nu va înlocui oamenii  în viitorul apropiat... dar ce șanse sunt că în curând un robot va înlocui locul meu de muncă?

Se pare că nu există nicio îndoială că automatizarea, inclusiv prin sistemele IA va avea un impact major asupra pieței muncii. Există de rapoarte care indică faptul că un nivel crescut de automatizare este intrinsec legat pierderea ulterioară a locurilor de muncă. Predicțiile variază,  de  la 9% la 47% din totalul pieței de muncă urmează a fi automatizat.[12] Estimarea mai mare se concentrează pe joburile reale, în timp ce cea mai mică se bazează pe automatizarea sarcinilor separate efectuate într-o muncă.

Pe de altă parte, alți autori sugerează că implementarea sistemelor automate va genera mai multe creșteri a locurilor de muncă decât cele care urmează a fi eliminate.  Sarcini precum analiza datelor mari (Big Data), extragerea informațiilor și gestionarea rețelelor, precum și alte sarcini similare vor contribui ca pe termen lung, câștigurile și pierderile locurilor de muncă vor chiar mai mici. [13] Automatizarea va afecta în mod disproporționat ocupațiile care necesită o educație mai puțin formală, cum ar fi muncitorii din fabrică, în loc de mai multe ocupații „cu gulere albe”, precum contabilii. În același timp, locurile de muncă cu plăți mai mici sunt mai expuse riscului și ar trebui întreprinse orice eforturi de educare sau de pregătire a lucrătorilor noi.[14] Cu inteligența artificială, putem excela la sarcini bine definite, repetitive sau de rutină. Dar aceste limite sunt încă maleabile și fac obiectul unor noi cercetări.[15]

Mediul academic concluzionează că „oamenii vor fi încă necesari pentru a gestiona lumea digitală”.[16] Prin urmare, factorii de decizie ar trebui să pregătească politici care vizează reatribuirea rolurilor omului și ale roboților pe piața muncii.[17] Aceste eforturi ar trebui să se concentreze, printre altele, pe acordarea accesului oamenilor la noi oportunități educaționale de mai multe ori pe parcursul vieții, ca răspuns la evoluția pieței muncii și la schimbarea cerințelor socioeconomice.[18]

Rămâneți alături de CRJM pentru a afla mai multe detalii despre noile tehnologii și drepturile omului în era digitală. Ne puteți urmări pe pagina noastră web CRJM.org și rețelele de socializare Facebook, OK.ru, Twitter, Linkedin.

Acest articol face parte dintr-o serie de publicații non-academice realizate de Centrul de Resurse Juridice din Moldova (CRJM) în cadrul proiectului „Program de capacitare în drepturi digitale” susținut de Centrul Internațional pentru Drept non-profit (ICNL). Opiniile exprimate aparțin CRJM şi nu reflectă în mod necesar poziția ICNL.

[1] Strategia națională de dezvoltare „Moldova 2030”, aprobată de guvern în 2020, disponibil la https://gov.md/sites/default/files/document/attachments/intr40_12_0.pdf

[2] Consiliul Europei, What is artificial Intelligence?, https://www.coe.int/en/web/artificial-intelligence/what-is-ai. [Toate hyperlink-urile au fost accesate ultima dată la 25 mai 2021.]

[3] AI NOW Institute, Algorithmic Accountability Policy Toolkit (2018), disponibil la https://ainowinstitute.org/aap-toolkit.pdf.

[4] Această definiție a fost aleasă dintr-o multitudine de alte definiții, dar ea nu are pretenția de a fi exhaustivă sau cea mai exactă.

[5] IBM Corporation, Strong AI (2020): https://www.ibm.com/cloud/learn/strong-ai.

[6] ECNL / Marlena Wisniak, prezentarea „A primer on artificial intelligence for CSOs (2021).

[7] Organizația Națiunilor Unite, Report of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression (nr. de ref. A73/348) (2018), disponibil la https://undocs.org/pdf?symbol=en/A/73/348

[8] Alamira Jouman Hajjar, Will AI reach singularity by 2060? 995 experts’ opinions on AGI (2021), disponibil la https://research.aimultiple.com/artificial-general-intelligence-singularity-timing/.

[9] Global Catastrophic Risk Institute, A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy (2017), disponibil la https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3070741

[10] ECNL / Francesca Fanucci, prezentarea AI—Regulatory Developments in Europe (2021). 

[11] Organizația Națiunilor Unite, Report of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression (nr. de ref. A73/348) (2018), disponibil la https://undocs.org/pdf?symbol=en/A/73/348.

[12] Osoba, Osonde A. and William Welser, ‘The Risks of Artificial Intelligence to Security and the Future of Work’ RAND Corporation, (2017) <https://www.rand.org/pubs/perspectives/PE237.html>

[13] Georg Graetz Guy Michaels, ‘Robots at Work’ (2015) <http://cep.lse.ac.uk/pubs/download/dp1335.pdf>

[14] Hamid, Oussama & Smith, Norris & Barzanji, Amin ‘Automation, per se, is not job elimination: How artificial intelligence forwards cooperative human-machine coexistence’ 899-904

[15] Osoba, Osonde A. and William Welser, ‘The Risks of Artificial Intelligence to Security and the Future of Work’ RAND Corporation, (2017) <https://www.rand.org/pubs/perspectives/PE237.html>

[16] Darrell M. West, ‘What happens if robots take the jobs? The impact of emerging technologies on employment and public policy’ (2016) <https://www.brookings.edu/wp-content/uploads/2016/06/robotwork.pdf>

[17] Peter Stone, Rodney Brooks, et all ‘Artificial Intelligence and Life in 2030 One Hundred Year Study on Artificial Intelligence: (2016) <http://ai100.stanford.edu/2016-report>.

[18] Hamid, Oussama & Smith, Norris & Barzanji, Amin ‘Automation, per se, is not job elimination: How artificial intelligence forwards cooperative human-machine coexistence’ 899-904.