În curând sistemele algoritmice, cunoscute mai popular ca „inteligența artificială” (IA), vor invada fiecare aspect al vieții noastre: asistența medicală, sistemele bancare și de aplicare a legii, platformele de social media și chiar nucleul existenței noastre — drepturile omului și libertățile fundamentale.
Deși sunt relevante la nivel global, discuțiile despre aspectele pozitive și negative ale inteligenței artificiale încă nu primesc o atenție cuvenită în Moldova. În toată multitudinea strategiilor naționale dedicate economiei, sistemului medical și dezvoltării sectorului IT, inteligența artificială este menționată[1] doar o singură dată și chiar și atunci fără vreo evaluare. De asemenea, nu ar fi o exagerare dacă am spune că atât statului, cât și actorilor societății civile le lipsește înțelegerea magnitudinii acestor sisteme și a impactului pe care ele îl pot avea.
Ce este totuși inteligența artificială?
Înainte de a începe discuția despre inteligența artificială, este necesar de înțeles noțiunile de bază ale acestui domeniu. Și aici apare o provocare. Chiar și pentru instituții precum Consiliul Europei, definiția inteligenței artificiale este „greu de formulat și de împărtășit”[2].
Explicată în cele mai simple cuvinte, inteligența artificială înseamnă orice tip de sistem automatizat, conceput pentru a facilita procesul de luare a deciziilor sau a oferi o înțelegere aprofundată a datelor introduse în el. AI Now Institute[3], un centru de cercetare interdisciplinară dedicat înțelegerii implicațiilor sociale ale inteligenței artificiale, oferă o definiție mai cuprinzătoare[4]:
[…] „Un sistem care folosește raționamentul automatizat pentru a ajuta sau a înlocui un proces decizional care altfel ar fi desfășurat de oameni. Adesea, un sistem automatizat de luare a deciziilor este un software. Un exemplu ar fi un program de computer care folosește informația privind preferințele de școlarizare ale elevilor pentru a genera repartizări școlare. Toate sistemele automatizate de luare a deciziilor sunt proiectate de oameni și presupun un anumit grad de implicare umană în funcționarea lor. În ultimă instanță oamenii sunt responsabili de modul în care datele de intrare sunt introduse într-un sistem (de exemplu, cine colectează datele care vor fi introduse în sistem), modul în care este utilizat sistemul și modul în care sunt interpretate și utilizate informațiile generate de sistem”.
Sursă: AI NOW: Algorthmic Accountability Policy Toolkit (octombrie 2018)
Dacă această definiție nu a reușit să vă disperseze complet senzația de ambiguitate, vă asigurăm că foarte mulți simt același lucru. Totuși, unele elemente ale acestei definiții aduc suficientă claritate pentru scopurile documentului nostru.
Sistem automatizat de raționare | Proiectat de oameni(de obicei, un software) | Ajută sau înlocuiește un proces decizional care altfel ar fi desfășurat de oameni | Presupune un anumit grad de implicare umană în funcționarea lui | În ultimă instanță oamenii sunt responsabili de modul în care datele de intrare sunt introduse într-un sistem |
Aceste elemente ale definiției indică că un sistem automatizat nu poate face prea multe singur, fără intervenția oamenilor care fie îl proiectează, fie îl direcționează. Acesta este primul și cel mai important mit care trebuie să fie demontat atunci când discutăm despre inteligența artificială, cel puțin în anul 2021. Un sistem de superinteligență, capabil să înlocuiască complet oamenii în procesul decizional (a se vedea secțiunea despre AGI, mai departe în acest document), deocamdată nu există. Mai mult, unii comentatori susțin că este extrem de improbabil că acesta va fi inventat în viitorul apropiat.[5]
În prezent se disting trei tipuri principale de sisteme automatizate cu capacități diferite:[6]
Tipuri de sisteme automatizate
În cazul inteligenței artificiale simbolice lucrurile sunt simple. Inteligența artificială simbolică poate fi atribuită oricărui sistem algoritmic cu pași simpli de alegere (dacă / atunci, da / nu). Algoritmul codifică cunoștințele într-un set de reguli care pot fi executate de un computer. După executarea algoritmului, formula „ejectează” un răspuns (output).
| Exemplu | Algoritmul încorporat (exemplu) | Nivelul de autonomie |
IA simbolică | Funcția „etichetare” pe Facebook, care permite sistemului să detecteze automat o față umană într-o fotografie. | Dacă pe fotografie există anumite modele — o față, un ochi, o ureche, o gură, păr etc. — atunci, cel mai probabil, imaginea reprezintă un om. | Nicio autonomie, totul este proiectat și controlat de oameni. |
În cazul celui de-al doilea tip de inteligență artificială, cunoscut ca inteligența artificială restrânsă, învățarea programată sau inteligența artificială bazată pe date, lucrurile devin puțin mai complicate. Învățarea programată este o abordare a inteligenței artificiale care se bazează pe instruirea algoritmilor cu ajutorul unor seturi mari de date, astfel încât aceștia să-și formuleze propriile reguli sau să descopere noi modele, care nu au fost observate până atunci de oameni.
| Exemplu | Algoritmul încorporat (exemplu) | Nivelul de autonomie |
Învățarea programată și IA bazată pe date
| Recomandări de videoclipuri sau filme care ar putea să-i placă unei persoane, făcute de YouTube sau Netflix pe baza istoricului vizionărilor altor utilizatori cu preferințe similare. | Dacă utilizatorului îi plac sitcomuri, sistemul învață să propună noi recomandări. Suplimentar la IA simbolică, algoritmii învață și alte modele de la alți utilizatori care au privit sitcomuri similare. Acestea pot include caracteristici cunoscute sau necunoscute (celor care privesc sitcomuri probabil că le vor plăcea și filme cu supereroi). Sistemul colectează aceste date și se ajustează corespunzător pentru a oferi recomandări mai potrivite în viitor. | Cu toate că presupune o anumită autonomie, procesul de „învățare” este oricum îngrijit de oameni. |
Alte exemple de sisteme de inteligență artificială restrânsă[7]:
Chatboturi (chatbotul din Facebook Messenger) | Asistență vocală pe dispozitive mobile (Siri, Alexa, Bixbi etc.) | Instrumente de traducere online (Google Translate) |
Tehnologia automobilelor autonome (Tesla) | Motoare de căutare (Google Search, Yandex, Bing) | Servicii de cartografiere (Google Maps) |
Superinteligență, inteligență artificială generală (AGI) sau „inteligența artificială pură” este superinteligența complet independentă care imită inteligența umană și evoluează de sine stătător, chiar și fără intervenția oamenilor. Cu alte cuvinte, AGI se referă la capacitatea unei mașini de a îndeplini orice sarcină pe care o poate îndeplini un om.
| Exemplu | Algoritm | Nivelul de autonomie |
Superinteligența / inteligența artificială generală | Nu există… deocamdată! | Necunoscut
| Autonomie completă |
Experții susțin că, cel puțin în secolul nostru, nu există o combinație suficientă de știință și putere de procesare pentru ca să putem discuta despre AGI. Există, însă, și voci mai optimiste, care spun că AGI va deveni posibilă până în anul 2060.[8] Însă, indiferent de perspectivele AGI, unele state, cum ar fi SUA, China, Regatul Unit, Elveția și Suedia, precum și cel puțin 40 de corporații mari, cum ar fi Alibaba, Amazon, Apple și Intel, fac cercetări active în domeniul AGI.[9]
În încheiere, vom spune că există multe tipuri și forme de sisteme automatizate clasificate drept inteligența artificială, care au diferite capacități și grade de autonomie. În general, ele presupun o combinație de procese și tehnologii care permit computerelor să îndeplinească sarcini concrete, cum ar fi luarea deciziilor sau rezolvarea problemelor, care altfel ar fi îndeplinite de oameni. De aceea experții spun că termenul „inteligența artificială” este mai degrabă un „termen-container”[10] sau „termen-constelație”[11] utilizat pentru a defini tehnologii și sisteme bazate pe algoritmi, care au diferite grade de complexitate.
Ok …Cel mai probabil, inteligența artificială nu va înlocui oamenii în viitorul apropiat… dar ce șanse sunt că în curând un robot va înlocui locul meu de muncă?
Se pare că nu există nicio îndoială că automatizarea, inclusiv prin sistemele IA va avea un impact major asupra pieței muncii. Există de rapoarte care indică faptul că un nivel crescut de automatizare este intrinsec legat pierderea ulterioară a locurilor de muncă. Predicțiile variază, de la 9% la 47% din totalul pieței de muncă urmează a fi automatizat.[12] Estimarea mai mare se concentrează pe joburile reale, în timp ce cea mai mică se bazează pe automatizarea sarcinilor separate efectuate într-o muncă.
Pe de altă parte, alți autori sugerează că implementarea sistemelor automate va genera mai multe creșteri a locurilor de muncă decât cele care urmează a fi eliminate. Sarcini precum analiza datelor mari (Big Data), extragerea informațiilor și gestionarea rețelelor, precum și alte sarcini similare vor contribui ca pe termen lung, câștigurile și pierderile locurilor de muncă vor chiar mai mici. [13] Automatizarea va afecta în mod disproporționat ocupațiile care necesită o educație mai puțin formală, cum ar fi muncitorii din fabrică, în loc de mai multe ocupații „cu gulere albe”, precum contabilii. În același timp, locurile de muncă cu plăți mai mici sunt mai expuse riscului și ar trebui întreprinse orice eforturi de educare sau de pregătire a lucrătorilor noi.[14] Cu inteligența artificială, putem excela la sarcini bine definite, repetitive sau de rutină. Dar aceste limite sunt încă maleabile și fac obiectul unor noi cercetări.[15]
Mediul academic concluzionează că „oamenii vor fi încă necesari pentru a gestiona lumea digitală”.[16] Prin urmare, factorii de decizie ar trebui să pregătească politici care vizează reatribuirea rolurilor omului și ale roboților pe piața muncii.[17] Aceste eforturi ar trebui să se concentreze, printre altele, pe acordarea accesului oamenilor la noi oportunități educaționale de mai multe ori pe parcursul vieții, ca răspuns la evoluția pieței muncii și la schimbarea cerințelor socioeconomice.[18]
Rămâneți alături de CRJM pentru a afla mai multe detalii despre noile tehnologii și drepturile omului în era digitală. Ne puteți urmări pe pagina noastră web CRJM.org și rețelele de socializare Facebook, OK.ru, Twitter, Linkedin.
Acest articol face parte dintr-o serie de publicații non-academice realizate de Centrul de Resurse Juridice din Moldova (CRJM) în cadrul proiectului „Program de capacitare în drepturi digitale” susținut de Centrul Internațional pentru Drept non-profit (ICNL). Opiniile exprimate aparțin CRJM şi nu reflectă în mod necesar poziția ICNL.
[1] Strategia națională de dezvoltare „Moldova 2030”, aprobată de guvern în 2020, disponibil la https://gov.md/sites/default/files/document/attachments/intr40_12_0.pdf
[2] Consiliul Europei, What is artificial Intelligence?, https://www.coe.int/en/web/artificial-intelligence/what-is-ai. [Toate hyperlink-urile au fost accesate ultima dată la 25 mai 2021.]
[3] AI NOW Institute, Algorithmic Accountability Policy Toolkit (2018), disponibil la https://ainowinstitute.org/aap-toolkit.pdf.
[4] Această definiție a fost aleasă dintr-o multitudine de alte definiții, dar ea nu are pretenția de a fi exhaustivă sau cea mai exactă.
[5] IBM Corporation, Strong AI (2020): https://www.ibm.com/cloud/learn/strong-ai.
[6] ECNL / Marlena Wisniak, prezentarea „A primer on artificial intelligence for CSOs” (2021).
[7] Organizația Națiunilor Unite, Report of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression (nr. de ref. A73/348) (2018), disponibil la https://undocs.org/pdf?symbol=en/A/73/348.
[8] Alamira Jouman Hajjar, Will AI reach singularity by 2060? 995 experts’ opinions on AGI (2021), disponibil la https://research.aimultiple.com/artificial-general-intelligence-singularity-timing/.
[9] Global Catastrophic Risk Institute, A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy (2017), disponibil la https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3070741
[10] ECNL / Francesca Fanucci, prezentarea „AI—Regulatory Developments in Europe” (2021).
[11] Organizația Națiunilor Unite, Report of the Special Rapporteur on the promotion and protection of the right to freedom of opinion and expression (nr. de ref. A73/348) (2018), disponibil la https://undocs.org/pdf?symbol=en/A/73/348.
[12] Osoba, Osonde A. and William Welser, ‘The Risks of Artificial Intelligence to Security and the Future of Work’ RAND Corporation, (2017) <https://www.rand.org/pubs/perspectives/PE237.html>
[13] Georg Graetz Guy Michaels, ‘Robots at Work’ (2015) <http://cep.lse.ac.uk/pubs/download/dp1335.pdf>
[14] Hamid, Oussama & Smith, Norris & Barzanji, Amin ‘Automation, per se, is not job elimination: How artificial intelligence forwards cooperative human-machine coexistence’ 899-904
[15] Osoba, Osonde A. and William Welser, ‘The Risks of Artificial Intelligence to Security and the Future of Work’ RAND Corporation, (2017) <https://www.rand.org/pubs/perspectives/PE237.html>
[16] Darrell M. West, ‘What happens if robots take the jobs? The impact of emerging technologies on employment and public policy’ (2016) <https://www.brookings.edu/wp-content/uploads/2016/06/robotwork.pdf>
[17] Peter Stone, Rodney Brooks, et all ‘Artificial Intelligence and Life in 2030 One Hundred Year Study on Artificial Intelligence: (2016) <http://ai100.stanford.edu/2016-report>.
[18] Hamid, Oussama & Smith, Norris & Barzanji, Amin ‘Automation, per se, is not job elimination: How artificial intelligence forwards cooperative human-machine coexistence’ 899-904.