Primele reglementări pentru inteligența artificială, adoptate de UE
Uniunea Europeană a aprobat primele reglementări din lume privind inteligența artificială
Reglementările au fost date pe fondul îngrijorărilor tot mai mari legate de faptul că această tehnologie în plină dezvoltare ar putea prezenta riscuri pentru omenire.
Actul privind inteligența artificială plasează reglementări pentru tehnologii în funcție de “riscurile potențiale și nivelul de impact” – sistemele care folosesc inteligența artificială utilizate în infrastructuri critice sau în dispozitive medicale se vor confrunta cu mai multe reglementări.
Waymo, unitatea de vehicule care se conduc singure a companiei Alphabet Inc., mamă a companiei Google lansează săptămâna aceasta serviciul de robotaxi în Los Angeles, a treia sa piață comercială – în timpul unei perioade dificile pentru dezvoltatorii de tehnologii pentru vehicule care se conduc singure. Mișcarea menține Waymo, cea mai veche și mai bine finanțată companie de conducere autonomă, ca lider de facto într-o tehnologie care s-a dovedit mult mai dificil de stăpânit și de implementat decât se anticipa în urmă cu un deceniu.
Startup-ul Overair al inventatorului de drone Predator Abraham Karem este în criză de bani
Din acest motiv, angajații săi pleacă în masă, a aflat Forbes. Overair dezvoltă un taxi aerian electric pentru naveta urbană, dar dificultățile sale ar putea fi un semnal de alarmă cu privire la problemele care vor urma pentru startup-urile din acest domeniu, inclusiv pentru unele care au devenit publice.
Legea UE privind inteligența artificială – care a primit aprobarea finală din partea Parlamentului European – prevede reglementări privind diverse tehnologii de inteligență artificială pe baza “riscurilor potențiale și a nivelului de impact”.
Sistemele de inteligență artificială cu risc ridicat, cum ar fi cele utilizate în infrastructuri critice sau dispozitive medicale, se vor confrunta cu mai multe reglementări, care vor impune ca aceste sisteme să “evalueze și să reducă riscurile”, să fie transparente în ceea ce privește utilizarea datelor și să asigure o supraveghere umană.
Unele aplicații de inteligență artificială vor fi interzise în mod categoric, deoarece “amenință drepturile cetățenilor”
Acestea includ sistemele de recunoaștere a emoțiilor în școli și la locul de muncă, printre altele.
Sistemele de identificare biometrică – aplicații utilizate pentru identificarea persoanelor în spațiile publice – pot fi folosite doar de către forțele de ordine pentru a găsi victimele traficului de persoane și ale exploatării sexuale, pentru a preveni amenințările teroriste și pentru a identifica persoanele suspectate de comiterea unei infracțiuni.
De asemenea, reglementările impun etichetarea imaginilor, a conținutului video sau audio generat de inteligența artificială.
Se așteaptă emiterea legii privind IA
Se așteaptă ca reglementările privind inteligența artificială să devină lege în luna mai, după ce vor primi aprobarea finală din partea unor state membre ale UE. Un set complet de reglementări – inclusiv norme care să reglementeze chatbots – va intra în vigoare până la jumătatea anului 2026, potrivit Parlamentului European, care a precizat că fiecare țară din UE își va înființa propria agenție de supraveghere a IA.
Amenda pentru încălcarea Legii privind IA
Suma maximă a amendei care poate fi aplicată este de 38 de milioane de dolari. Aceasta este amenda maximă pentru încălcări ale Legii privind inteligența artificială, sau până la 7% din veniturile globale ale unei companii.
Un parlamentar român a contribuit la elaborare
Dragoș Tudorache, un parlamentar român care a contribuit la elaborarea Legii IA, a declarat: “Legea privind IA a împins viitorul IA într-o direcție centrată pe om, într-o direcție în care oamenii dețin controlul asupra tehnologiei și în care aceasta, tehnologia, ne ajută să valorificăm noi descoperiri, creșterea economică, progresul societății și să deblocăm potențialul uman.“
UE a început să elaboreze reglementări pentru inteligența artificială în 2018 pentru a deveni principalul organism de reglementare pentru această tehnologie în plină dezvoltare.
Un prim proiect pentru legea privind IA a devenit disponibil la începutul anului 2021
Deși inițial nu a abordat modelele “de uz general”, cum ar fi cele utilizate de ChatGPT sau de alte chatbots, s-a convenit asupra termenilor pentru Legea privind IA în decembrie, reglementările fiind bazate pe evaluarea riscurilor. Dacă un sistem reprezenta un risc mai mare, acesta s-ar confrunta cu mai multe restricții și ar necesita mai multă supraveghere. Normele europene vin în urma apelurilor lansate de directorii din domeniul tehnologiei în favoarea reglementărilor, pe fondul preocupărilor legate de dezvoltarea prea rapidă a tehnologiei. Fostul director executiv al Google, Eric Schmidt, a declarat anul trecut că tehnologia ar putea prezenta “riscuri existențiale”, în timp ce directorul executiv al OpenAI, Sam Altman, a sugerat că firma sa – care a dezvoltat ChatGPT – este “puțin speriată” de potențialul inteligenței artificiale, sugerând că tehnologia va fi “cea mai mare tehnologie pe care omenirea a dezvoltat-o până acum”.
În Statele Unite a fost semnat un ordin privind IA
Președintele Joe Biden a semnat în octombrie un ordin executiv privind IA, care prezintă “cele mai ample măsuri luate vreodată pentru a-i proteja pe americani de riscurile potențiale ale IA”. Ordinul a cerut unor companii să împărtășească rezultatele testelor de siguranță și alte informații. Cel puțin șapte state americane au propus, de asemenea, proiecte de lege care să reglementeze această tehnologie, potrivit Associated Press.