Înapoi la știri

OpenAI susține un proiect de lege ce limitează răspunderea pentru incidente mortale cauzate de AI

11 Apr 2026
9 minute min
Maria Simionescu
OpenAI susține un proiect de lege ce limitează răspunderea pentru incidente mortale cauzate de AI

Potrivit wired.com, o nouă propunere legislativă sugerează o schimbare în strategia legislativă a OpenAI. Proiectul de lege SB 3444, care ar putea stabili un nou standard pentru industrie, ar proteja dezvoltatorii de modele AI de răspunderea pentru „daune critice” cauzate de modelele lor avansate, cu anumite condiții.

D până acum, OpenAI a adoptat o abordare defensivă, opunându-se propunerilor care ar putea face laboratoarele AI responsabile pentru daunele cauzate de tehnologia lor. Experți în politică AI afirmă că SB 3444 este o măsură mai extremă comparativ cu legile susținute anterior de OpenAI. Proiectul de lege ar scuti dezvoltatorii de AI de răspundere pentru daune „critice” cauzate de modelele lor avansate, atâta timp cât nu au provocat intenționat sau cu nepăsare un astfel de incident și au publicat rapoarte de siguranță, securitate și transparență pe site-ul lor.

Un model avansat este definit ca orice model AI antrenat folosind mai mult de 100 de milioane de dolari în costuri computaționale, ceea ce ar putea include cele mai mari laboratoare AI din America, cum ar fi OpenAI, Google, xAI, Anthropic și Meta. „Susținem astfel de abordări deoarece se concentrează pe ceea ce contează cel mai mult: reducerea riscului de daune grave din partea celor mai avansate sisteme AI, în timp ce permitem acestei tehnologii să ajungă în mâinile oamenilor și afacerilor din Illinois”, a declarat Jamie Radice, purtător de cuvânt al OpenAI, într-o declarație trimisă prin e-mail. „Acestea ajută, de asemenea, la evitarea unei aglomerări de reguli diferite de stat și contribuie la standarde naționale mai clare și mai consistente.”

👉 Definirea daunelor critice și implicații legale

Proiectul de lege definește daunele critice ca incluzând acțiuni comune de îngrijorare pentru industria AI, cum ar fi utilizarea AI de către actori rău intenționați pentru a crea arme chimice, biologice, radiologice sau nucleare. Dacă un model AI se angajează într-o conduită autonomă care, dacă ar fi fost comisă de un om, ar constitui o infracțiune penală, aceasta ar fi de asemenea considerată o daună critică. Dacă un model AI ar comite oricare dintre aceste acțiuni sub SB 3444, laboratorul AI care se află în spatele modelului poate să nu fie ținut responsabil, atât timp cât acțiunile nu au fost intenționate și au fost publicate rapoartele necesare.

Legiuitorii federali și de stat din SUA nu au adoptat până acum nicio lege care să stabilească în mod specific dacă dezvoltatorii de modele AI, precum OpenAI, pot fi răspunzători pentru aceste tipuri de daune cauzate de tehnologia lor. Însă, pe măsură ce laboratoarele AI continuă să lanseze modele mai puternice care ridică noi provocări de siguranță și de securitate cibernetică, întrebările legate de răspundere devin din ce în ce mai presante.

👉 Cererea unui cadru federal de reglementare AI

În sprijinul SB 3444, Caitlin Niedermeyer, membră a echipei de Afaceri Globale a OpenAI, a argumentat pentru un cadru federal de reglementare a AI. Niedermeyer a susținut că este important să se evite „o aglomerare de cerințe de stat inconsistent care ar putea crea fricțiuni fără a îmbunătăți semnificativ siguranța”. Aceasta viziune este în concordanță cu opinia generală din Silicon Valley în ultimii ani, care a argumentat că legislația AI nu ar trebui să afecteze poziția Americii în competiția globală AI.

Deși SB 3444 este o lege de siguranță la nivel de stat, Niedermeyer a susținut că acestea pot fi eficiente dacă „susțin un drum către armonizare cu sistemele federale”. „La OpenAI, credem că steaua noastră călăuzitoare pentru reglementarea avansată ar trebui să fie desfășurarea sigură a celor mai avansate modele într-un mod care să păstreze, de asemenea, leadershipul SUA în inovație”, a spus Niedermeyer.

👉 Provocări legale și opinia publicului

Scott Wisor, director de politici pentru proiectul Secure AI, afirmă că acest proiect de lege are șanse reduse de a fi adoptat, având în vedere reputația Illinois pentru reglementarea agresivă a tehnologiei. „Am realizat un sondaj în Illinois, întrebând oamenii dacă cred că firmele AI ar trebui să fie scutite de răspundere, iar 90% dintre oameni s-au opus acestei idei. Nu există niciun motiv pentru care firmele AI existente să beneficieze de o răspundere redusă”, a declarat Wisor. El subliniază că legislatorii din Illinois au depus și propuneri de lege care cresc responsabilitatea dezvoltatorilor de modele AI.

În august anul trecut, statul Illinois a devenit primul din țară care a adoptat legislația ce limitează utilizarea AI în serviciile de sănătate mintală. Illinois a fost, de asemenea, unul dintre primii care a reglementat colectarea datelor biometrice, adoptând Legea privind confidențialitatea informațiilor biometrice în 2008. Pe lângă focala pe evenimentele cu victime în masă și mari dezastre financiare, laboratoarele AI se confruntă și cu întrebări privind daunele pe care modelele lor AI le pot provoca la nivel individual. Numeroși membri ai familiilor copiilor care s-au sinucis după ce au dezvoltat, se pare, relații nesănătoase cu ChatGPT, au dat în judecată OpenAI în ultimul an.

Legislația federală în domeniul AI pentru care pledează Niedermeyer în mărturia sa rămâne un obiectiv evaziv pentru Congres. Deși administrația Trump a emis ordine executive și a publicat cadre în încercarea de a cataliza adoptarea unei legislații federale în domeniul AI, discuțiile despre adoptarea efectivă a unei astfel de măsuri nu par să progreseze. În absența unei îndrumări federale, state precum California și New York au adoptat legi, precum SB 53 și Raise Act, care impun dezvoltatorilor de modele AI să depună rapoarte de siguranță și transparență. Ani de zile în urma boom-ului AI, întrebarea legală rămâne deschisă: ce se întâmplă dacă un model AI cauzează un eveniment catastrofal?

Alte postari din Economie
Economie

Prețul petrolului crește cu 7% din cauza blocadei din Hormuz; 3 acțiuni de cumpărat acum

Prețurile petrolului au crescut cu 7%, după ce președintele Trump a ordonat o blocadă a Strâmtorii Hormuz, restricționând oferta globală. În același timp, petrolierele goale destinate inițial Orientului Mijlociu s-au redirecționat către porturile de pe Coasta Golfului din SUA, achiziționând țiței american și sprijinind producătorii locali.

Economie

XAI își reorganizează echipa de inginerie înainte de IPO-ul SpaceX

Pe măsură ce xAI, compania de inteligență artificială fondată de Elon Musk, se unește tot mai strâns cu SpaceX înainte de IPO-ul blockbuster al gigantului spațial, compania suferă o altă reorganizare majoră a echipei de inginerie, conform unui memo vizionat de businessinsider.com. Executivul SpaceX, Michael Nicolls, a declarat că firma este „clar în urma” concurenței și ia măsuri pentru a recupera rapid acest decalaj.

Economie

Verdicte împotriva Meta și Google ar putea aduce o nouă eră de responsabilitate pentru marile tehnologii

Mary Rodee, a cărei fiu de 15 ani s-a sinucis, arată un banner cu numele victimelor în fața Curții Superioare din Los Angeles pe 25 martie, după ce un juriu a decis că Meta și YouTube sunt responsabile de vătămarea unei tinere prin designul adictiv al platformelor lor de socializare. Verdictul istoric ar putea remodela modul în care industria tehnologică se confruntă cu responsabilitatea legală pentru prejudiciile aduse utilizatorilor, conform npr.org.

Acasa Recente Radio Județe