OpenAI susține un proiect de lege ce limitează răspunderea pentru incidente mortale cauzate de AI
Potrivit wired.com, o nouă propunere legislativă sugerează o schimbare în strategia legislativă a OpenAI. Proiectul de lege SB 3444, care ar putea stabili un nou standard pentru industrie, ar proteja dezvoltatorii de modele AI de răspunderea pentru „daune critice” cauzate de modelele lor avansate, cu anumite condiții.
D până acum, OpenAI a adoptat o abordare defensivă, opunându-se propunerilor care ar putea face laboratoarele AI responsabile pentru daunele cauzate de tehnologia lor. Experți în politică AI afirmă că SB 3444 este o măsură mai extremă comparativ cu legile susținute anterior de OpenAI. Proiectul de lege ar scuti dezvoltatorii de AI de răspundere pentru daune „critice” cauzate de modelele lor avansate, atâta timp cât nu au provocat intenționat sau cu nepăsare un astfel de incident și au publicat rapoarte de siguranță, securitate și transparență pe site-ul lor.
Un model avansat este definit ca orice model AI antrenat folosind mai mult de 100 de milioane de dolari în costuri computaționale, ceea ce ar putea include cele mai mari laboratoare AI din America, cum ar fi OpenAI, Google, xAI, Anthropic și Meta. „Susținem astfel de abordări deoarece se concentrează pe ceea ce contează cel mai mult: reducerea riscului de daune grave din partea celor mai avansate sisteme AI, în timp ce permitem acestei tehnologii să ajungă în mâinile oamenilor și afacerilor din Illinois”, a declarat Jamie Radice, purtător de cuvânt al OpenAI, într-o declarație trimisă prin e-mail. „Acestea ajută, de asemenea, la evitarea unei aglomerări de reguli diferite de stat și contribuie la standarde naționale mai clare și mai consistente.”
👉 Definirea daunelor critice și implicații legale
Proiectul de lege definește daunele critice ca incluzând acțiuni comune de îngrijorare pentru industria AI, cum ar fi utilizarea AI de către actori rău intenționați pentru a crea arme chimice, biologice, radiologice sau nucleare. Dacă un model AI se angajează într-o conduită autonomă care, dacă ar fi fost comisă de un om, ar constitui o infracțiune penală, aceasta ar fi de asemenea considerată o daună critică. Dacă un model AI ar comite oricare dintre aceste acțiuni sub SB 3444, laboratorul AI care se află în spatele modelului poate să nu fie ținut responsabil, atât timp cât acțiunile nu au fost intenționate și au fost publicate rapoartele necesare.
Legiuitorii federali și de stat din SUA nu au adoptat până acum nicio lege care să stabilească în mod specific dacă dezvoltatorii de modele AI, precum OpenAI, pot fi răspunzători pentru aceste tipuri de daune cauzate de tehnologia lor. Însă, pe măsură ce laboratoarele AI continuă să lanseze modele mai puternice care ridică noi provocări de siguranță și de securitate cibernetică, întrebările legate de răspundere devin din ce în ce mai presante.
👉 Cererea unui cadru federal de reglementare AI
În sprijinul SB 3444, Caitlin Niedermeyer, membră a echipei de Afaceri Globale a OpenAI, a argumentat pentru un cadru federal de reglementare a AI. Niedermeyer a susținut că este important să se evite „o aglomerare de cerințe de stat inconsistent care ar putea crea fricțiuni fără a îmbunătăți semnificativ siguranța”. Aceasta viziune este în concordanță cu opinia generală din Silicon Valley în ultimii ani, care a argumentat că legislația AI nu ar trebui să afecteze poziția Americii în competiția globală AI.
Deși SB 3444 este o lege de siguranță la nivel de stat, Niedermeyer a susținut că acestea pot fi eficiente dacă „susțin un drum către armonizare cu sistemele federale”. „La OpenAI, credem că steaua noastră călăuzitoare pentru reglementarea avansată ar trebui să fie desfășurarea sigură a celor mai avansate modele într-un mod care să păstreze, de asemenea, leadershipul SUA în inovație”, a spus Niedermeyer.
👉 Provocări legale și opinia publicului
Scott Wisor, director de politici pentru proiectul Secure AI, afirmă că acest proiect de lege are șanse reduse de a fi adoptat, având în vedere reputația Illinois pentru reglementarea agresivă a tehnologiei. „Am realizat un sondaj în Illinois, întrebând oamenii dacă cred că firmele AI ar trebui să fie scutite de răspundere, iar 90% dintre oameni s-au opus acestei idei. Nu există niciun motiv pentru care firmele AI existente să beneficieze de o răspundere redusă”, a declarat Wisor. El subliniază că legislatorii din Illinois au depus și propuneri de lege care cresc responsabilitatea dezvoltatorilor de modele AI.
În august anul trecut, statul Illinois a devenit primul din țară care a adoptat legislația ce limitează utilizarea AI în serviciile de sănătate mintală. Illinois a fost, de asemenea, unul dintre primii care a reglementat colectarea datelor biometrice, adoptând Legea privind confidențialitatea informațiilor biometrice în 2008. Pe lângă focala pe evenimentele cu victime în masă și mari dezastre financiare, laboratoarele AI se confruntă și cu întrebări privind daunele pe care modelele lor AI le pot provoca la nivel individual. Numeroși membri ai familiilor copiilor care s-au sinucis după ce au dezvoltat, se pare, relații nesănătoase cu ChatGPT, au dat în judecată OpenAI în ultimul an.
Legislația federală în domeniul AI pentru care pledează Niedermeyer în mărturia sa rămâne un obiectiv evaziv pentru Congres. Deși administrația Trump a emis ordine executive și a publicat cadre în încercarea de a cataliza adoptarea unei legislații federale în domeniul AI, discuțiile despre adoptarea efectivă a unei astfel de măsuri nu par să progreseze. În absența unei îndrumări federale, state precum California și New York au adoptat legi, precum SB 53 și Raise Act, care impun dezvoltatorilor de modele AI să depună rapoarte de siguranță și transparență. Ani de zile în urma boom-ului AI, întrebarea legală rămâne deschisă: ce se întâmplă dacă un model AI cauzează un eveniment catastrofal?