OpenAI a creat un comitet de siguranţă şi securitate condus de directori superiori, după ce şi-a desfiinţat anterior consiliul de supraveghere la jumătatea lunii mai. Compania a anunţat şi că a început să antreneze noul său model de chatbot, transmite CNBC.

Distribuie pe Facebook Distribuie pe Twitter Distribuie pe Email

Noul comitet va recomanda consiliului de administraţie al OpenAI ”decizii critice de siguranţă şi securitate pentru proiectele şi operaţiunile OpenAI”, a spus compania.

Vestea formării noului comitet vine în momentul în care dezvoltatorul asistentului virtual ChatGPT a anunţat că a început să-şi antreneze ”modelul următor de frontieră”.

Evenimente

30 iulie - Maraton Profit News TV - Inteligența Artificială în Economie

Firma a spus într-o postare pe blog că anticipează ”sistemele rezultate pentru a ne aduce la următorul nivel de capabilităţi pe drumul nostru către AGI” sau inteligenţa generală artificială, un tip de AI care este la fel de inteligentă sau mai inteligentă decât oamenii.

Pe lângă Altman, comitetul de siguranţă va fi format din Bret Taylor, Adam D’Angelo şi Nicole Seligman, toţi membri ai consiliului de administraţie al OpenAI, potrivit postării pe blog.

Formarea unei noi echipe de supraveghere vine după ce OpenAI a dizolvat o echipă anterioară care s-a concentrat pe riscurile pe termen lung ale AI.

Înainte de aceasta, ambii lideri de echipă, co-fondatorul OpenAI Ilya Sutskever şi cercetătorul cheie Jan Leike, şi-au anunţat plecările de la startupul susţinut de Microsoft.

Leike a scris la începutul acestei luni că ”cultura şi procesele de siguranţă ale OpenAI au trecut pe planul din spate în faţa produselor strălucitoare”.

Ca răspuns la plecarea sa, Altman a spus pe platforma de socializare X că este trist să-l vadă pe Leike plecând, adăugând că OpenAI are ”mult mai multe de făcut”.

În următoarele 90 de zile, grupul de siguranţă va evalua procesele şi garanţiile OpenAI şi va împărtăşi recomandările sale consiliului de administraţie al companiei, se arată în postarea de pe blog.

OpenAI va oferi o actualizare cu privire la recomandările pe care le-a adoptat la o dată ulterioară. Siguranţa AI a fost în prim-planul unei dezbateri mai ample, deoarece modelele uriaşe care stau la baza aplicaţiilor precum ChatGPT devin mai avansate. Dezvoltatorii de produse AI se întreabă, de asemenea, când va ajunge AGI şi ce riscuri o vor însoţi.

 

viewscnt
Urmărește-ne și pe Google News

Articolul de mai sus este destinat exclusiv informării dumneavoastră personale. Dacă reprezentaţi o instituţie media sau o companie şi doriţi un acord pentru republicarea articolelor noastre, va rugăm să ne trimiteţi un mail pe adresa abonamente@news.ro.