Patru experţi în inteligenţă artificială şi-au exprimat îngrijorarea, după ce munca lor a fost menţionată într-o scrisoare deschisă, semnată de Elon Musk şi alte personalităţi, care cer o pauză urgentă a cercetărilor în acest domeniu, din cauza riscurilor pentru umanitate pe care le implică, transmite Reuters.
Scrisoarea, datată 22 martie şi care a fost semnată de peste 1.800 de persoane până vineri, cere o întrerupere de şase luni a dezvoltării de sisteme ”mai puternice” decât noul GPT-4 al OpenAI, susţinut de Microsoft, care poate purta o conversaţie umană, compune cântece şi să efectueze rezumate ale unor documente lungi.
De când predecesorul GPT-4, ChatGPT, a fost lansat anul trecut, companiile rivale s-au grăbit să lanseze produse similare.
5 noiembrie - Gala Profit - Povești cu Profit... Made in Romania
14 noiembrie - Maratonul Agriculturii
Scrisoarea deschisă spune că sistemele AI cu ”inteligenţă umană competitivă” prezintă riscuri profunde pentru umanitate, citând 12 cercetări ale unor experţi, inclusiv cadre universitare, precum şi actuali şi foşti angajaţi ai OpenAI, Google şi ai subsidiarei sale DeepMind.
Grupuri ale societăţii civile din SUA şi UE au exercitat presiuni de atunci asupra parlamentarilor, să frâneze cercetările OpenAI.
OpenAI nu a răspuns imediat solicitărilor de comentarii.
Criticii au acuzat Institutul Viitorul Vieţii (FLI), organizaţia din spatele scrisorii, finanţată în principal de Fundaţia Musk, că acordă prioritate scenariilor apocaliptice imaginate, faţă de preocupările mai imediate legate de inteligenţa artificială, cum ar fi prejudecăţile rasiste sau sexiste care sunt programate în maşini.
Printre cercetările citate s-a numărat ”On the Dangers of Stochastic Parrots”, o lucrare binecunoscută, în colaborare cu Margaret Mitchell, care a supravegheat anterior cercetările etice AI la Google.
Mitchell, acum om de ştiinţă etic la firma de inteligenţă artificială Hugging Face, a criticat scrisoarea, spunând Reuters că nu este clar ce este considerat ”mai puternic decât GPT4”.
”Tratând o mulţime de idei îndoielnice ca fiind un dat, scrisoarea afirmă un set de priorităţi şi o naraţiune despre AI care este în beneficiul susţinătorilor FLI. Ignorarea daunelor active chiar acum este un privilegiu pe care unii dintre noi nu îl avem”, a spus ea.
Coautorii ei, Timnit Gebru şi Emily M. Bender, au criticat scrisoarea pe Twitter, Bender descriind unele dintre afirmaţiile sale ca fiind ”dezlănţuite”.
Preşedintele FLI, Max Tegmark, a declarat pentru Reuters că campania nu a fost o încercare de a împiedica avantajul corporativ al OpenAI.
"Este destul de hilar. Am văzut oameni spunând: 'Elon Musk încearcă să încetinească competiţia. Nu este vorba despre o singură companie", a spus el, adăugând că Musk nu a avut niciun rol în redactarea scrisorii.
Shiri Dori-Hacohen, profesor asistent la Universitatea din Connecticut, a fost, de asemenea, deranjată că munca ei este menţionată în scrisoare.
Anul trecut, ea a fost coautoare a unei lucrări de cercetare în care susţine că utilizarea pe scară largă a inteligenţei artificiale prezintă deja riscuri serioase.
Cercetarea ei a susţinut că utilizarea actuală a sistemelor AI ar putea influenţa luarea deciziilor în legătură cu schimbările climatice, războiul nuclear şi alte ameninţări existenţiale.
Ea a declarat pentru Reuters: ”AI nu trebuie să atingă inteligenţa la nivel uman pentru a exacerba aceste riscuri”. „Există riscuri nonexistenţiale care sunt, cu adevărat, foarte importante, dar care nu primesc acelaşi fel de atenţie la nivel de Hollywood”.
Solicitat să comenteze criticile, Tegmark a spus că atât riscurile pe termen scurt, cât şi pe termen lung ale IA ar trebui luate în serios.
"Dacă cităm pe cineva, înseamnă doar că pretindem că aprobă acea propoziţie. Nu înseamnă că aprobă scrisoarea sau că noi susţinem tot ceea ce cred ei", a spus el pentru Reuters.
Dan Hendrycks, directorul Centrului pentru Siguranţă AI din California, care a fost şi el menţionat în scrisoare, a susţinut conţinutul acesteia, spunând că este rezonabil să ia în considerare evenimentele de lebădă neagră - cele care par puţin probabile, dar care ar avea consecinţe devastatoare.
Scrisoarea deschisă a avertizat, de asemenea, că instrumentele AI generative ar putea fi folosite pentru a inunda internetul cu ”propaganda şi neadevăr”.
Articolul de mai sus este destinat exclusiv informării dumneavoastră personale. Dacă reprezentaţi o instituţie media sau o companie şi doriţi un acord pentru republicarea articolelor noastre, va rugăm să ne trimiteţi un mail pe adresa abonamente@news.ro.