OpenAI a anunţat lansarea celui mai nou model al său de inteligenţă artificială, capabil ”să gândească în imagini”, adică să înţeleagă şi să analizeze schiţe, diagrame şi alte reprezentări vizuale, chiar şi de calitate scăzută, transmite CNBC.

Distribuie pe Facebook Distribuie pe X Distribuie pe Email

Noul model principal de raţionament se numeşte o3, fiind însoţit de o versiune mai compactă şi rapidă, o4-mini. Lansarea vine după debutul modelului o1 din septembrie anul trecut, axat pe rezolvarea problemelor complexe în mai mulţi paşi.

Cu ajutorul lui o3, utilizatorii pot încărca imagini precum whiteboarduri, schiţe şi diagrame, iar AI-ul poate interpreta şi discuta conţinutul vizual. Modelele pot, de asemenea, să rotească, să mărească sau să editeze imaginile în mod interactiv.

”Pentru prima dată, modelele noastre de raţionament pot folosi independent toate instrumentele ChatGPT – navigare web, Python, înţelegerea şi generarea de imagini”, a transmis OpenAI, precizând că aceste capabilităţi sporesc eficienţa în rezolvarea problemelor complexe şi marchează un pas important spre autonomie AI.

Compania, evaluată recent la 300 de miliarde de dolari, a declarat că o3 şi o4-mini sunt primele sale modele care ”integrează informaţia vizuală direct în lanţul de raţionament”.

Noul model o3 este optimizat în special pentru matematică, programare, ştiinţă şi înţelegerea imaginilor, în timp ce o4-mini oferă performanţe rapide şi costuri reduse.

Ambele modele sunt disponibile începând de miercuri pentru utilizatorii ChatGPT Plus, Pro şi Team.

Lansarea vine în contextul unei concurenţe tot mai strânse în domeniul AI generativ, cu rivali precum Google, Anthropic şi xAI, compania lui Elon Musk.

Totodată, OpenAI a anunţat că modelele o3 şi o4-mini au fost supuse celui mai riguros program de testare a siguranţei de până acum, în cadrul unui nou cadru ”de pregătire” actualizat recent.

Compania a fost criticată în ultima perioadă pentru modificările aduse politicilor sale de siguranţă, inclusiv renunţarea la testele obligatorii pentru unele modele ajustate şi lipsa unui ”model card” pentru GPT-4.1. De asemenea, în februarie, OpenAI a lansat agentul AI Deep Research cu câteva săptămâni înainte de a publica documentaţia aferentă sistemului.

CEO-ul Sam Altman a glumit recent pe reţeaua X pe tema denumirilor neobişnuite ale modelelor AI, promiţând o revizuire a nomenclaturii până în vară: ”Mai aveţi câteva luni să râdeţi de noi — ceea ce chiar merităm.”

 

viewscnt
Urmărește-ne și pe Google News

Articolul de mai sus este destinat exclusiv informării dumneavoastră personale. Dacă reprezentaţi o instituţie media sau o companie şi doriţi un acord pentru republicarea articolelor noastre, va rugăm să ne trimiteţi un mail pe adresa abonamente@news.ro.