O imagine falsă care arată o explozie la Pentagon a devenit virală, luni, pe Twitter, provocând o prăbuşire a pieţelor timp de zece minute şi reaprinzând dezbaterea în jurul riscurilor asociate cu inteligenţa artificială, relatează AFP.

Distribuie pe Facebook Distribuie pe X Distribuie pe Email

Fotografia falsă, aparent realizată cu ajutorul unui program de inteligenţă artificială generativă (capabil să producă texte şi imagini pornind de la o simplă întrebare), a obligat Departamentul american al Apărării să reacţioneze. "Putem confirma că este vorba de o informaţie falsă şi că Pentagonul nu a fost atacat astăzi", a declarat un purtător de cuvânt.

Pompierii din zona în care se află clădirea (în Arlington, în apropiere de Washington D.C.) au intervenit, de asemenea, pe Twitter pentru a spune că nu au avut loc explozii sau incidente, nici în Pentagon, nici în apropiere de acesta.

Imaginea a părut să trimită însă pieţele într-o degringoladă pentru câteva minute, S&P 500 pierzând 0,29% din valoare faţă de vineri, înainte de a-şi reveni. "A existat o scădere legată de această informaţie falsă depistată de programe", a confirmat Pat O'Hare de la Briefing.com, referindu-se la softurile automate de tranzacţionare care sunt programate să reacţioneze la postările de pe reţelele sociale. "Dar faptul că a rămas la o reacţie limitată faţă de conţinutul ştirilor false sugerează că şi alţii au considerat că acestea sunt înşelătoare", a declarat el pentru AFP.

Evenimente

31 octombrie - Maratonul de Educație Financiară
5 noiembrie - Gala Profit - Povești cu Profit... Made in Romania
14 noiembrie - Maratonul Agriculturii

Un cont al mişcării conspiraţioniste QAnon a fost printre primele care a transmis imaginea falsă, a cărei sursă nu este cunoscută.

Incidentul survine după ce mai multe fotografii false produse cu ajutorul inteligenţei artificiale generative au fost difuzate pe scară largă pentru a arăta capacităţile acestei tehnologii, cum ar fi cea a arestării fostului preşedinte american Donald Trump sau cea a Papei cu o geacă de puf. Programe precum DALL-E 2, Midjourney şi Stable Diffusion permit amatorilor să creeze imagini false convingătoare fără a fi nevoie să stăpânească programe de editare precum Photoshop. Dar, în timp ce inteligenţa artificială generativă facilitează crearea de conţinuturi false, problema difuzării şi a viralizării acestora - cele mai periculoase componente ale dezinformării - ţine de platforme, reamintesc experţii. "Utilizatorii folosesc aceste instrumente pentru a genera conţinuturi mai eficient decât înainte (...), dar acestea se răspândesc în continuare prin intermediul reţelelor sociale", a subliniat Sam Altman, şeful OpenAI (DALL-E, ChatGPT), în cadrul unei audieri în Congres la jumătatea lunii mai.

viewscnt
Urmărește-ne și pe Google News

Articolul de mai sus este destinat exclusiv informării dumneavoastră personale. Dacă reprezentaţi o instituţie media sau o companie şi doriţi un acord pentru republicarea articolelor noastre, va rugăm să ne trimiteţi un mail pe adresa abonamente@news.ro.