Instrumentele de AI, precum ChatGPT, sunt folosite de hackeri pentru a-şi îmbunătăţi atacurile cibernetice, avertizează chiar OpenAI şi Microsoft.

Distribuie pe Facebook Distribuie pe X Distribuie pe Email

Microsoft şi OpenAI au lansat un avertisment comun cu privire faptul că hackerii folosesc deja modele lingvistice pentru a-şi consolida tacticile.

Avertizări asupra acestei posibilităţi au fost emise şi până acum de diverse alte entităţi, însă cele două companii americane vin şi cu dovezi.

Evenimente

28 noiembrie - Profit Financial.Forum

Acestea spun că grupuri de hackeri chinezi, ruşi, iranieni şi nord coreeni folosesc deja instrumente precum ChatGPT pentru a crea scripturi mai bune şi a-şi îmbunătăţi tehnicile sociale.

Acestea din urmă sunt folosite pentru a crea campanii de phishing mai convingătoare, în urma cărora utilizatorii sunt păcăliţi mai uşor să ofere informaţii personale.

Există şi situaţii cu implicaţii militare. De exemplu, Stontium, un grup de hackeri susţinut de spionajul rus, a folosit AI-ul pentru a descifra protocolul de comunicaţii al sateliţilor, informaţiile radarelor şi diverşi alţi parametrii tehnici sensibili

Avertismentul celor două companii vine în condiţiile în care propriile instrumente de AI, ChatGPT şi Copilot, pot fi folosite de hackeri în atacuri.

viewscnt
Urmărește-ne și pe Google News

Articolul de mai sus este destinat exclusiv informării dumneavoastră personale. Dacă reprezentaţi o instituţie media sau o companie şi doriţi un acord pentru republicarea articolelor noastre, va rugăm să ne trimiteţi un mail pe adresa abonamente@news.ro.