Instrumentele de AI, precum ChatGPT, sunt folosite de hackeri pentru a-şi îmbunătăţi atacurile cibernetice, avertizează chiar OpenAI şi Microsoft.
Microsoft şi OpenAI au lansat un avertisment comun cu privire faptul că hackerii folosesc deja modele lingvistice pentru a-şi consolida tacticile.
Avertizări asupra acestei posibilităţi au fost emise şi până acum de diverse alte entităţi, însă cele două companii americane vin şi cu dovezi.
28 noiembrie - Profit Financial.Forum
Acestea spun că grupuri de hackeri chinezi, ruşi, iranieni şi nord coreeni folosesc deja instrumente precum ChatGPT pentru a crea scripturi mai bune şi a-şi îmbunătăţi tehnicile sociale.
Acestea din urmă sunt folosite pentru a crea campanii de phishing mai convingătoare, în urma cărora utilizatorii sunt păcăliţi mai uşor să ofere informaţii personale.
Există şi situaţii cu implicaţii militare. De exemplu, Stontium, un grup de hackeri susţinut de spionajul rus, a folosit AI-ul pentru a descifra protocolul de comunicaţii al sateliţilor, informaţiile radarelor şi diverşi alţi parametrii tehnici sensibili
Avertismentul celor două companii vine în condiţiile în care propriile instrumente de AI, ChatGPT şi Copilot, pot fi folosite de hackeri în atacuri.
Articolul de mai sus este destinat exclusiv informării dumneavoastră personale. Dacă reprezentaţi o instituţie media sau o companie şi doriţi un acord pentru republicarea articolelor noastre, va rugăm să ne trimiteţi un mail pe adresa abonamente@news.ro.