Instrumente precum ChatGPT sunt deja folosite de hackeri pentru a crea mai repede software-ul de care au nevoie pentru atacuri, se arată într-o informare făcută de FBI.

Distribuie pe Facebook Distribuie pe X Distribuie pe Email

FBI avertizează că soluţiile de inteligenţă artificială generativă sunt deja folosite de hackeri pentru a-şi uşura procesul de creare a malware-ului pe care apoi îl folosesc în cadrul campaniilor de hacking derulate.

Aceste soluţii, precum ChatGPT şi altele similare, uşurează sarcina hackerilor, ajutându-i să pună la punct software-ul de care au nevoie mai repede şi mai uşor decât o făceau până acum.

Evenimente

28 noiembrie - Profit Financial.Forum

Asta poate duce la o creştere a numărului şi a gravităţii atacurilor derulate de hackeri, precum campaniile ransomware, prin care sunt criptate informaţiile companiilor şi cerută o recompensă financiară pentru redobândirea accesului.

Avertizarea FBI nu este neapărat o noutate, ci, mai degrabă, o întărire a avertismentelor lansate deja de unii specialişti. În luna februarie, Checkpoint anunţa că hackerii au reuşit să modifice API-ul unui chatbot, pentru a elimina protecţiile impuse de producător şi a-l putea folosi pentru a genera malware.

Există şi experţi care cred că ameninţarea nu este aşa mare. Aceştia spun că majoritatea hackerilor nu au cunoştinţele necesare pentru a dezactiva protecţiile chatboţilor şi că, oricum, calitatea codului produs de aceştia tinde să fie slabă.

Chiar şi aşa, există toate indiciile care să îngrijoreze agenţiile de securitate şi companiile mari, care sunt, de obicei, targetate cu ransomware de hackeri. AI-ul poate automatiza şi grăbi procesul de creare al malware-ului, la fel cum poate ajuta programatorii să scrie cod.

viewscnt
Urmărește-ne și pe Google News

Articolul de mai sus este destinat exclusiv informării dumneavoastră personale. Dacă reprezentaţi o instituţie media sau o companie şi doriţi un acord pentru republicarea articolelor noastre, va rugăm să ne trimiteţi un mail pe adresa abonamente@news.ro.