Hackerii şi propagandiştii folosesc inteligenţa artificială (AI) pentru a crea software rău intenţionat, pentru a redacta e-mailuri convingătoare de phishing şi pentru a răspândi dezinformarea online, a declarat pentru Reuters principalul oficial pentru securitate cibernetică din Canada, acestea fiind dovezi timpurii că revoluţia tehnologică care a cuprins Silicon Valley a fost adoptată şi de infractorii cibernetici.
Într-un interviu din această săptămână, şeful Centrului Canadian pentru Securitate Cibernetică, Sami Khoury, a declarat că agenţia sa a văzut că AI este folosită ”în e-mailuri de phishing sau în crearea de e-mailuri într-un mod mai concentrat, în coduri rău intenţionate (şi) în dezinformare şi dezinformare”.
Khoury nu a oferit detalii sau dovezi, dar afirmaţia sa conform căreia infractorii cibernetici foloseau deja inteligenţa artificială adaugă o notă urgentă la corul de îngrijorări cu privire la utilizarea tehnologiei emergente de către actori necinstiţi.
5 noiembrie - Gala Profit - Povești cu Profit... Made in Romania
14 noiembrie - Maratonul Agriculturii
În ultimele luni, mai multe grupuri de supraveghere cibernetică au publicat rapoarte care avertizează cu privire la riscurile ipotetice ale inteligenţei artificiale - în special programele de procesare a limbajului care progresează rapid, cunoscute sub numele de modele de limbaj mari (LLM), care se bazează pe volume uriaşe de text pentru a crea dialoguri, documente şi multe altele.
În martie, organizaţia europeană de poliţie Europol a publicat un raport în care spunea că modele precum ChatGPT al OpenAI au făcut posibilă ”uzurparea identităţii unei organizaţii sau a unui individ într-o manieră extrem de realistă, chiar şi cu o înţelegere de bază a limbii engleze”.
În aceeaşi lună, Centrul Naţional de Securitate Cibernetică din Marea Britanie a declarat într-o postare pe blog că există riscul că infractorii ”ar putea folosi LLM-uri pentru a ajuta la atacurile cibernetice dincolo de capacităţile lor actuale”.
Cercetătorii în domeniul securităţii cibernetice au demonstrat o varietate de cazuri de utilizare potenţial rău intenţionate şi unii spun acum că încep să vadă conţinut suspect generat de AI în sălbăticie.
Săptămâna trecută, un fost hacker a spus că a descoperit un LLM instruit pe materiale rău intenţionate şi i-a cerut să elaboreze o încercare convingătoare de a păcăli pe cineva să facă un transfer de numerar.
LLM a răspuns printr-un e-mail de trei paragrafe prin care a solicitat ajutor cu o factură urgentă.
”Înţeleg că poate fi un preaviz scurt”, a spus LLM, ”dar această plată este incredibil de importantă şi trebuie făcută în următoarele 24 de ore”.
Khoury a spus că, în timp ce utilizarea AI pentru a elabora coduri rău intenţionate era încă în fazele sale incipiente – ”mai este un drum de parcurs, deoarece este nevoie de mult pentru a scrie o exploatare bună” - îngrijorarea a fost că modelele AI evoluează atât de repede încât era dificil să se ocupe de potenţialul lor rău intenţionat înainte de a fi pusă la dispoziţia publicului.
Articolul de mai sus este destinat exclusiv informării dumneavoastră personale. Dacă reprezentaţi o instituţie media sau o companie şi doriţi un acord pentru republicarea articolelor noastre, va rugăm să ne trimiteţi un mail pe adresa abonamente@news.ro.