Sve je lakše postati kibernetičkim kriminalcem, potvrđuje to novo otkriće sigurnosnog odjela HP-a, koje pokazuje kako je u malicioznom programskom kodu pronađen “trag” umjetne inteligencije
Pojava novog soja trojanskog malicioznog programa AsyncRAT, korištenoga u jednoj nedavnoj hakerskoj kampanji u Francuskoj, potaknula je istraživače na analizu te prijetnje. Iz sigurnosnog odjela HP-a, HP Wolf Security, u detalje su proučili programski kod kojim se napadalo računala te na njih instaliralo program koji je mogao napadaču omogućiti pristup na daljinu. No, takvi napadi nisu nepoznanica, pa je istraživačima pozornost privukao jedan novi detalj.
LLM za pomoć hakerima
Naime, u samom programskom kodu ovog virusa, nakon što su uspjeli probiti njegovu zaštitu i raspakirati njegove arhivske .zip datoteke, pronašli su naznake ChatGPT-a ili nekog sličnog sustava za pomoć pri programiranju. Unutar cijelog programskog koda nalazili su se uredno postavljeni komentari, što je dobra praksa kod redovnog programiranja – međutim, oni koji pišu maliciozne programe to ne čine kako ne bi ostavili previše svojih tragova. Povrh toga, imenovanje funkcija i varijabli u snažnoj je korelaciji s imenima koja redovito daju GenAI alati.
Činjenica, dakle, da je programski kod ovoga trojanca bio ispravno popunjen komentarima navodi istraživače na zaključak da ga je pomogao napisati neki od dostupnih jezičnih modela, koji su naučeni pisati i komentare. Iz toga oni zaključuju da je maliciozni program izradio netko ne pretjerano vičan programiranju, pa se pritom poslužio umjetno inteligentnim chatbotom – pokazujući zapravo da su veliki jezični modeli snizili ulazne barijere ne samo za programiranje, već i za postati kibernetičkim kriminalcem.