Ca și cum apărătorii lanțurilor de aprovizionare cu software nu ar avea destui vectori de atac de care să se îngrijoreze, acum au unul nou: modelele de învățare automată. Modelele ML se află în centrul unor tehnologii precum recunoașterea facială și chatbots. La fel ca depozitele de software open-source, modelele sunt adesea descărcate și partajate de dezvoltatori și cercetători de date, astfel încât un model compromis ar putea avea un impact zdrobitor asupra mai multor organizații simultan.
Cercetătorii de la HiddenLayer, o companie de securitate a limbajului automat, au dezvăluit marți, pe un blog, modul în care un atacator ar putea utiliza un model ML popular pentru a implementa ransomware.
Metoda descrisă de cercetători este similară cu modul în care hackerii folosesc steganografia pentru a ascunde sarcini utile malițioase în imagini. În cazul modelului ML, codul malițios este ascuns în datele modelului.
Zborând sub radar
Încorporarea malware-ului într-un model ML oferă unele beneficii unui adversar, a observat Tom Bonner, director senior de cercetare a amenințărilor adverse la HiddenLayer, cu sediul în Austin, Texas.
"Le permite să zboare sub radar", a declarat Bonner. "Nu este o tehnică care să fie detectată de software-ul antivirus sau EDR actual."
"De asemenea, deschide noi ținte pentru ei", a spus el.
"Este o cale directă către sistemele cercetătorilor de date. Este posibil să subminezi un model de învățare automată găzduit pe un depozit public. Cercetătorii de date îl vor descărca și îl vor încărca, apoi vor fi compromiși.""Aceste modele sunt, de asemenea, descărcate în diverse platforme de operațiuni de învățare automată, ceea ce poate fi destul de înfricoșător, deoarece pot avea acces la Amazon S3 buckets și pot fura datele de instruire", a continuat el.
"Cele mai multe dintre [mașinile] care rulează modele de învățare mecanică au GPU-uri mari și grase în ele, astfel încât minerii de bitcoin ar putea fi foarte eficienți și pe aceste sisteme", a adăugat el.
Avantajul primului venit
Actorilor care reprezintă o amenințare le place adesea să exploateze vulnerabilitățile neașteptate ale noilor tehnologii, a remarcat Chris Clements, vicepreședinte al arhitecturii de soluții la Cerberus Sentinel, o companie de consultanță în domeniul securității cibernetice și de testare a penetrării din Scottsdale, Arizona.
"Atacatorii care caută avantajul de a fi primii în aceste frontiere se pot bucura atât de mai puțină pregătire, cât și de protecție proactivă împotriva exploatării noilor tehnologii, a declarat Clements.
"Acest atac asupra modelelor de limbaj automat pare să fie următorul pas în jocul de-a șoarecele și pisica între atacatori și apărători", a spus el.
Citește și: Greutate si inaltime copii in functie de varsta
Mike Parkin, inginer tehnic senior la Vulcan Cyber, un furnizor de SaaS pentru remedierea riscurilor cibernetice ale întreprinderilor din Tel Aviv, Israel, a subliniat că actorii de amenințări vor folosi orice vector pe care îl pot folosi pentru a-și executa atacurile.
"Acesta este un vector neobișnuit care ar putea să se strecoare pe lângă destul de multe instrumente obișnuite dacă este realizat cu atenție", a declarat Parkin.
Potențial de pagube pe scară largă
Atacurile asupra modelelor de limbaj automat sunt în creștere, a remarcat Karen Crowley, director de soluții de produs la Deep Instinct, o companie de securitate cibernetică de învățare profundă din New York.
"Nu este încă semnificativ, dar potențialul pentru daune pe scară largă există", a declarat Crowley.
"În lanțul de aprovizionare, dacă datele sunt otrăvite astfel încât, atunci când modelele sunt antrenate, sistemul este și el otrăvit, acel model ar putea lua decizii care reduc securitatea în loc să o consolideze", a explicat ea.
"În cazurile Log4j și SolarWinds, am văzut impactul nu doar asupra organizației care deține software-ul, ci și asupra tuturor utilizatorilor săi din acel lanț", a spus ea. "Odată ce ML este introdus, aceste daune s-ar putea multiplica rapid".
Casey Ellis, CTO și fondator al Bugcrowd, care operează o platformă de recompensă pentru bug-uri cu ajutorul mulțimii, a remarcat că atacurile asupra modelelor ML ar putea face parte dintr-o tendință mai largă de atacuri asupra lanțurilor de aprovizionare cu software.
Prostii pentru copii cu scripturi
Este posibil ca actorii de amenințare să manifeste un interes sporit față de modelele automate deoarece acestea sunt mai vulnerabile decât se credea.
"Oamenii au fost conștienți de ceva timp că acest lucru este posibil, dar nu și-au dat seama cât de ușor este", a spus Bonner. "Este destul de banal să înșirui un atac cu câteva scripturi simple".
"Acum că oamenii își dau seama cât de ușor este, este de domeniul script kiddies să reușească", a adăugat el.
Clements a fost de acord că cercetătorii au demonstrat că nu este nevoie de o expertiză de bază în domeniul ML/AI pentru a introduce comenzi malițioase în datele de instruire care pot fi apoi declanșate de modelele ML în timpul execuției.
Citește și: 5 Sfaturi de securitate online pentru a evita sa fii hackuit!
Citește și: Windows 11 avantajele și dezavantajele pentru firme
Citește și: Ghid pentru a alege cele mai potrivite camere de supraveghere în 2022