A mesterséges intelligencia (AI) fejlődése új dimenziókat nyit meg a kiberbiztonsági támadások terén, az önfejlesztő kártevőktől a társadalomra és gazdaságra is veszélyt jelentő deepfake technológiákig. A Recorded Future friss jelentése szerint a nagy nyelvi modellek (LLM) által hajtott eszközök kihasználhatók olyan kártevők fejlesztésére, amelyek képesek kijátszani a YARA szabályokat.
„A generatív AI felhasználható a string-alapú YARA szabályok kijátszására a kártevő forráskódjának módosításával, jelentősen csökkentve ezzel a detektálási arányokat,” – áll a The Hacker News-szal megosztott jelentésben.
Ez a felfedezés egy vörös csapat által végzett gyakorlat eredményeként született, amelynek célja az AI technológiák rosszindulatú felhasználásának feltárása volt. E technológiákat már kísérleti jelleggel alkalmazzák fenyegetési aktorok, például kártékony kódok részleteinek generálására, phishing e-mailek előállítására, valamint potenciális célpontok felderítésére.
A biztonsági cég egy ismert kártevőt, az APT28 hacking csoport által használt STEELHOOK-ot és annak YARA szabályait nyújtotta be egy LLM-nek, kérve, hogy módosítsa a forráskódot úgy, hogy az eredeti funkcionalitás megmaradjon, a generált forráskód pedig szintaktikailag hibamentes legyen.
E visszajelzési mechanizmus segítségével az LLM által módosított kártevő képes volt elkerülni a string-alapú YARA szabályok általi detektálást.
A módszernek azonban vannak korlátai, leginkább az, hogy a modell egyszerre mennyi szöveget képes feldolgozni, ami megnehezíti a nagyobb kódbázisokon való működést.
Az AI eszközök nem csupán a kártevők észrevétlen módosítására használhatók, hanem deepfake technológiák létrehozására is, amelyek magas rangú vezetőket és döntéshozókat utánoznak, vagy olyan befolyásoló műveleteket hajtanak végre, amelyek hiteles weboldalakat másolnak nagy méretekben.
A generatív AI várhatóan felgyorsítja a fenyegetési aktorok képességét, hogy felderítsenek létfontosságú infrastruktúrákat és olyan információkat szerezzenek, amelyek stratégiai jelentőséggel bírhatnak további támadások során.
„A multimodális modellek segítségével a nyilvános képek és videók, beleértve a légifelvételeket is, feldolgozhatók és gazdagíthatók további metaadatokkal, mint a geolokáció, a berendezések gyártói, modellek és a szoftververziók,” – mondta a cég.
Valóban, a Microsoft és az OpenAI nemrég figyelmeztetett, hogy az APT28 LLM-eket használt „a műholdkommunikációs protokollok, a radar képalkotó technológiák és specifikus technikai paraméterek” megértésére, ami arra utal, hogy „mélyreható ismereteket akarnak szerezni a műholdképességekről.”
Ajánlott, hogy a szervezetek alaposan vizsgálják meg a nyilvánosan elérhető képeket és videókat, amelyek érzékeny berendezéseket ábrázolnak, és szükség esetén töröljék őket, hogy csökkentsék az ilyen fenyegetések által jelentett kockázatokat.
E fejlemények fényében egy tudósokból álló csoport megállapította, hogy lehetséges az LLM-eket “feltörni” és káros tartalmat előállítani azáltal, hogy bemenetként ASCII művészet formájában adnak meg kéréseket (pl. „hogyan készítsünk bombát”, ahol a BOMB szót “*” karakterekkel és szóközökkel írják).
E gyakorlati támadás, az ArtPrompt nevet kapta, és az LLM-ek ASCII művészet felismerésében mutatott gyenge teljesítményét használja ki a biztonsági intézkedések megkerülésére és a modellek nem kívánt viselkedésének előidézésére.
Forrás:
thehackernews.com