• Szolgáltatásaink:
    • Adattörlés
    • Adathordozó megsemmisítés
    • Rollout (IT eszközök felvásárlása)
Jogszabályi környezet Kapcsolat Blog
A mesterséges intelligencia (AI) fejlődése új dimenziókat nyit meg a kiberbiztonsági támadások terén, az önfejlesztő kártevőktől a társadalomra és gazdaságra is veszélyt jelentő deepfake technológiákig. A Recorded Future friss jelentése szerint a nagy nyelvi modellek (LLM) által hajtott eszközök kihasználhatók olyan kártevők fejlesztésére, amelyek képesek kijátszani a YARA szabályokat. „A generatív AI felhasználható a string-alapú YARA szabályok kijátszására a kártevő forráskódjának módosításával, jelentősen csökkentve ezzel a detektálási arányokat,” – áll a The Hacker News-szal megosztott jelentésben. Ez a felfedezés egy vörös csapat által végzett gyakorlat eredményeként született, amelynek célja az AI technológiák rosszindulatú felhasználásának feltárása volt. E technológiákat már kísérleti jelleggel alkalmazzák fenyegetési aktorok, például kártékony kódok részleteinek generálására, phishing e-mailek előállítására, valamint potenciális célpontok felderítésére. A biztonsági cég egy ismert kártevőt, az APT28 hacking csoport által használt STEELHOOK-ot és annak YARA szabályait nyújtotta be egy LLM-nek, kérve, hogy módosítsa a forráskódot úgy, hogy az eredeti funkcionalitás megmaradjon, a generált forráskód pedig szintaktikailag hibamentes legyen. E visszajelzési mechanizmus segítségével az LLM által módosított kártevő képes volt elkerülni a string-alapú YARA szabályok általi detektálást. A módszernek azonban vannak korlátai, leginkább az, hogy a modell egyszerre mennyi szöveget képes feldolgozni, ami megnehezíti a nagyobb kódbázisokon való működést. Az AI eszközök nem csupán a kártevők észrevétlen módosítására használhatók, hanem deepfake technológiák létrehozására is, amelyek magas rangú vezetőket és döntéshozókat utánoznak, vagy olyan befolyásoló műveleteket hajtanak végre, amelyek hiteles weboldalakat másolnak nagy méretekben. A generatív AI várhatóan felgyorsítja a fenyegetési aktorok képességét, hogy felderítsenek létfontosságú infrastruktúrákat és olyan információkat szerezzenek, amelyek stratégiai jelentőséggel bírhatnak további támadások során. „A multimodális modellek segítségével a nyilvános képek és videók, beleértve a légifelvételeket is, feldolgozhatók és gazdagíthatók további metaadatokkal, mint a geolokáció, a berendezések gyártói, modellek és a szoftververziók,” – mondta a cég. Valóban, a Microsoft és az OpenAI nemrég figyelmeztetett, hogy az APT28 LLM-eket használt „a műholdkommunikációs protokollok, a radar képalkotó technológiák és specifikus technikai paraméterek” megértésére, ami arra utal, hogy „mélyreható ismereteket akarnak szerezni a műholdképességekről.” Ajánlott, hogy a szervezetek alaposan vizsgálják meg a nyilvánosan elérhető képeket és videókat, amelyek érzékeny berendezéseket ábrázolnak, és szükség esetén töröljék őket, hogy csökkentsék az ilyen fenyegetések által jelentett kockázatokat. E fejlemények fényében egy tudósokból álló csoport megállapította, hogy lehetséges az LLM-eket “feltörni” és káros tartalmat előállítani azáltal, hogy bemenetként ASCII művészet formájában adnak meg kéréseket (pl. „hogyan készítsünk bombát”, ahol a BOMB szót “*” karakterekkel és szóközökkel írják). E gyakorlati támadás, az ArtPrompt nevet kapta, és az LLM-ek ASCII művészet felismerésében mutatott gyenge teljesítményét használja ki a biztonsági intézkedések megkerülésére és a modellek nem kívánt viselkedésének előidézésére. Forrás: thehackernews.com

Telephely: 1111 Budapest, Krusper utca 3.

Telefon: +36 30 488 8222

Email: info@dataclear.hu

2021 Dataclear Service Kft. Biztonságos adatmegsemmisítés - Adattorlés - Használt Informatikai eszközök felvásárlása - Adatvagyon femérése