A mesterséges intelligencia (AI) fejlődése új dimenziókat nyit meg a kiberbiztonsági támadások terén, az önfejlesztő kártevőktől a társadalomra és gazdaságra is veszélyt jelentő deepfake technológiákig. A Recorded Future friss jelentése szerint a nagy nyelvi modellek (LLM) által hajtott eszközök kihasználhatók olyan kártevők fejlesztésére, amelyek képesek kijátszani a YARA szabályokat.
„A generatív AI felhasználható a string-alapú YARA szabályok kijátszására a kártevő forráskódjának módosításával, jelentősen csökkentve ezzel a detektálási arányokat,” – áll a The Hacker News-szal megosztott jelentésben.
Ez a felfedezés egy vörös csapat által végzett gyakorlat eredményeként született, amelynek célja az AI technológiák rosszindulatú felhasználásának feltárása volt. E technológiákat már kísérleti jelleggel alkalmazzák fenyegetési aktorok, például kártékony kódok részleteinek generálására, phishing e-mailek előállítására, valamint potenciális célpontok felderítésére.
A biztonsági cég egy ismert kártevőt, az APT28 hacking csoport által használt STEELHOOK-ot és annak YARA szabályait nyújtotta be egy LLM-nek, kérve, hogy módosítsa a forráskódot úgy, hogy az eredeti funkcionalitás megmaradjon, a generált forráskód pedig szintaktikailag hibamentes legyen.
E visszajelzési mechanizmus segítségével az LLM által módosított kártevő képes volt elkerülni a string-alapú YARA szabályok általi detektálást.
A módszernek azonban vannak korlátai, leginkább az, hogy a modell egyszerre mennyi szöveget képes feldolgozni, ami megnehezíti a nagyobb kódbázisokon való működést.
Az AI eszközök nem csupán a kártevők észrevétlen módosítására használhatók, hanem deepfake technológiák létrehozására is, amelyek magas rangú vezetőket és döntéshozókat utánoznak, vagy olyan befolyásoló műveleteket hajtanak végre, amelyek hiteles weboldalakat másolnak nagy méretekben.
A generatív AI várhatóan felgyorsítja a fenyegetési aktorok képességét, hogy felderítsenek létfontosságú infrastruktúrákat és olyan információkat szerezzenek, amelyek stratégiai jelentőséggel bírhatnak további támadások során.
„A multimodális modellek segítségével a nyilvános képek és videók, beleértve a légifelvételeket is, feldolgozhatók és gazdagíthatók további metaadatokkal, mint a geolokáció, a berendezések gyártói, modellek és a szoftververziók,” – mondta a cég.
Valóban, a Microsoft és az OpenAI nemrég figyelmeztetett, hogy az APT28 LLM-eket használt „a műholdkommunikációs protokollok, a radar képalkotó technológiák és specifikus technikai paraméterek” megértésére, ami arra utal, hogy „mélyreható ismereteket akarnak szerezni a műholdképességekről.”
Ajánlott, hogy a szervezetek alaposan vizsgálják meg a nyilvánosan elérhető képeket és videókat, amelyek érzékeny berendezéseket ábrázolnak, és szükség esetén töröljék őket, hogy csökkentsék az ilyen fenyegetések által jelentett kockázatokat.
E fejlemények fényében egy tudósokból álló csoport megállapította, hogy lehetséges az LLM-eket “feltörni” és káros tartalmat előállítani azáltal, hogy bemenetként ASCII művészet formájában adnak meg kéréseket (pl. „hogyan készítsünk bombát”, ahol a BOMB szót “*” karakterekkel és szóközökkel írják).
E gyakorlati támadás, az ArtPrompt nevet kapta, és az LLM-ek ASCII művészet felismerésében mutatott gyenge teljesítményét használja ki a biztonsági intézkedések megkerülésére és a modellek nem kívánt viselkedésének előidézésére.
Forrás: thehackernews.com
Ami a netre felkerül, ott marad ugyan, de senki sem találja meg.
A Google lehetővé tette a mezei felhasználók számára is, hogy a számukra előnytelen fotókat, adatokat törölhessük a keresési találatai közül. Erre a keresőóriás egy online felületet bocsátott a magánszemélyek rendelkezésére, ahol kezdeményezhetjük személyes adataink törlését.
A Google nem kívánja a valóságot elferdíteni a keresési eredmények törlésével, hanem igazán a kompromittáló, szexuális jellegű tartalmak eltávolítására törekszik.
Hat kategóriányi találatot törölhetünk
Így a hat kategória között szerepel az intim, személyes képek vagy nem beleegyezésen alapuló, explicit képek törlése. Ugyancsak töröli a kiskorúakról szóló fotókat és azt is, ha az adott személy nevének megkeresése után irreleváns pornográf tartalom bukkanna fel.
Külön lehet kérni a deepfake pornográf tartalmak törlését is. A mesterséges intelligencia segítségével ugyanis manapság olyan hamis pornográf felvételeket lehet generálni, ahol a színészeket ismert emberek arcával helyettesítik. Az eredmény pedig valósághű felvétel, amit deepfake tartalomnak neveznek.
Megvizsgálják a törlési kéréseket
Az emberek azt is kérhetik, hogy a személyes azonosító adatokat is törölje a szolgáltató: sok esetben adatszivárgás esetében a személyes adatok – név, lakcím, bankkártya adatok, útlevél száma – kikerülhet az internetre.
A kérés benyújtása után a Google egy automatikus igazoló levelet küld. Ezután a kérést belsőleg megvizsgálják, hogy az adott információ – melynek törlését kérik a keresési találatokból – közérdeket szolgál-e vagy van hírértéke. Ezután a szolgáltató további adatokat kérhet, hogy eldönthesse, utat ad a törlési kérésnek vagy sem.