A Google szerdán nyilvánosságra hozott egy jelentést, amelyben öt különböző, mesterséges intelligencia által fejlesztett kártevőt elemzett. Az eredmény egyértelmű: ezek a „gépi alkotások” még messze vannak attól, hogy komoly veszélyt jelentsenek.
A vizsgált minták – PromptLock, FruitShell, PromptFlux, PromptSteal és QuietVault – mindegyike könnyen felismerhető volt még az egyszerűbb vírusvédelmi rendszerek számára is. A Google szerint ezek a kódok nem tartalmaztak új technikákat, hanem korábban is ismert, rutinszerű módszereket alkalmaztak.
A hype mögött nincs valós erő
Az egyik legismertebb minta, a PromptLock, egy akadémiai kutatás része volt. A cél az volt, hogy felmérjék, vajon képes-e egy nagy nyelvi modell (LLM) önállóan megtervezni és végrehajtani egy zsarolóvírus-támadást.
A kutatók azonban gyorsan rájöttek:
„A kód komoly hiányosságokkal küzd – nincs benne kitartás, oldalirányú terjedés vagy fejlett elrejtési technika. Leginkább demonstrációs célra alkalmas.”
Az ESET ugyan korábban „az első AI-alapú ransomwareként” emlegette a PromptLockot, a Google-elemzés alapján inkább laboratóriumi kísérletnek tekinthető, mintsem valós veszélynek.
Szakértők: egyelőre semmi újdonság
A kiberbiztonsági kutató Kevin Beaumont így kommentálta a jelentést:
„Három évvel az AI-láz kezdete után a kártevőfejlesztés még mindig gyerekcipőben jár. Ha ezért fizetnél a hackereknek, most visszakérnéd a pénzed.”
Egy másik, névtelenséget kérő szakértő hozzátette:
„Az AI nem készít félelmetesebb malware-t – csak gyorsabban írja meg ugyanazt a kódot. Nincs benne semmi forradalmi.”
A valóság kontra marketing
Az utóbbi hónapokban több techcég is túlzó kijelentéseket tett az AI-malware veszélyeiről. Az Anthropic például arról számolt be, hogy egy támadó az ő Claude modelljét használta zsarolóprogramok készítéséhez, míg az OpenAI és a ConnectWise szerint az AI „lecsökkenti a belépési küszöböt” a kiberbűnözésben.
A Google viszont leszögezte:
„Nem láttunk bizonyítékot valódi automatizálásra vagy áttörő képességekre.”
Egy trükkös kerülőút: a „white-hat” álca
A jelentés egyetlen érdekesebb esete egy támadó volt, aki a Google Gemini modelljét csapta be, azt állítva, hogy egy „capture-the-flag” versenyen vesz részt, így kikerülte az etikai korlátokat.
A Google azóta megerősítette a védelmi rendszerét, hogy az ilyen manipulációkat kiszűrje.
Összegzés
A jelenlegi AI-malware kísérletek inkább prototípusok, mint fenyegetések. Bár a jövőben a generatív AI valóban képes lehet fejlettebb kártevők készítésére, egyelőre a klasszikus támadási formák – social engineering, adathalászat, ismert exploitok – jelentenek valódi veszélyt.
Az AI lehet, hogy gyorsítja a fejlesztést, de még nem váltotta le az emberi leleményességet – sem a jó, sem a rossz oldalon.













