Cyber Signals, 6. szám
Minden nap több mint 2,5 milliárd felhőalapú, mesterséges intelligencia által segített észlelés szolgálja a Microsoft ügyfeleinek védelmét.
Minden nap több mint 2,5 milliárd felhőalapú, mesterséges intelligencia által segített észlelés szolgálja a Microsoft ügyfeleinek védelmét.
Napjainkban a kiberbiztonság világa jelentős átalakuláson megy keresztül. A mesterséges intelligencia vezető szerepet tölt be ebben az átalakulásban, egyszerre fenyegetést és lehetőséget is megtestesítve. Míg egyrészt lehetővé teheti a szervezetek számára, hogy gépi sebességgel állják útját a kibertámadásoknak, és elősegítheti az innovációt és a hatékonyság növelését a fenyegetések észlelése terén, addig az ellenségek felhasználhatják a mesterséges intelligenciát a cselekményeik részeként. Soha nem volt még fontosabb, hogy biztonságosan tervezzük meg, helyezzük üzembe és használjuk a mesterséges intelligenciát.
A Microsoftnál igyekszünk felderíteni a mesterséges intelligenciában rejlő lehetőségeket, hogy javíthassuk biztonsági intézkedéseinket, új és korszerű védelmi módszereket dolgozhassunk ki, és jobb szoftvereket készíthessünk. A mesterséges intelligencia segítségével alkalmazkodni tudunk a fejlődő fenyegetésekhez, azonnal észlelhetjük az anomáliákat, gyors reagálással semlegesíthetjük a kockázatokat, és az egyes szervezetek igényeire szabhatjuk a védelmet.
A mesterséges intelligencia abban is a segítségünkre lehet, hogy leküzdjük az iparág előtt álló másik jelentős kihívást. A kiberbiztonság terén mutatkozó globális szakemberhiány közepette – világszerte körülbelül 4 millió kiberbiztonsági szakemberre lenne szükség – a mesterséges intelligencia lehet az a döntő eszköz, amely lehetővé teheti a hatékonyabb védekezői munkát és ezáltal a szakemberhiány hatásainak mérséklését.
Egy tanulmány már megmutatta, hogy a Microsoft Security Copilot hogyan segítheti a biztonsági elemzőket a szaktudásuk szintjétől függetlenül: a résztvevők az összes feladatot tekintve 44%-kal pontosabbak és 26%-kal gyorsabbak voltak.
Miközben a jövő biztonságán dolgozunk, ügyelnünk kell arra is, hogy egyensúlyba hozzuk a mesterséges intelligenciára való biztonságos felkészülést és az AI előnyeinek kiaknázását, mert az AI alkalmas az emberi képességek kibontakoztatására és az előttünk álló legkomolyabb kihívások leküzdésére.
Ahhoz, hogy biztonságosabb legyen a jövőnk a mesterséges intelligenciával, alapvető előrelépés szükséges a szoftvertervezés és -fejlesztés terén. Bármilyen biztonsági stratégia kialakításához alapvető fontosságú, hogy megértsük a mesterséges intelligenciával támogatott fenyegetéseket, és hatékony védelmet építsünk ki ellenük. És a rosszindulatú szereplők elleni harchoz együtt kell munkálkodnunk azon, hogy mély együttműködést és partneri kapcsolatokat alakítsunk ki az állami és a privát szektor között.
Ennek az erőfeszítésnek és a saját Secure Future kezdeményezésünknek a részeként az OpenAI és a Microsoft ma olyan új hírszerzési információkat tesz közzé, amelyek részletesen ismertetik a fenyegető szereplők arra irányuló törekvéseit, hogy teszteljék és megvizsgálják a nagy nyelvi modellek (LLM-ek) támadási technikákban való hasznosságát.
Reméljük, hogy ezek az információk minden iparág számára hasznosak lesznek, hisz mind egy biztonságosabb jövőért dolgozunk. Mert végső soron mindannyian védekezők vagyunk.
Tekintse meg a Cyber Signals digitális összefoglalóját, amelyben Vasu Jakkal, a Microsoft biztonsági üzletágának vállalati alelnöke az intelligens veszélyforrás-felderítés vezető szakértőivel beszélget arról, hogy milyen kiberfenyegetésekkel találkozunk a mesterséges intelligencia korában, hogyan használja a Microsoft a mesterséges intelligenciát a biztonság fokozására, és mit tehetnek a szervezetek a védelmük megerősítése érdekében.
A kiberfenyegetések világa egyre nagyobb kihívást jelent, ahogy a támadók egyre motiváltabbá és kifinomultabbá válnak, és egyre több erőforrással rendelkeznek. A fenyegető szereplők és a védekezők egyaránt a mesterséges intelligencia felé kacsintgatnak – ideértve a nagy nyelvi modelleket (LLM) is –, hogy növelhessék a hatékonyságukat, és kihasználhassák azokat az elérhető platformokat, amelyek megfelelhetnek a célkitűzéseiknek és a támadási technikáiknak.
Tekintettel a gyorsan fejlődő fenyegetési környezetre, ma bejelentjük a Microsoft alapelveit, amelyek mentén lépéseket teszünk, hogy mérsékeljük a mesterséges intelligenciával támogatott platformok és API-k fenyegető szereplők – egyebek között folyamatos komplex veszélyforrások (APT-k), folyamatos komplex manipulátorok (APM-ek) és kiberbűnözői szindikátusok – általi használatából fakadó kockázatot. Ezen alapelvek közé tartozik a mesterséges intelligencia rosszindulatú fenyegető szereplők általi használatának azonosítása és az ellenintézkedések megtétele, más AI-szolgáltatók értesítése, az együttműködés más érdekelt felekkel és az átláthatóság.
Bár a fenyegető szereplők indítékai változatosak lehetnek, és a kifinomultságuk és eltérő, a támadások kibontakoztatásakor hasonló feladatokat kell elvégezniük. Ezek közé tartozik a felderítés, azaz a potenciális áldozatok iparágának, földrajzi elhelyezkedésének és kapcsolatainak vizsgálata, továbbá a kódolás, beleértve a szoftverszkriptek tökéletesítését és a kártevő szoftverek kifejlesztését, illetve a segítségnyújtás az emberi és gépi nyelvek megtanulásához és használatához.
Az OpenAI közreműködésével megosztunk olyan intelligens veszélyforrás-felderítési információkat, amelyek bemutatják, hogy államokhoz kötődő észlelt ellenségek – a Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon és Salmon Typhoon néven nyilvántartott szereplők – nagy nyelvi modelleket (LLM) használnak a kibertevékenységük fokozásához.
A Microsoft és az OpenAI kutatási együttműködésének célja annak biztosítása, hogy a mesterséges intelligenciára épülő technológiákat – például a ChatGPT-t – biztonságosan és felelősen használják, betartva az etikus alkalmazásra vonatkozó legmagasabb normákat, hogy így védjük a közösséget az esetleges visszaélésektől.
A Forest Blizzard (STRONTIUM) egy kimagaslóan hatékony orosz katonai hírszerzési szereplő, amely az orosz fegyveres erők vezérkarának főigazgatóságához vagy a GRU 26165-ös egységéhez kapcsolódik, és az orosz kormányzat számára taktikai vagy stratégiai szempontból érdekes áldozatokat vett célba. A tevékenységei számos szektorra kiterjednek, beleértve a védelmi, szállítási/logisztikai, energetikai és informatikai iparágat, a kormányzatokat és a nem kormányzati szervezeteket (civil szervezeteket).
Az Emerald Sleet (Velvet Chollima) egy észak-koreai fenyegető szereplő, amelyről a Microsoft megállapította, hogy neves tudományos intézményeknek és civil szervezeteknek adja ki magát, hogy szakértői meglátásokkal és Észak-Korea külpolitikájával kapcsolatos kommentárokkal csábítsa válaszadásra az áldozatokat.
Az Emerald Sleet egyebek között arra használt nagy nyelvi modelleket, hogy vizsgálja Észak-Koreával foglalkozó kutatóintézetek és szakértők tevékenységét, valamint hogy olyan tartalmakat generáljon, amelyeket valószínűleg célzott adathalászati kampányokban használnak fel. Az Emerald Sleet emellett a nyilvánosan ismert sebezhetőségek megértéséhez, technikai problémák elhárításához és különféle webes technológiák használatával kapcsolatos segítségnyújtáshoz is alkalmazott nagy nyelvi modelleket.
A Crimson Sandstorm (CURIUM) egy iráni fenyegető szereplő, amely az értékelések szerint az Iszlám Forradalmi Gárdához (IRGC) kapcsolódik. A nagy nyelvi modellek használata a pszichológiai manipulációval kapcsolatos támogatási kérésekre, hibaelhárítással kapcsolatos segítségnyújtásra, .NET-fejlesztésre, valamint olyan módszerekre terjedt ki, amelyekkel egy támadó elkerülheti az észlelést, miközben egy feltört gépen tevékenykedik.
A Charcoal Typhoon (CHROMIUM) egy Kínához kötődő fenyegető szereplő, amely elsősorban a kínai politikát ellenző, Tajvanon, Thaiföldön, Mongóliában, Malajziában, Franciaországban és Nepálban működő csoportok, valamint világszerte élő magánszemélyek nyomon követésére összpontosít. A megfigyelések szerint a Charcoal Typhoon a közelmúltbeli műveletei során arra alkalmazott nagy nyelvi modelleket, hogy betekintést nyerjen különböző kutatásokba, és ezáltal megértsen bizonyos technológiákat, platformokat és sebezhetőségeket, mindez az előzetes információgyűjtési szakaszokra utal.
A Salmon Typhoon, egy másik kínai hátterű csoport, a 2023-as év során felmérte, hogy mennyire hatékonyan tud nagy nyelvi modelleket alkalmazni potenciálisan bizalmas témakörökről, ismert személyekről, regionális geopolitikáról, az USA befolyásáról és belügyekről való információgyűjtésre. A nagy nyelvi modellek ilyen puhatolódzó jellegű használata utalhat egyrészt a hírszerzési információgyűjtési eszközkészletük kiszélesítésére, másrészt a fejlődő technológiák biztosította képességek felmérésének kísérleti fázisára is.
Az OpenAI-jal közösen végzett kutatásunk nem azonosított jelentős támadásokat azon nagy nyelvi modellek alkalmazásával, amelyeket szorosan figyelemmel kísérünk.
Intézkedéseket tettünk annak érdekében, hogy megszakítsuk a fenti fenyegető szereplőkhöz társított eszközök és fiókok működését, és megfelelően alakítsuk a modelljeinket védő óvintézkedéseket is biztonsági mechanizmusokat.
A mesterséges intelligenciával támogatott csalás szintén kritikus problémát jelent. Jó példa erre a hangszintetizálás, amellyel egy három másodperces hangminta alapján egy modell betanítható tetszőleges személyként hangzó beszédre. Még egy olyan ártatlannak tűnő dolog, mint a hangpostája üdvözlő üzenete is felhasználható elégséges mintavételezésre.
Az egymással való kapcsolattartásunk és az üzleti élet során jelentős mértékben támaszkodunk az identitás-ellenőrzésre, például egy személy hangjának, arcának, e-mail-címének vagy írási stílusának felismerésére.
Kulcsfontosságú megértenünk, hogy a rosszindulatú szereplők hogyan alkalmazzák a mesterséges intelligenciát hosszú ideje bevált identitás-ellenőrző rendszerek működésének aláaknázására, mert csak így tudunk fellépni az összetett csalási esetek és egyéb, frissen megjelenő pszichológiai manipulációs fenyegetések ellen, amelyek elfedik az identitásokat.
A mesterséges intelligencia arra is képes, hogy segítse a cégeket a csalási kísérletek meghiúsításában. Bár a Microsoft megszakította az együttműködését egy Brazíliában működő céggel, mesterséges intelligenciával támogatott rendszereink azt észlelték, hogy a cég megpróbálta újjáalakítani magát, hogy újból bekerülhessen az ökoszisztémánkba.
A csoport folyamatosan igyekezett ködösíteni az adatait, elrejteni a tulajdonosi gyökereit, és megpróbált újból bekerülni, de mesterséges intelligencián alapuló észleléseink közel egy tucat kockázati jelzéssel hívták fel a figyelmet a csaló cégre, és társították azt korábban felismert gyanús viselkedéshez, így sikerült elhárítani a kísérleteit.
A Microsoft elkötelezett a felelős, ember által vezetett mesterséges intelligencia iránt, amely úgy nyújt adatvédelmet és biztonságot, hogy hús-vér emberek felügyelik, értékelik ki a fellebbezéseket, és értelmezik a szabályzatokat és a jogszabályokat.
A Microsoft hatalmas mennyiségű rosszindulatú adatforgalmat észlel: naponta több mint 65 billió kiberbiztonsági jelzést. A mesterséges intelligencia erősíti az arra irányuló képességünket, hogy mindezt az információt elemezzük, és felszínre hozzuk a legértékesebb megállapításokat, amelyek segítenek a fenyegetések megfékezésében. Ezt a jelátviteli hírszerzési információt a generatív AI-ba betáplálva arra is felhasználjuk, hogy komplex veszélyforrások elleni védelmet, adatbiztonságot és identitásbiztonságot alakítsunk ki, és segítsünk a védekezőknek elfogni olyan kísérleteket, amelyek elkerülték mások figyelmét.
A Microsoft számos módszerrel igyekszik megvédeni saját magát és az ügyfeleit a kiberfenyegetésektől, ezek közé tartozik a mesterséges intelligenciával támogatott fenyegetésészlelés, amely észreveszi az erőforrások vagy a hálózati forgalom használatának változásait, a viselkedéselemzés, amely észleli a kockázatos bejelentkezéseket és a szokatlan viselkedésmódokat, a gépi tanulási modellek, amelyek észlelik a kockázatos bejelentkezéseket és a kártevő szoftvereket, a Teljes felügyeletre épülő modellek, amelyek megkövetelik az összes hozzáférési kérelem teljes körű hitelesítését, engedélyezését és titkosítását, valamint az eszközállapot ellenőrzése, mielőtt egy eszköz engedélyt kap egy vállalati hálózathoz való csatlakozásra.
A fenyegető szereplők tisztában vannak azzal, hogy a Microsoft a többtényezős hitelesítés szigorú alkalmazásával védi magát – az összes alkalmazottunknál be van állítva a többtényezős hitelesítés vagy a jelszó nélküli védelem –, ezért azt látjuk, hogy a támadók inkább a pszichológiai manipuláció felé hajlanak az alkalmazottaink fiókjának feltörésére irányuló kísérleteikben.
Erre egyebek között olyan területeken kerül sor, ahol értéket képviselő dolgokat, például ingyenes próbaverziókat vagy promóciós díjszabású szolgáltatásokat vagy termékeket adnak át. Ezeken a területeken a támadók számára nem kifizetődő egyesével ellopni előfizetéseket, ezért megpróbálják működőképesebbé és szélesebb körűvé tenni a támadásaikat anélkül, hogy észrevennék őket.
Természetesen olyan AI-modelleket is készítünk, amelyek észlelik az ilyen támadásokat a Microsoft és az ügyfeleink védelme érdekében. Észleljük a hamis tanulókat és iskolai fiókokat, valamint a hamis cégeket vagy szervezeteket, amelyek szankciók elkerülése, szabályozások megkerülése, illetve múltbéli bűnügyi kihágások – például korrupciós ítéletek, lopási kísérletek stb. – elrejtése érdekében megváltoztatták a céges demográfiai adataikat, vagy elrejtették a tényleges identitásukat.
A GitHub Copilot, a Microsoft Security Copilot és a belső mérnöki és üzemeltetési infrastruktúránkba integrált egyéb, másodpilótára épülő csevegési funkciók segítenek megelőzni az olyan incidenseket, amelyek hatással lehetnének a működésünkre.
Az e-mailes fenyegetések megfékezése érdekében a Microsoft tökéletesíti azokat a képességeit, amelyekkel az e-mailek megfogalmazása mellett más jelek alapján is meg tudja állapítani, hogy az e-mailek rosszindulatúak-e. Mióta a mesterséges intelligencia a fenyegető szereplők kezébe került, egyre több tökéletesen megírt e-mail érkezik, ami jelentős előrelépés az adathalászati kísérleteket gyakran leleplező nyilvánvaló nyelvi és nyelvtani hibákhoz képest, és ez igencsak megnehezíti az adathalászati kísérletek észlelését.
Az alkalmazottak folyamatos oktatására és nyilvános figyelemfelkeltő kampányokra van szükség ahhoz, hogy felvehessük a harcot a pszichológiai manipuláció ellen, amely az egyetlen, 100%-ban emberi hibára támaszkodó támadási mód. A történelem megtanított bennünket arra, hogy hatékony nyilvános figyelemfelkeltő kampányokkal az emberi viselkedés megváltoztatható.
A Microsoft várakozásai szerint a mesterséges intelligencia hozzájárul majd a pszichológiai manipulációs taktikák fejlődéséhez, és lehetővé teszi a kifinomultabb – például deepfake-ekre és hangklónozásra épülő – támadásokat, különösképpen akkor, ha a támadók felelősségteljes eljárások és beépített biztonsági szabályozók nélkül működő AI-technológiákat találnak.
A megelőzés minden kiberfenyegetés esetében kulcsfontosságú, legyen szó akár hagyományos, akár mesterséges intelligenciával támogatott fenyegetésekről.
A mesterséges intelligenciával kapcsolatos további megállapításokat olvashat Homa Hayatyfar cikkében, aki az Adatok és alkalmazott tudományok csoport vezetője, az észlelési analitika vezetője.
A hagyományos eszközök már nem tudnak lépést tartani a kiberbűnözők jelentette fenyegetésekkel. A közelmúltbeli kibertámadások fokozódó sebessége, kiterjedtsége és kifinomultsága a biztonságra vonatkozó új megközelítésmódot követel meg. Emellett, tekintettel a kiberbiztonsági munkaerőhiányra és a kiberfenyegetések fokozódó gyakoriságára és súlyosságára, sürgősen meg kell szüntetni az ilyen készségek terén mutatkozó hiányosságokat.
A mesterséges intelligencia a védekezők javára billentheti a mérleget. Egy, a Microsoft Security Copilottal (amelynek jelenleg is zajlik az ügyfelek általi előzetes tesztelése) kapcsolatban a közelmúltban készült tanulmány rámutatott arra, hogy a biztonsági elemzők a szaktudásuk szintjétől függetlenül nagyobb sebességet és pontosságot értek el az olyan gyakori feladatok terén, mint amilyen például a támadók által használt szkriptek azonosítása, az incidensjelentések készítése, valamint a megfelelő szervizelési lépések meghatározása.1
A Microsoft Biztonság követése