Cyber Signals, 6. izdanje
Svakog dana više od 2,5 milijardi otkrivanja zasnovanih na tehnologiji oblaka i AI štite klijente korporacije Microsoft.
Svakog dana više od 2,5 milijardi otkrivanja zasnovanih na tehnologiji oblaka i AI štite klijente korporacije Microsoft.
Danas svet kibernetičke bezbednosti prolazi kroz veliku transformaciju. Veštačka inteligencija (AI) je na samom čelu ove promene jer ujedno predstavlja i pretnju i priliku. Premda AI ima potencijal da pomogne organizacijama da se bore protiv kibernetičkih napada brzinom mašine i da podstakne inovaciju i efikasnost prilikom otkrivanja pretnji, potrage za pretnjama i reagovanja na incidente, napadači mogu da koriste AI za zloupotrebe. Nikada nije bilo važnije da projektujemo, primenjujemo i koristimo AI na bezbedan način.
U korporaciji Microsoft, istražujemo potencijal veštačke inteligencije za poboljšanje bezbednosnih mera, otkrivanje novih i naprednih zaštita i pravljenje boljih softvera. Zahvaljujući veštačkoj inteligenciji, možemo da se prilagodimo uprkos napredovanju pretnji, da odmah otkrijemo anomalije, da brzo reagujemo kako bismo neutralizovali rizike i da prilagodimo zaštite potrebama organizacije.
AI može da nam pomogne i da prevaziđemo još jedan od najvećih problema u sektoru. Suočeni s globalnim manjkom radne snage u oblasti kibernetičke bezbednosti, gde je potrebno oko 4 miliona stručnjaka za kibernetičku bezbednost širom sveta, AI ima potencijal da postane ključna alatka za prevazilaženje tog manjka i povećanje produktivnosti zaštitnika.
U jednoj studiji smo već videli kako Microsoft Security Copilot može da pomogne analitičarima bezbednosti bez obzira na nivoe njihove stručnost; u svim zadacima, učesnici su bili precizniji za 44% i brži za 26%.
U težnji ka bezbednoj budućnosti, moramo da uspostavimo ravnotežu između bezbedne pripreme za AI i iskorišćavanja prednosti iste jer AI ima moć da izdigne ljudski potencijal na viši nivo i reši neke od najtežih problema.
Bezbednija budućnost uz AI zahtevaće fundamentalne napretke u softverskom inženjeringu. Biće potrebno da razumemo pretnje zasnovane na AI i da se borimo protiv njih jer su one osnovni elementi svake bezbednosne strategije. Moramo zajedno da radimo na izgradnji čvrstih saradnji i partnerstava u javnom i privatnom sektoru u borbi protiv zlonamernih aktera.
U sklopu tih težnji i naše Inicijative za sigurnu budućnost, OpenAI i Microsoft danas objavljuju nove informacije o pokušajima zlonamernih aktera da testiraju i istraže korisnost velikih jezičkih modela (LLM) za tehnike napada.
Nadamo se da će ove informacije biti korisne u raznim sektorima jer svi radimo na bezbednijoj budućnosti. Na kraju krajeva, svi smo mi zaštitnici.
Bret Arseno,
korporativni potpredsednik, glavni savetnik za kibernetičku bezbednost
Pogledajte kratki digitalni izveštaj Cyber Signals, gde Vasu Džakal, korporativni potpredsednik za Microsoft Security Business, intervjuiše ključne stručnjake za informacije o kibernetičkim pretnjama u vezi istih u dobi AI, načinima na koje Microsoft koristi AI za poboljšanje bezbednosti i o tome šta organizacije mogu da urade da ojačaju zaštitu.
Pejzaž kibernetičih pretnji je postao još problematičniji s obzirom da su napadači sve motivisaniji, sofisticiraniji i opremljeniji. I zlonamerni akteri i zaštitnici se okreću veštačkoj inteligenciji, uključujući i LLM, radi povećanja produktivnosti i iskorišćavanja dostupnih platformi koje odgovaraju njihovim ciljevima i tehnikama napada.
S obzirom na brz napredak pejzaža pretnji, danas objavljujemo principe korporacije Microsoft kojima se vodimo pri delovanju u cilju ublažavanja rizika od zlonamernih aktera, uključujući napredne neprekidne pretnje (APT), napredne uporne manipulatore (APM) i skupine kibernetičkih kriminalaca, koji koriste AI platforme i API. Ti principi obuhvataju uočavanje korišćenja AI od strane zlonamernih aktera i delovanje protiv njih, obaveštavanje ostalih pružalaca AI usluga, saradnju sa drugim zainteresovanim stranama i transparentnost.
Iako se motivi i nivo sofisticiranosti zlonamernih aktera razlikuju, oni imaju zajedničke zadatke prilikom sprovođenja napada. Tu spadaju izviđanje, kao na primer istraživanje sektora, lokacija i odnosa potencijalnih žrtava; kodiranje, uključujući poboljšanje skripti za softvere i pravljenje zlonamernih softvera i pomoć pri učenju i korišćenje i prirodnih i mašinskih jezika.
U saradnji sa organizacijom OpenAI, delimo informacije o pretnjama koje pokazuju otkrivene napadače povezane sa državama, koje smo nazvali „Forest Blizzard“ („Šumska mećava“), „Emerald Sleet“ („Smaragdna susnežica“), „Crimson Sandstorm“ („Crvena peščana oluja“), „Charcoal Typhoon“ („Crni tajfun“) i „Salmon Typhoon“ („Roze tajfun“), a koji koriste LLM da bi proširili kibernetičke operacije.
Cilj partnerstva u istraživanju između korporacije Microsoft i organizacije OpenAI jeste osiguravanje bezbednog i odgovornog korišćenja AI tehnologija, kao što je ChatGPT, uz primenu najviših standarda etičke primene u cilju zaštite zajednice od potencijalne zloupotrebe.
„Emerald Sleet“ je koristio LLM za istraživanja o trustovima mozgova i stručnjacima za Severnu Koreju, kao i stvaranje sadržaja koji će se verovatno koristiti u kampanjama ciljanog phishinga. „Emerald Sleet“ je koristio LLM i za razumevanje opšte poznatih ranjivosti, rešavanje tehničkih problema i pomoć u korišćenju raznih veb tehnologija.
Još jedna grupa koju podržava Kina, Salmon Typhoon, procenjivala je efikasnost korišćenja LLM tokom 2023. za prikupljanje informacija na potencijalno osetljive teme, o istaknutim osobama, regionalnoj geopolitici, uticaju SAD i unutrašnjim poslovima. Ovo probno korišćenje LLM može da ukazuje i na širenje kompleta alatki za prikupljanje informacija i na eksperimentalnu fazu procene funkcionalnosti novih tehnologija.
Preduzeli smo mere ometanja resursa i naloga povezanih sa tim zlonamernim akterima i oblikovanja zaštitne ograde i bezbednosnih mehanizama oko naših modela.
Prevara korišćenjem veštačke inteligencije predstavlja još jedan ključni razlog za brigu. Primer toga je sinteza glasa, gde na osnovu uzorka glasa od tri sekunde, model može da se obuči da zvuči kao bilo ko. Čak i nešto bezazleno, kao što je pozdrav na govornoj pošti, može da se iskoristi za pribavljanje dovoljne količine uzorka.
Način na koji interagujemo jedni s drugima i vodimo posao uglavnom se oslanja na dokazivanje identiteta, na primer prepoznavanje nečijeg glasa, lica, e-pošte ili stila pisanja.
Važno je da razumemo kako zlonamerni akteri koriste AI da podrivaju etablirane sisteme dokazivanja identiteta da bismo mogli da se bavimo složenim slučajevima prevare i drugim novonastalim pretnjama putem društvenog inženjeringa, kojima se prikrivaju identiteti.
AI mogu da koriste i kompanije za ometanje pokušaja prevare. Iako je Microsoft prekinuo saradnju sa kompanijom u Brazilu, naši AI sistemi su otkrili njene pokušaje da se rekonstituiše i ponovo uđe u naše ekosisteme.
Grupa je uporno pokušavala da zamaskira svoje informacije, prikrije korene vlasništva i ponovo uđe, ali naša AI otkrivanja su koristila skoro desetak signala o riziku da obeleži zastavicom prevarantsku kompaniju i da je poveže sa prethodno prepoznatim sumnjivim ponašanjem i tako blokira pokušaje.
Microsoft je posvećen odgovornoj veštačkoj inteligenciji koju vode ljudi i gde se uvažavaju privatnost i bezbednost tako što ljudi nadgledaju, procenjuju žalbe i tumače smernice i propise.
Microsoft svakog dana otkrije neverovatnu količnu zlonamernog saobraćaja – više od 65 biliona signala za kibernetičku bezbednost. AI povećava našu sposobnost da analiziramo te informacije i da se postaramo da najvredniji uvidi isplivaju na površinu da bi se zaustavile pretnje. Te informacije u vidu signala koristimo i da omogućimo generativnom AI naprednu zaštitu od pretnji, bezbednost podataka i bezbednost identiteta da bismo pomogli zaštitnicima da zapaze ono što drugima promakne.
Microsoft koristi nekoliko metoda da zaštiti sebe i svoje klijente od kibernetičkih pretnji, uključujući otkrivanje pretnji pomoću AI za uočavanje promena u korišćenju resursa ili saobraćaja na mreži; analitiku ponašanja za otkrivanje rizičnih prijavljivanja i anomalnog ponašanja; modele mašinskog učenja (ML) za otkrivanje rizičnih prijavljivanja i zlonamernih softvera; modele nulte pouzdanosti, gde svaki zahtev za pristup mora u potpunosti da se proveri, odobri i šifruje; i proveru stanja uređaja pre povezivanja uređaja na korporativnu mrežu.
Pošto zlonamerni akteri znaju da Microsoft rigorozno koristi višestruku potvrdu identiteta (MFA) da se zaštiti, svi naši zaposleni imaju MFA ili zaštitu bez lozinke, primetili smo da napadači pribegavaju društvenom inženjeringu u pokušaju da ugroze naše zaposlene.
Aktivne oblasti za to su one gde se pružaju vredne stvari, kao što su besplatne probne verzije ili promotivne cene usluga ili proizvoda. U tim oblastima, napadačima se ne isplati da kradu jednu po jednu pretplatu, pa se trude da ti napadi budu efikasniji i veći, a da se ne otkriju.
Naravno, mi pravimo modele veštačke inteligencije za otkrivanje tih napada za Microsoft i naše klijente. Otkrivamo lažne učeničke i školske naloge, lažne kompanije ili organizacije, koje su izmenile svoje firmografske podatke ili prikrili svoj pravi identitet da bi izbegli sankcije, zaobišli kontrole i sakrili prošle kriminalne aktivnosti, kao što su osuđujuće presude za korupciju, pokušaji krađe itd.
Korišćenje funkcije GitHub Copilot, alatke Microsoft Security Copilot, kao i drugih Copilot funkcija za ćaskanje, ugrađenih u našu internu infrastrukuru za inženjering i operacije, pomaže u sprečavanju incidenta koju mogu da utiču na operacije.
Da bi se bavila pretnjama u e-pošti, korporacija Microsoft unapređuje funkcije za prikupljanje signala, pored sadržaja e-poruke, da bi se utvrdilo da li su zlonamerni. Otkad zlonamerni akteri koriste AI, došlo je do priliva savršeno napisanih e-poruka, gde su otklonjene očigledne jezičke i gramatičke greške, koje često odaju pokušaje phishinga, pa se pokušaji phishinga teže otkrivaju.
Potrebni su stalna edukacija zaposlenih i kampanje za podizanje nivoa javne svesti za borbu protiv društvenog inženjeringa, koji je jedina tehnika koja se u potpunosti oslanja na ljudsku grešku. Istorija nas je naučila da efikasne kampanje za podizanje nivoa javne svesti uspevaju da promene ponašanja.
Microsoft predviđa da će AI unaprediti taktike društvenog inženjeringa, što će dovesti do sofisticiranijih napada, kao što su deepfake i kloniranje glasa, naročito ako napadači utvrde da tehnologije veštačke inteligencije funkcionišu bez odgovornih praksi i ugrađenih bezbednosnih kontrola.
Prevencija je ključna za borbu protiv svih kibernetičkih pretnji, bez obzira da li su tradicionalne ili zasnovane na AI.
Tradicionalne alatke više ne mogu da isprate pretnje od kibernetičkih kriminalaca. Sve veća brzina, razmera i sofisticiranost nedavnih kibernetičkih napada zahtevaju novi pristup bezbednosti. Takođe, s obzirom na manjak radne snage u kibernetičkoj bezbednosti i da kibernetičke pretnje postaju sve češće i ozbiljnije, hitno je potrebno da se reši problem nedostatka veština.
AI može da preokrene situaciju u korist zaštitnika. U nedavnoj studiji za Microsoft Security Copilot (trenutno ga testiraju klijenti), otkrivena je veća brzina i preciznost analitičara bezbednosti, bez obzira na njihov nivo stručnosti, u zajedničkim zadacima, kao što su otkrivanje skripti koje koriste napadači, kreiranje izveštaja o incidentima i donošenje odgovarajućih koraka za oporavak.1
Pratite Microsoft bezbednost