Cyber Signals utgave 6
Her dag beskytter mer enn 2,5 milliarder skybaserte oppdagelser som er drevet av kunstig intelligens, Microsoft-kunder.
Her dag beskytter mer enn 2,5 milliarder skybaserte oppdagelser som er drevet av kunstig intelligens, Microsoft-kunder.
I dag går cybersikkerhetens verden gjennom en massiv transformasjon. Kunstig intelligens (KI) er på frontlinjen av denne endringen og utgjør både en trussel og en mulighet. Selv om kunstig intelligens har potensial til å styrke organisasjoner til å tilintetgjøre cyberangrep med maskinhastighet og drive innovasjon og effektivitet innen trusseloppdagelse, jakt og hendelsesrespons, kan motstandere bruke kunstig intelligens som en del av utnyttelsen. Det har aldri vært så viktig for oss å utforme, distribuere og bruke kunstig intelligens på en sikker måte.
Hos Microsoft utforsker vi potensialet i kunstig intelligens for å forbedre sikkerhetstiltakene våre, låse opp nye og avanserte beskyttelser og bygge bedre programvare. Med kunstig intelligens har vi kraften til å tilpasse oss sammen med trusler i utvikling, oppdage avvik umiddelbart, svare raskt for å nøytralisere risikoer, og skreddersy forsvar for en organisasjons behov.
Kunstig intelligens kan også hjelpe oss med å overvinne en annen stor utfordring i bransjen. I en tid med mangel på cybersikkerhetsarbeidere og et behov for omtrent 4 millioner cybersikkerhetseksperter på verdensbasis kan kunstig intelligens bli et viktig verktøy til å tette igjen hullene og hjelpe forsvarere med å bli mer produktive.
Vi har allerede sett i én studie hvordan Microsoft Security Copilot kan hjelpe sikkerhetsanalytikere uavhengig av ekspertnivå. På tvers av alle oppgaver var deltakerne 44 prosent mer nøyaktige og 26 prosent raskere.
Med tanke på fremtidens sikkerhet må vi sørge for en balanse mellom å unytte fordelene med kunstig intelligens og sørge for sikkerheten. Med kunstig intelligens har menneskene muligheten til å utrette mer og løse noen av våre mest alvorlige utfordringer.
En mer sikker fremtid med kunstig intelligens krever grunnleggende fremskritt innen programvareteknikk. Det krever at vi forstår og møter trusler drevet av kunstig intelligens som essensielle komponenter i enhver sikkerhetsstrategi. Vi må også arbeide sammen for å skape et dyptgående samarbeid og partnerskap på tvers av offentlige og private sektorer for å bekjempe skadelige aktører.
Som en del av arbeidet og vårt eget Secure Future-initiativ, publiserer OpenAI og Microsoft i dag ny informasjon som beskriver trusselaktørenes forsøk, på å teste og utforske nytteverdien til store språkmodeller (LLM-er) i angrepsteknikker.
Vi håper denne informasjonen vil være nyttig på tvers av bransjer, idet vi alle arbeider mot en mer sikker fremtid. For til syvende og sist er vi alle forsvarere.
Se Cyber Signals’ digitale orientering, hvor Vasu Jakkal, visepresident for Microsoft Sikkerhet Business, intervjuer viktige trusselinformasjonseksperter om cybertrusler i tidsalderen for kunstig intelligens, måter Microsoft bruker kunstig intelligens på for å forbedre sikkerheten, og hva organisasjoner kan gjøre for å styrke forsvaret.
Cybertrussellandskapet har blitt stadig mer utfordrende med angripere som blir mer motiverte, er mer komplekse og har bedre ressurser. Både trusselaktører og forsvarere bruker kunstig intelligens, inkludert LLM-er, for å forbedre produktiviteten og dra nytte av tilgjengelige plattformer som passer til målsettingene og angrepsteknikkene deres.
Gitt den raske utviklingen i trussellandskapet, kunngjør vi i dag Microsofts prinsipper som veileder handlingene våre som reduserer risikoen for trusselaktører, inkludert avanserte vedvarende trusler (APT-er), avanserte vedvarende manipulatorer (APM-er) og nettkriminelle syndikater, med kunstig intelligens-plattformer og API-er. Disse prinsippene omfatter identifikasjon og handling mot skadelige trusselaktørers bruk av kunstig intelligens, varsling til andre tjenesteleverandører for kunstig intelligens, samarbeid med andre interessenter og gjennomsiktighet.
Selv om trusselaktørenes motiver og kompleksitet varierer, deler de felles oppgaver når de distribuerer angrepene. Disse omfatter rekognosering, for eksempel undersøke potensielle ofres bransjer, steder og relasjoner, samt koding og forbedring av programvareskript og utvikling av skadelig programvare, og hjelp til læring og bruk av både menneske- og maskinspråk.
I samarbeid med OpenAI deler vi trusselinformasjon som viser identifiserte statstilknyttede motstandere – sporet som Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon, og Salmon Typhoon – ved hjelp av LLM-er for å forbedre cyberoperasjoner.
Målsettingen til Microsofts forskningspartnerskap med OpenAI er å sikre en trygg og ansvarlig bruk av kunstig intelligens-teknologier som ChatGPT, og opprettholde de høyeste standardene av etisk bruk for å beskytte fellesskapet mot potensielt misbruk.
Emerald Sleets bruk av LLM-er involverte undersøkelser av tenketanker og eksperter på Nord-Korea, samt innholdsgenerering som sannsynligvis ble brukt til målrettede phishing-kampanjer. Emerald Sleet samhandlet også med LLM-er for å forstå offentlig kjente sårbarheter, feilsøke tekniske problemer, og for å støtte bruken av ulike nett-teknologier.
En annen gruppe som støttes av Kina, Salmon Typhoon, har vurdert effektiviteten til bruken av LLM-er gjennom hele 2023, for å finne informasjon om potensielt sensitive emner, høyprofilerte enkeltpersoner, regional geopolitikk, amerikansk innflytelse og innenrikspolitikk. Dette tentative engasjementet med LLM-er kan gjenspeile både en utvidelse av verktøykassen for innsamling av informasjon, og en eksperimentell fase i vurderingen av funksjoner i fremvoksende teknologier.
Vi har iverksatt tiltak for å avbryte ressurser og kontoer tilknyttet disse trusselaktørene og former beskyttelse og sikkerhetsmekanismer rundt modellene våre.
Svindel drevet av kunstig intelligens er en annen alvorlig bekymring. Stemmesyntese et eksempel på dette, hvor et stemmeeksempel på tre sekunder kan lære opp en modell til å høres ut som hvem som helst. Til og med noe så harmløst som telefonsvarerhilsenen din kan brukes til å få en tilstrekkelig prøve.
Mange av måtene vi samhandler med hverandre og driver virksomhet på, avhenger av identitetsbevis, slik som gjenkjenning av en persons stemme, ansikt, e-post-adresse eller skrivestil.
Det er avgjørende at vi forstår hvordan skadelige aktører bruker kunstig intelligens til å undergrave langvarige identitetsbevissystemer, slik at vi kan håndtere komplekse svindeltilfeller og andre fremvoksende trusler innen sosial manipulering, som skjuler identiteter.
Kunstig intelligens kan også brukes til å hjelpe selskaper med å avbryte svindelforsøk. Selv om Microsoft ikke lenger støtter engasjementet med et selskap i Brasil, oppdaget kunstig intelligens-systemene våre at det prøvde å gjenoppbygge selg selv for å komme inn i økosystemet vårt på nytt.
Gruppen forsøkte kontinuerlig å tilsløre denne informasjonen, skjule eierskapsrøttene, og gå inn på nytt, men oppdagelsene drevet av kunstig intelligens brukte nesten et dusin risikosignaler for å flagge det uredelige selskapet og knytte det til tidligere gjenkjent mistenkelig atferd, og dermed blokkere forsøkene.
Microsoft er satser på ansvarlig menneskestyrt kunstig intelligens med personvern og sikkerhet med mennesker som gir oversikt, evaluerer klager og tolker policyer og regler.
Microsoft registrerer en enorm mengde skadelig trafikk – mer enn 65 billioner cybersikkerhetssignaler per dag. Kunstig intelligens øker evnen vår til å analysere denne informasjonen og sikre at den mest verdifulle innsikten kommer frem, for å bidra til å stoppe truslene. Vi bruker også denne signalinformasjonen til å styrke generativ kunstig intelligens for avansert trusselbeskyttelse, datasikkerhet, og identitetssikkerhet, for å hjelpe forsvarere med å se det andre ikke ser.
Microsoft bruker en rekke metoder for å beskytte seg selv og kunder mot cybertrusler, inkludert trusseloppdagelse drevet av kunstig intelligens for å finne endringer i hvordan ressurser eller trafikk på nettverket brukes, atferdsanalyse for å oppdage risikofylte pålogginger og avvikende atferd, maskinlæringsmodeller (ML) for å oppdage risikofylte pålogginger og skadelig programvare, nulltillitsmodeller hvor alle tilgangsforespørsler må godkjennes, autoriseres og krypteres, og verifisering av enhetstilstand før en enhet kan koble til et bedriftsnettverk.
Siden trusselaktørene er klar over at Microsoft er nøye med å bruke godkjenning med flere faktorer (MFA) for å beskytte seg selv – alle ansatte har konfigurert MFA eller passordløs beskyttelse – har vi sett angripere omfavne sosial manipulering i et forsøk på å kompromittere våre ansatte.
Kjerneområder for dette omfatter områder der ting av verdi formidles, for eksempel gratis prøveversjoner eller kampanjepriser, tjenester eller produkter. I disse områdene er det ikke lønnsomt for angripere å stjele ett abonnement om gangen, så de prøver å operasjonalisere og skalere disse angrepene uten å bli oppdaget.
Naturligvis bygger vi kunstig intelligens-modeller for å oppdage disse angrepene for Microsoft og kundene våre. Vi oppdager falske student- og skolekontoer, falske selskaper eller organisasjoner som har endret bedriftsopplysningene eller skjult sin ekte identitet for å unngå sanksjoner, omgå kontroller eller skjule tidligere kriminelle overtredelser, for eksempel korrupsjonsdommer, tyveriforsøk osv.
Bruken av GitHub Copilot, Microsoft Security Copilot og andre Copilot Chat-funksjoner som er integrert i den interne tekniske og driftsmessige infrastrukturen, bidrar til å forebygge hendelser som kan påvirke driften.
For å ta tak i e-posttrusler forbedrer Microsoft funksjonene sine for å samle signaler utover en e-posts sammensetning, for å forstå om den er skadelig. Med kunstig intelligens i hendene på trusselaktørene har det vært en strøm av perfekt skrevne e-postmeldinger med forbedring i de åpenbare grammatiske feilene som ofte avslører phishing-angrep, noe som gjør phishing-angrepene vanskeligere å oppdage.
Kontinuerlig opplæring av ansatte og offentlige bevisstgjøringskampanjer er nødvendig for å bekjempe sosial manipulering, som er det ene redskapet som avhenger 100 prosent av menneskelige feil. Historien har lært oss at effektive offentlige bevisstgjøringskampanjer fungerer for å endre atferd.
Microsoft forventer at kunstig intelligens utvikler taktikker for sosial manipulering, og lager mer komplekse angrep, inkludert deepfakes og stemmekloning, særlig hvis angriperne finner kunstig intelligensteknologi som drives uten ansvarlig praksis og innebygde sikkerhetskontroller.
Forebygging er avgjørende for å bekjempe alle cybertrusler, enten det er på tradisjonelt vis eller drevet av kunstig intelligens.
Få mer innsikt rundt kunstig intelligens fra Homa Hayatafar, Principal data and Applied Science Manager, Detection Analytics Manager.
Tradisjonelle verktøy holder ikke lenger følge med truslene fremsatt av nettkriminelle. Den økte hastigheten, skalaen og kompleksiteten til nylige cyberangrep krever en ny tilnærming til sikkerhet. I tillegg er utjevning av kompetansegapet et behov som haster, med tanke på mangelen på cybersikkerhetsarbeidere samtidig som cybersikkerhetstrusler øker i omfang og alvorsgrad.
Kunstig intelligens kan være utslagsgivende for forsvarere. En nylig studie av Microsoft Security Copilot (for øyeblikket i forhåndstestversjon for kunder) viste større hastighet og nøyaktighet blant sikkerhetsanalytikere, uavhengig av ekspertnivå, i alle vanlige oppgaver, for eksempel å identifisere skript som brukes av angripere, opprette hendelsesrapporter og identifisere relevante utbedringstrinn.1
Følg Microsoft Sikkerhet