Cyber Signals - Editie 6
Elke dag beschermen meer dan 2,5 miljard cloudgebaseerde, AI-gestuurde detecties Microsoft-klanten.
Elke dag beschermen meer dan 2,5 miljard cloudgebaseerde, AI-gestuurde detecties Microsoft-klanten.
Vandaag de dag ondergaat de wereld van cyberbeveiliging een enorme transformatie. Kunstmatige intelligentie (AI) staat vooraan bij deze verandering en vormt zowel een bedreiging als een kans. Hoewel AI het potentieel heeft om organisaties in staat te stellen cyberaanvallen met de snelheid van een machine te verslaan en innovatie en efficiëntie te stimuleren bij het opsporen van bedreigingen, jagen en reageren op incidenten, kunnen vijandige partijen AI gebruiken als onderdeel van hun aanvallen. Het is nog nooit zo belangrijk geweest om AI veilig te ontwerpen, in te zetten en te gebruiken.
Bij Microsoft onderzoeken we het potentieel van AI om onze beveiligingsmaatregelen te verbeteren, nieuwe en geavanceerde beveiligingen en beter software te ontwikkelen. Met AI kunnen we ons aanpassen aan steeds veranderende bedreigingen, afwijkingen direct detecteren, snel reageren om risico's te neutraliseren en de verdediging afstemmen op de behoeften van een organisatie.
AI kan ons ook helpen om een van de andere grootste uitdagingen in de sector te overwinnen. Gezien het wereldwijde tekort aan cyberbeveiligingspersoneel, van ongeveer 4 miljoen cyberbeveiligingsprofessionals wereldwijd, heeft AI de potentie om een cruciaal hulpmiddel te zijn om het tekort aan talent te dichten en beschermers te helpen productiever te zijn.
We hebben in een onderzoek al gezien hoe Microsoft Security Copilot beveiligingsanalisten kan helpen, ongeacht hun kennisniveau - bij alle taken waren de deelnemers 44 procent nauwkeuriger en 26 procent sneller.
Als we de toekomst veilig willen stellen, moeten we ervoor zorgen dat we een balans vinden tussen het veilig voorbereiden op AI en het benutten van de voordelen ervan, want AI heeft het vermogen om het menselijk potentieel te verhogen en een aantal van onze grootste uitdagingen op te lossen.
Een veiligere toekomst met AI vereist fundamentele vooruitgang in software engineering. Dit vereist dat we AI-gestuurde bedreigingen begrijpen en tegengaan als essentiële onderdelen van elke beveiligingsstrategie. Bovendien moeten we samenwerken om diepgaande samenwerking en partnerschappen tussen de publieke en private sector op te bouwen om kwaadwillenden te bestrijden.
Als onderdeel van deze inspanning en ons eigen Secure Future-initiatief, publiceren OpenAI en Microsoft vandaag nieuwe informatie over pogingen van bedreigingsactoren om de bruikbaarheid van grote taalmodellen (LLM's) in aanvalstechnieken te testen en te onderzoeken.
We hopen dat deze informatie nuttig zal zijn voor alle sectoren in ons streven naar een veiligere toekomst. Want uiteindelijk zijn we allemaal beschermers.
Bekijk de digitale briefing van Cyber Signals waarin Vasu Jakkal, Corporate Vice President van Microsoft Beveiliging voor bedrijven, belangrijke experts op het gebied van bedreigingsinformatie interviewt over cyberbedreigingen in het tijdperk van AI, manieren waarop Microsoft AI gebruikt voor verbeterde beveiliging en wat organisaties kunnen doen om de bescherming te helpen versterken.
Het landschap van cyberbedreigingen is steeds uitdagender geworden met aanvallers die gemotiveerder en geavanceerder zijn en over steeds meer middelen beschikken. Zowel bedreigingsactoren als verdedigers kijken naar AI, waaronder LLM's, om hun productiviteit te verhogen en te profiteren van toegankelijke platforms die mogelijk bij hun doelen en aanvalstechnieken passen.
Gezien het snel evoluerende landschap van bedreigingen kondigen we vandaag de principes van Microsoft aan die als leidraad dienen voor onze acties om het risico te beperken dat bedreigingsactoren, waaronder APT's (advanced persistent threats), APM's (advanced persistent manipulators) en cybercriminele syndicaten, AI-platforms en API's gebruiken. Deze principes bestaan onder andere uit identificatie van en actie tegen het gebruik van AI door kwaadwillende bedreigingsactoren, kennisgeving aan andere AI-dienstverleners, samenwerking met andere belanghebbenden en transparantie.
Ook al variëren de motieven en geavanceerdheid van bedreigingsactoren, toch hebben ze gemeenschappelijke taken bij het inzetten van aanvallen. Hieronder vallen verkenningen, zoals het onderzoeken van de industrieën, locaties en relaties van potentiële slachtoffers; codering, waaronder het verbeteren van softwarescripts en het ontwikkelen van malware; en hulp bij het leren en gebruiken van zowel menselijke als machinetalen.
In samenwerking met OpenAI delen we bedreigingsinformatie over gedetecteerde, aan de staat gelieerde aanvallers - getraceerd als Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Typhoon en Salmon Typhoon - die LLM's gebruiken om cyberoperaties uit te breiden.
Het doel van de samenwerking van Microsoft met OpenAI is om te zorgen voor een veilig en verantwoord gebruik van AI-technologieën zoals ChatGPT, waarbij de hoogste normen voor ethische toepassing worden gehandhaafd om de gemeenschap te beschermen tegen mogelijk misbruik.
Emerald Sleet maakte gebruik van LLM's door onderzoek te doen naar denktanks en experts op het gebied van Noord-Korea, maar ook door inhoud te genereren die waarschijnlijk gebruikt zou worden in spear phishing campagnes. Emerald Sleet had ook contact met LLM's om inzicht te krijgen in openbaar bekende kwetsbaarheden, om technische problemen op te lossen en voor hulp bij het gebruik van verschillende webtechnologieën.
Een andere door China gesteunde groep, Salmon Typhoon, heeft in 2023 de effectiviteit onderzocht van het gebruik van LLM's om informatie te verkrijgen over mogelijk gevoelige onderwerpen, belangrijke personen, regionale geopolitiek, de invloed van de VS en interne aangelegenheden. Deze voorlopige betrokkenheid bij LLM's kan zowel duiden op een verbreding van de hulpmiddelen voor het verzamelen van inlichtingen als op een experimentele fase in het beoordelen van de mogelijkheden van opkomende technologieën.
We hebben maatregelen genomen om bedrijfsmiddelen en accounts die in verband worden gebracht met deze bedreigingsactoren te verstoren en de veiligheidsmaatregelen en -mechanismen rond onze modellen vorm te geven.
AI-gestuurde fraude is een ander belangrijk aandachtspunt. Spraaksynthese is hier een voorbeeld van, waarbij een stemvoorbeeld van drie seconden een model kan trainen om te klinken als wie dan ook. Zelfs iets onschuldigs als je voicemail begroeting kan voldoende zijn.
Veel van de manier waarop we met elkaar communiceren en zaken doen is afhankelijk van identiteitscontrole, zoals het herkennen van iemands stem, gezicht, e-mailadres of schrijfstijl.
Het is van cruciaal belang dat we begrijpen hoe kwaadwillende actoren AI gebruiken om bestaande systemen voor identiteitscontrole te ondermijnen, zodat we complexe fraudegevallen en andere opkomende social engineering-bedreigingen die identiteiten verbergen, kunnen aanpakken.
AI kan ook worden gebruikt om bedrijven te helpen bij het verstoren van fraudepogingen. Hoewel Microsoft de samenwerking met een bedrijf in Brazilië verbrak, detecteerden onze AI-systemen pogingen van het bedrijf om zichzelf opnieuw samen te stellen en opnieuw ons ecosysteem binnen te komen.
De groep probeerde voortdurend hun gegevens te verbergen, eigendomsverhoudingen te verhullen en opnieuw binnen te komen, maar onze AI-detecties gebruikten bijna een dozijn risicosignalen om het frauduleuze bedrijf te markeren en het te associëren met eerder herkend verdacht gedrag, waardoor de pogingen werden geblokkeerd.
Microsoft zet zich in voor verantwoordelijke, door mensen geleide AI met aandacht voor privacy en beveiliging, waarbij mensen toezicht houden, bezwaren evalueren en beleid en regelgeving interpreteren.
Microsoft detecteert een enorme hoeveelheid kwaadaardig verkeer - meer dan 65 biljoen cyberbeveiligingssignalen per dag. AI vergroot ons vermogen om deze informatie te analyseren en ervoor te zorgen dat de meest waardevolle inzichten aan het licht komen om bedreigingen te stoppen. We gebruiken deze signaalinformatie ook om Generative AI aan te sturen voor geavanceerde bescherming tegen bedreigingen, gegevensbeveiliging en identiteitsbeveiliging om beschermers te helpen detecteren wat anderen missen.
Microsoft gebruikt verschillende methoden om zichzelf en klanten te beschermen tegen cyberbedreigingen, waaronder AI-gebaseerde bedreigingsdetectie om veranderingen te ontdekken in hoe bronnen of verkeer op het netwerk worden gebruikt; gedragsanalyse om riskante aanmeldingen en afwijkend gedrag te detecteren; machine learning (ML) modellen om riskante aanmeldingen en malware te detecteren; Zero Trust modellen waarbij elk verzoek om toegang volledig moet worden geverifieerd, geautoriseerd en versleuteld; en verificatie van de conditie van apparaten voordat een apparaat verbinding kan maken met een bedrijfsnetwerk.
Omdat bedreigingsactoren begrijpen dat multifactor authenticatie (MFA) rigoureus wordt gebruikt door Microsoft om zichzelf te beschermen - zijn al onze medewerkers ingesteld op MFA of wachtwoordloze beveiliging - we hebben ingezien dat aanvallers social engineering toepassen in een poging onze medewerkers te compromitteren.
Hot spots hiervoor zijn gebieden waar dingen van waarde worden overgebracht, zoals gratis proefprojecten of promotieprijzen van diensten of producten. In deze gebieden is het niet winstgevend voor aanvallers om één abonnement per keer te stelen, dus proberen ze deze aanvallen operationeel uit te voeren en op te schalen zonder ontdekt te worden.
Natuurlijk bouwen we AI-modellen om deze aanvallen te detecteren voor Microsoft en onze klanten. We detecteren valse studenten en schoolaccounts, valse bedrijven of organisaties die hun firmografische gegevens hebben gewijzigd of hun ware identiteit hebben verborgen om sancties of controles te omzeilen of eerdere criminele overtredingen te verbergen zoals veroordelingen voor corruptie, pogingen tot diefstal enzovoorts.
Het gebruik van GitHub Copilot, Microsoft Security Copilot en andere copilot chatfuncties die geïntegreerd zijn in onze interne technische en operationele infrastructuur, helpt incidenten te voorkomen die van invloed kunnen zijn op je activiteiten.
Om e-mailbedreigingen tegen te gaan, verbetert Microsoft de mogelijkheden om signalen te verzamelen naast de samenstelling van een e-mail om te begrijpen of deze kwaadaardig is. Nu AI in handen is van bedreigingsactoren, is er een toevloed van perfect geschreven e-mails die verbeteringen aanbrengen in de voor de hand liggende taal- en grammaticafouten die phishingpogingen vaak duidelijk maken, waardoor phishingpogingen moeilijker te detecterenzijn.
Voortdurende educatie van werknemers en campagnes om het publiek bewust te maken zijn nodig om social engineering te bestrijden, de enige invloed die voor 100 procent afhankelijk is van menselijke fouten. De geschiedenis heeft ons geleerd dat effectieve campagnes om het publiek bewust te maken gedrag veranderen.
Microsoft verwacht dat de social engineering-tactieken door AI zullen evolueren, waardoor geavanceerdere aanvallen ontstaan, waaronder deepfakes en het klonen van stemmen, vooral als aanvallers merken dat AI-technologieën werken zonder verantwoorde praktijken en ingebouwde beveiligingscontroles.
Preventie is essentieel bij het bestrijden van alle cyberbedreigingen, of ze nu van traditionele of AI-gebaseerde aard zijn.
Meer inzichten rondom AI krijg je van Homa Hayatafar, Principal Data and Applied Science Manager, Detection Analytics Manager.
Traditionele hulpmiddelen kunnen de bedreigingen van cybercriminelen niet meer bijhouden. De toenemende snelheid, schaal en geavanceerdheid van recente cyberaanvallen vragen om een nieuwe benadering van beveiliging. Bovendien is het, gezien het tekort aan cyberbeveiligingspersoneel en de toenemende frequentie en ernst van cyberbedreigingen, van groot belang om deze vaardigheidskloof te overbruggen.
AI kan de balans laten omslaan voor beschermers. Een recent onderzoek naar Microsoft Security Copilot (momenteel in previewtests bij klanten) liet zien dat beveiligingsanalisten sneller en nauwkeuriger werken, ongeacht hun expertiseniveau, bij veelvoorkomende taken zoals het identificeren van scripts die door aanvallers worden gebruikt, het maken van incidentrapporten en het identificeren van de juiste herstelstappen.1
Volg Microsoft Beveiliging