Denktank geeft adviezen voor toepassen AI in cybersecurity

ThinkTank-Mimecast-1080
 
Steeds meer organisaties maken kunstmatige intelligentie (AI) en machine learning (ML) onderdeel van hun IT-beveiligingsstrategie. De Cyber Resilience Think Tank , een internationale denktank van toonaangevende securityexperts, doet nu een aantal aanbevelingen voor een effectieve en veilige inzet van deze technologieën. 
 
Cybersecurity is een belangrijk toepassingsgebied van AI en ML. De technologie wordt bijvoorbeeld ingezet voor het detecteren van schadelijke e-mails en bestanden. Volgens onderzoek van Capgemini Research Institute maakte in 2019 al een vijfde van de organisaties wereldwijd gebruik van AI voor securitydoeleinden. Twee derde gaf aan dit in 2020 te willen doen.
 
De Cyber Resilience Think Tank is een initiatief van securityspecialist Mimecast . De denktank buigt zich meerdere keren per jaar over een actueel thema in de securitywereld. De inzichten van de experts worden gebundeld in een e-book. Dit keer lag de focus op toepassingen van AI en ML in cybersecurity. De Cyber Resilience Think Tank komt met een aantal concrete adviezen:
 
1. Integreer AI en automatisering in totale security
Veel bedrijven maken gebruik van cybersecuritytools waarin AI zit ingebouwd. Het is cruciaal dat deze oplossingen goed geïntegreerd zijn in de securityomgeving, zodat meldingen op de juiste manier worden geïnterpreteerd en opgevolgd. Diverse experts waarschuwen niet blind in actie te komen als de tool een aanvalspoging detecteert. Een te snelle respons terwijl er niks aan de hand is, kan immers de bedrijfsvoering verstoren. De denktank adviseert mede hierom een zorgvuldige vendorselectie met extra aandacht voor betrouwbaarheid.
 
2. Kies voor AI-technologie die complex menselijk gedrag doorgrondt
Een traditionele op regels gebaseerde beveiliging heeft moeite met het detecteren van geavanceerde, gerichte aanvallen. Het is praktisch onmogelijk om alle vereiste regels handmatig in te stellen. Automatisering met behulp van machine learning biedt uitkomst. De technologie helpt bij het verwerken van grote hoeveelheden data en neemt zo veel repetitief werk uit handen. De denktank benadrukt echter dat het lastig is om algoritmes te ontwikkelen die de nuances van menselijk gedrag ‘begrijpen’. Sommige vendoren zijn hierin verder dan andere.
 
3. Minimaliseer de risico’s voor de business
De denktank pleit ervoor het gebruik van AI mee te nemen in het risicomanagement. Een verkeerde beslissing van een AI-tool kan nadelige effecten hebben, zoals het tijdelijk niet beschikbaar zijn van systemen. Maar wellicht is dat risico acceptabel omdat de AI ook ransomware-aanvallen vroegtijdig detecteert en zo veel schade voorkomt. Naarmate de technologie volwassener wordt, zal de kans op fouten afnemen. Tot die tijd is de inzet van AI ook een risicoafweging: automatisering moet onder de streep wel zorgen voor efficiëntievoordelen.
 
4. Zoek naar de ROI van AI
Het gebruik van AI-tools kan de detectie van en respons op bedreigingen versnellen. Maar kijk bij het berekenen van de ROI ook naar het trainen van het machine learning-systeem. Een expert merkt op dat dit veel tijd en middelen in beslag neemt. Aan AI-tools van vendoren hangt vaak al een fors prijskaartje. Dat kan een reden zijn om te kiezen voor een leverancier die zijn AI-technologie zelf traint. De denktank adviseert om de vendor kritisch te benaderen. Kan de tool getest worden? Hoeveel moeite moet de klant doen voordat alles werkt?
 
5. Houd rekening met de privacyaspecten
AI-tools verzamelen en verwerken data die mogelijk privacygevoelig is. Moderne privacywetgeving bevat al ruime definities die ook van toepassing zijn op nieuwe vormen van dataverzameling. Sommige experts verwachten zelfs dat er een privacyrevolutie aan zit te komen. Bedrijven die hier nu al op anticiperen door verder te kijken dan de huidige regels, profiteren daar uiteindelijk van. Ook zit er vaak ‘bias’ in de input, het verwerkingsproces en de output. Dat kan ongewenste effecten hebben waar organisaties alert op dienen te zijn.
 
U kunt het volledige e-book van de Cyber Resilience Think Tank hier gratis lezen.
Lees ook
Voldemort threat update: het onderzoek dat niet genoemd mag worden

Voldemort threat update: het onderzoek dat niet genoemd mag worden

Naar aanleiding van het Voldemort malware threat research van 30 augustus delen analisten van Proofpoint nu nieuwe inzichten. De onderzoekers kunnen inmiddels de Voldemortcampagne toeschrijven aan een dreigingsgroep, namelijk de Chinese dreigingsgroep TA415. Deze groep is ook bekend als APT41 en Brass Typhoon.

Orange Cyberdefense: bedrijven te kwetsbaar bij Cyber Armageddon

Orange Cyberdefense: bedrijven te kwetsbaar bij Cyber Armageddon

Bedrijven zijn onvoldoende voorbereid op een grootschalige, wereldwijde cyberaanval. Een zogeheten ‘Cyber Armageddon’, waarbij veel grote organisaties tegelijkertijd getroffen worden, heeft daardoor ernstige gevolgen. Matthijs van der Wel-Ter Weel, strategisch adviseur bij Orange Cyberdefense, benadrukt het belang van goede voorbereidingen

Vijf stappen die organsaties helpen tegen cybercriminelen die AI gebruiken

Vijf stappen die organsaties helpen tegen cybercriminelen die AI gebruiken

AI biedt de maatschappij verschillende voordelen, maar helaas gebruiken cybercriminelen deze nieuwe technologie ook. Ervaren en onervaren cybercriminelen gebruiken AI, denk aan het efficiënter verzamelen van gegevens. Ook worden large language modellen ingezet om phishingberichten te maken.