Column - Chatten met OpenAI

Door Lex Borger 17 feb 2023

Tijdens de voorbereiding op deze column werd er een bètaversie van de nieuwe versie van de chatfunctie op OpenAI.com gelanceerd. Ik heb jaren geleden eens een misser begaan door niet te herkennen welke invloed AI (Artificial Intelligence) zou hebben op ons vakgebied. Het is mij duidelijk dat de toepassing van AI in informatiebeveiliging cruciaal is. De OpenAI chat liet mij twee dingen zien. Ten eerste: AI is heel ver gekomen, maar mist de boot bij het trekken van conclusies. Ik probeerde de zelftest en vroeg de chatbot “Schrijf een column van 500 woorden voor een vakblad over informatiebeveiliging over het gebruik van kunstmatige intelligentie in cybersecurity.” Dit was het antwoord, vertaald met behulp van Google Translate:

“Kunstmatige intelligentie (AI) heeft het potentieel om een revolutie teweeg te brengen op het gebied van cyberbeveiliging door computers in staat te stellen menselijke vermogens na te bootsen om gegevens te analyseren en te interpreteren. Met de groeiende afhankelijkheid van technologie en de toenemende complexiteit van cyberdreigingen, is het gebruik van AI in cyberbeveiliging de laatste jaren steeds gangbaarder geworden.

Een groot voordeel van het gebruik van AI in cyberbeveiliging is de mogelijkheid om grote hoeveelheden gegevens snel en nauwkeurig te analyseren. Security professionals raken overweldigd door de enorme hoeveelheid gegevens die ze moeten analyseren om potentiële bedreigingen te identificeren. AI-algoritmen daarentegen kunnen deze gegevens veel sneller doorzoeken en patronen en anomalieën aan het licht brengen die erop kunnen wijzen dat een cyberaanval op handen is.

Een ander voordeel is het vermogen om te leren en zich in de loop van de tijd aan te passen. Naarmate cyberdreigingen evolueren en geavanceerder worden, kan de traditionele aanpak minder effectief worden. AI-algoritmen kunnen echter leren van ervaringen uit het verleden en zich aanpassen aan nieuwe dreigingen, waardoor ze een waardevol hulpmiddel worden in de strijd tegen cybercriminaliteit.

Een voorbeeld van hoe AI wordt gebruikt in cyberbeveiliging is op het gebied van netwerkbeveiliging. AI-algoritmen kunnen netwerkverkeer in realtime analyseren en patronen en afwijkingen identificeren die op een mogelijke cyberaanval kunnen wijzen. Deze algoritmen kunnen worden getraind om de kenmerken van bekende malware te herkennen, waardoor het gemakkelijker wordt om kwaadaardige software te detecteren en de verspreiding ervan te voorkomen. AI wordt ook gebruikt om de nauwkeurigheid van dreigingsinformatie te verbeteren. Traditionele dreigingsinformatiesystemen vertrouwen op menselijke analisten om gegevens te interpreteren en potentiële bedreigingen te identificeren. Dit kan een tijdrovend en foutgevoelig proces zijn, omdat analisten mogelijk niet over de nodige deelexpertise beschikken of belangrijke gegevens over het hoofd zien. AI-algoritmen daarentegen kunnen gegevens uit meerdere bronnen analyseren en zorgen voor meer nauwkeurige en meer uitgebreide informatie over bedreigingen.

Ondanks de vele genoemde voordelen zijn er ook enkele zorgen die moeten worden aangepakt. Een punt is het potentieel van AI-algoritmen om vooroordelen te
bestendigen die aanwezig zijn in de gegevens die worden gebruikt om ze te trainen. Dit kan leiden tot oneerlijke of discriminerende resultaten, zoals het markeren van bepaalde soorten netwerkverkeer als verdacht op basis van stereotypen of vooroordelen.

Een andere zorg is de mogelijkheid dat AI voor kwaadaardige doeleinden wordt gebruikt. Cybercriminelen kunnen proberen AI te gebruiken om hun aanvallen te automatiseren of traditionele maatregelen te omzeilen. Om deze risico's te beperken, is het belangrijk voor organisaties om de beveiliging van alle AI-systemen die ze gebruiken zorgvuldig te evalueren en passende waarborgen te implementeren.

Concluderend biedt het gebruik van AI in cyberbeveiliging veel voordelen, waaronder de mogelijkheid om grote hoeveelheden gegevens snel en nauwkeurig te analyseren, en het vermogen om zich aan te passen en te leren naarmate cyberdreigingen zich ontwikkelen. Het is echter belangrijk voor organisaties om de potentiële risico's zorgvuldig te overwegen en passende waarborgen te implementeren om ervoor te zorgen dat AI op een verantwoorde en ethische manier wordt gebruikt.

En juist die conclusie laat nog de achterstand van de intelligentie zien: het is niet aan iedere organisatie om te beslissen AI wel of niet te gebruiken, want je kunt niet de enige zijn die geen AI gebruikt en je bent zeker niet opgewassen tegen een tegenstander die AI gebruikt wanneer jij dat niet doet. Het is aan de samenleving om te beslissen hoe we omgaan met AI. Pandora’s doos is geopend, terugstoppen lukt niet meer.


Lex Borger
security consultant bij Tesorion en oud-hoofdredacteur van iB-Magazine.
Lex is bereikbaar via lex.borger@tesorion.nl

Deze column verscheen in IB1-2023.