Zonder de juiste cyberbeveiliging is AI een gok met grote inzet
Het debat over artificial intelligence (AI) woedt voort. Tech-bedrijven liggen onder een vergrootglas vanwege AI-gestuurde sociale media of twijfelachtige consumententools. Het is goed dat we deze ontwikkelingen ter discussie stellen.
Maar terwijl we al volop gebruikmaken van generative AI, blijft één essentieel vraagstuk onder de radar: de veiligheid van AI zelf. In de week dat de Cyber Resilience Act (CRA) in werking treedt, is het goed om dit risico onder ogen te zien. De CRA stelt cybersecurity-eisen aan producten met digitale elementen, waaronder hardware en software.
Kunstmatige intelligentie is niet een hype die overwaait. Integendeel. Onze samenleving heeft dringend behoefte aan meer efficiëntie, bijvoorbeeld om personeelstekorten op te vangen. Met AI kunnen we hierin forse stappen zetten. Met behulp van AI stellen we diagnoses bij patiënten en toetsen we transacties in het bankwezen op fraude. Er is echter ook een keerzijde van AI. Want naarmate we AI meer controle geven over taken, nemen de gevolgen van een cyberaanval exponentieel toe. Het is verontrustend dat sommige AI-toepassingen even kwetsbaar als krachtig zijn. Zijn we voorbereid op deze risico’s?
Misleiden
De kwetsbaarheid van AI uit zich op twee manieren, die beide samenhangen met AI-modellen. Dit zijn slimme computerprogramma’s die zijn getraind om bepaalde taken uit te voeren, zoals het herkennen van beelden of het begrijpen van tekst. Hackers kunnen in de eerste plaats deze modellen misleiden om beveiligde informatie prijs te geven, bijvoorbeeld door medische databases uit te buiten of chatbots te manipuleren. In de tweede plaats kunnen zij de modellen zelf saboteren, waardoor de resultaten op een gevaarlijke manier worden verdraaid. Een door AI aangedreven auto die een stopbord interpreteert als ‘100 km/u’ illustreert hoe reëel de dreiging kan zijn. En naarmate AI zich uitbreidt, zal de lijst met mogelijke aanvallen en disrupties alleen maar groeien.
Toch zou het opgeven van AI vanwege deze risico’s de grootste fout van zijn. Het is beter om de kwetsbaarheden te erkennen en de risico’s als organisatie te mitigeren. Dit kan aan de hand van drie stappen:
Moeilijker te kraken
Kies verstandig voor AI. Niet alle AI is even kwetsbaar voor aanvallen. Grote taalmodellen zijn bijvoorbeeld zeer gevoelig omdat ze afhankelijk zijn van enorme datasets en statistische methoden. Maar andere soorten AI, zoals symbolische of hybride modellen, zijn minder data-intensief en werken volgens expliciete regels, waardoor ze moeilijker te kraken zijn.
Zet bewezen verdedigingsmethoden in. Tools zoals digitale watermerken, cryptografie en training op maat maken AI-modellen weerbaar. Maak bijvoorbeeld gebruik van stresstests om kwetsbaarheden te vinden en op te lossen voordat hackers deze kunnen misbruiken.
Verbeter de cyberbeveiliging van de organisatie. Als organisatie dien je bijvoorbeeld al aan de NIS2 wetgeving te voldoen. Deze richtlijn biedt talloze handvatten om de digitale weerbaarheid te versterken. En voor specifieke AI-security kun je handreikingen vinden in de AI-act van de Europese Unie.
Kwaadwillend en onwetend
De strijd rond kunstmatige intelligentie lijkt misschien een nieuw hoofdstuk in het voortdurende verhaal van kwaadwillenden tegenover onwetende slachtoffers. Maar dit keer is de inzet ongekend hoog. Zonder de veiligheid van AI serieus te nemen, dreigen we de controle uit handen te geven aan partijen die de technologie willen misbruiken om schade aan te richten. Dat kunnen we en moeten we voorkomen.