Datamanagement: back-up en beveiliging belangrijker in AI-tijdperk
Volgens IDC’s Global DataSphere Forecast groeit het wereldwijde datavolume in 2028 tot 393,9 zettabytes. Deze toename zet de continuïteit, gegevensbescherming, governance en de kosten daarvan steeds meer onder druk. Hierdoor wordt veerkracht een economisch vraagstuk, omdat elke extra dataset die organisaties bewaren en beschermen de kosten verhoogt voor opslag, back-up, compliance en de kwaliteit en herstel van AI-systemen.
Nu World Backup Day en World Cloud Security Day eraan komen, is het niet meer de vraag of bedrijven meer data back-uppen of maatregelen voor cloudbeveiliging implementeren. Het gaat erom of die investeringen de continuïteit op een economisch duurzame manier verbeteren. Back-up mag niet worden beschouwd als een verzekering die zich oneindig uitbreidt. Zonder een duidelijk bewaarbeleid en governancekader worden programma’s voor data-resilience financieel belastend, operationeel omslachtig en ook moeilijker te rechtvaardigen. De prioriteit moet liggen bij het beschermen van de juiste data, op het juiste niveau, voor de juiste herstelresultaten wanneer zich een storing voordoet.
Goed bestuur leidt tot focus op veerkracht
Inzicht in de eigen dataomgeving is de basis voor effectieve data-resilience. Organisaties moeten duidelijkheid hebben over welke data er is, hoe deze wordt gebruikt en welke herstelverwachtingen gelden. Zonder dat inzicht wordt alles al snel als even belangrijk beschouwd, wat leidt tot overgedimensioneerde back-upomgevingen en onduidelijke herstelprioriteiten. Met alle kosten en risico’s vandien.
Governance biedt de structuur die organisaties in staat stelt prioriteit te geven aan bescherming. Wanneer datasets worden geclassificeerd op basis van hun impact op de bedrijfsvoering, kunnen de beschermingsniveaus daar bewust op worden afgestemd. Andere datasets kunnen dan worden beschermd met goedkopere beveiligingsmethoden, of gedurende kortere perioden worden bewaard.
Bepalen wat cruciaal is, is echter niet alleen een technische kwestie. Het hangt af van zakelijke verplichtingen en de gevolgen van verstoringen, zoals sancties van toezichthouders, contractuele verplichtingen, operationele risico’s of reputatieschade. Wanneer organisaties beslissingen over veerkracht vanuit een governance-perspectief nemen, worden databescherming en -behoud bewuste keuzes die zijn afgestemd op bedrijfsrisico’s in plaats van standaard IT-configuraties en -policies.
Stop met dubbel betalen
Als de prioriteiten op het gebied van governance onduidelijk zijn, kiezen veel organisaties ervoor om data te bewaren en te back-uppen ‘voor het geval dat’. Na verloop van tijd leidt die aanpak echter tot het bewaren en beveiligen van grote hoeveelheden informatie die weinig operationele waarde opleveren.
Onderzoek van het Veritas Global Databerg Report suggereert dat tot wel 85 procent van alle opgeslagen data mogelijk ‘dark data’, redundant, verouderd of triviaal (ROT) is. Toch blijven organisaties deze data opslaan en beveiligen, waardoor back-upsets steeds groter worden en het herstelproces complexer. Grotere back-upomgevingen vereisen dat er meer data wordt gevalideerd en hersteld voordat de vertrouwde processen kunnen worden hervat. De impact hiervan reikt verder dan alleen de infrastructuurkosten.
In organisaties die AI-gestuurde workflows implementeren, worden de gevolgen versterkt. Slecht beheerde data stroomt vaak direct naar analysepipelines en AI-modellen, wat ruis introduceert en de betrouwbaarheid van inzichten vermindert. Het resultaat is een vicieuze cirkel waarin organisaties ‘dubbel betalen’ door eerst te investeren in het opslaan en beveiligen van data met weinig toegevoegde waarde en daarna opnieuw te investeren om de problemen op te lossen die deze data in de daaropvolgende systemen veroorzaakt.
Herstelprocedures testen genomen beslissingen
Governancestrategieën zijn alleen relevant als ze betrouwbare herstelresultaten opleveren. Regelmatige tests van herstelprocedures valideren of de beveiligingslagen daadwerkelijk aansluiten bij de prioriteiten. Deze tests brengen cruciale inzichten aan het licht, zoals gegevens die wel zijn geback-upt maar niet hebben bijgedragen aan het herstel, of systemen die een sterkere bescherming nodig hebben dan eerder werd aangenomen. Ze kunnen ook verborgen afhankelijkheden in datapijplijnen blootleggen, waarbij de herkomst van data teams helpt om in de juiste volgorde te herstellen en zo vertrouwde processen te hervatten zonder alles te hoeven herstellen.
Managers kunnen maar een beperkt aantal indicatoren gebruiken om de benodigde focus te behouden. Deze indicatoren omvatten onder andere of de rampenherstelplannen wel regelmatig worden getest, of de hersteltijddoelstellingen duidelijk zijn gedefinieerd, of de tests consequent aan die doelstellingen voldoen en welke verbeteringen na elke cyclus worden doorgevoerd.
Na verloop van tijd ontstaat hierdoor een feedbacklus die het datamanagement versterkt. Inzichten uit hersteltests vormen dan de basis voor opschoonacties, beleidsupdates en operationele verbeteringen, waardoor organisaties hun back-upomgevingen efficiënt en afgestemd op de bedrijfsbehoeften kunnen houden.
Datawildgroei beperken bespaart kosten
In hybride en multi-cloudomgevingen zorgt ongecontroleerde replicatie voor een grote toename van de hoeveelheid data die beveiligd, beheerd en geback-upt moet worden. Dit verhoogt de totale kosten van AI-implementaties, omdat data verspreid raakt over te veel systemen, kopieën en onbeheerde paden.
Daarom is het belangrijk om de overdracht van data naar SaaS-platformen van derden en externe services te beschouwen als een weloverwogen governancebeslissing, en niet als een gemakzuchtige oplossing. Zodra data de beheerde omgevingen verlaat, neemt het inzicht af, worden controles moeilijker af te dwingen en wordt eventueel benodigd herstel lastiger te coördineren.
Consistentie tussen verschillende omgevingen is net zo belangrijk. On-premises en cloudplatformen moeten op dezelfde manier behandeld worden om te voorkomen dat data op een gefragmenteerde manier beheerd en beschermd wordt. Dit kan leiden tot dubbele datasets en overvolle back-upomgevingen. Open standaarden zoals het Iceberg REST Catalog-protocol kunnen hierbij helpen door de interoperabiliteit tussen engines en catalogi te verbeteren. Daardoor is het minder nodig om extra kopieën te maken om data op verschillende platforms bruikbaar te maken.
Het resultaat is minder duplicaten, een duidelijkere eigendomsstructuur en archivering, en zowel een kleinere als overzichtelijkere back-upomgeving. Deze is gemakkelijker te beheren en resulteert in lagere onderhoudskosten.
Wat managers hiervan kunnen leren
World Backup Day en World Cloud Security Day herinneren ons eraan dat veerkracht in moderne organisaties niet draait om het maken van meer kopieën van alle data, of het toevoegen van extra beveiligingsmaatregelen. Het gaat erom goed doordachte en gecontroleerde beslissingen te nemen, rekening houdend met alle kosten en risico’s.
Governance is het mechanisme dat de kosten voor back-ups helpt te optimaliseren, het herstelproces verkort en de betrouwbaarheid van AI-toepassingen verbetert. Hierdoor hoeven bedrijven geen hoge prijzen meer te betalen voor de bescherming van gegevens die ze niet begrepen, niet nodig hadden, of zelfs überhaupt niet hadden moeten bewaren.






