De snelheid waarmee data door je organisatie stroomt, bepaalt grotendeels het succes van gebruik van die data. Directe toegang tot actuele, relevante informatie zorgt voor de beste en snelste besluitvorming. In een omgeving waar snelle data het verschil maakt tussen een succesvolle productie en een verspilling van inzet en grondstoffen, is het voorkomen van hoge data latency van cruciaal belang. Wat kun je als organisatie doen om het te voorkomen?
Dat is niet de minste uitdaging. De groeiende berg data is niet per se een resultaat van mensen die meer data genereren. De gegevens komen met name van systemen binnen organisaties. Denk daarbij aan het Internet of Things, waarbij allerlei machines en sensoren zelf data creëren en verzenden. Die data is vaak niet ‘zomaar’ bruikbaar; niet elke computer spreekt namelijk dezelfde taal. In 2013 waren er nog ‘slechts’ 162 verschillende data formats. Zes jaar later was dat al verdubbeld, naar 341 in 2019. Toch zijn organisaties afhankelijk van gebruik van al die data, die in verschillende silo’s liggen maar toch vergeleken of gecombineerd moeten worden. Dat helpt de verwerkingssnelheid niet, terwijl we op zoek zijn naar een zo laag mogelijke data latency. Daarom de vraag: hoe lossen organisaties dat op?
Een modern, overkoepelend dataplatform kan uitkomst bieden. Robert Eggermont, salesmanager bij InterSystems, legt in drie punten uit hoe zo’n dataplatform ervoor zorgt dat data zo snel mogelijk door de organisatie stroomt.
1. Alle data is welkom
Een dataplatform dat zich focust op een zo laag mogelijke data latency, zorgt ervoor dat alle data zo eenvoudig mogelijk te vinden is. Dat houdt in dat alle verschillende soorten gegevens in dit overkoepelende dataplatform te vinden zijn, en dat je geen complexe programma’s hoeft te gebruiken om verschillende datasilo’s op te zoeken en daar data uit te oogsten. Het is logisch dat je minder latency krijgt als je minder verschillende programma’s in je systeem hebt draaien.
2. Interoperabiliteit en analyse
Interoperabiliteit is een enorm hoge prioriteit voor moderne dataplatformen. Wat heb je er immers aan om alle verschillende dataformats op te halen en in te laden, om vervolgens lastige omwegen te moeten zoeken om die data samen te brengen en bruikbaar te maken? Stel, je hebt een machine die data genereert van format X, en je machine learning algoritme heeft format Y als input nodig. Je platform zorgt voor een soort vertaalslag die de verschillende systemen samen kan laten werken. Analyse van data, en het trekken van conclusies die je organisatie verder helpen, is namelijk alleen mogelijk als de data vergelijkbaar is. Een dataplatform helpt je me het behouden van overzicht, en regelt dat de verschillende soorten data elkaar verstaan. Zo behoud je een zo laag mogelijke data latency.
3. Betrouwbaarheid
De ergste vorm van latency is misschien wel de vertraging die ontstaat door systemen die ‘downtime’ hebben en simpelweg niet werken, of door andere technische mankementen in de programma’s. Hoe meer verschillende systemen bij een dataketen betrokken zijn, des te groter is de kans op deze kwalen. De betrouwbaarheid van één bewezen platform voorkomt zulke kostbare downtime.
Van inzicht naar actie
Data ophalen, inladen en analyseren heeft alleen zin als die data als input gaat dienen voor een (liefst belangrijk) bedrijfsproces. Op z’n simpelst gezegd brengt succesvol datagebruik je van inzicht naar actie. En de beste manier om dat te doen is om een proces te vinden waarin dat proces schaalbaar is, dus geen aparte oplossing per toepassing is. Het hoort een flexibele oplossing te zijn, een omgeving waarin je niet aan een dataformat of licentie gebonden bent. Die interoperabiliteit is immers van cruciaal belang. Er is data genoeg in de wereld, en dataplatforms zijn er om succesvol van die data gebruik te maken.
7 november (online seminar op 1 middag)Praktische tutorial met Alec Sharp Alec Sharp illustreert de vele manieren waarop conceptmodellen (conceptuele datamodellen) procesverandering en business analyse ondersteunen. En hij behandelt wat elke data-pr...
11 t/m 13 november 2024Praktische driedaagse workshop met internationaal gerenommeerde trainer Lawrence Corr over het modelleren Datawarehouse / BI systemen op basis van dimensioneel modelleren. De workshop wordt ondersteund met vele oefeningen en pr...
18 t/m 20 november 2024Praktische workshop met internationaal gerenommeerde spreker Alec Sharp over het modelleren met Entity-Relationship vanuit business perspectief. De workshop wordt ondersteund met praktijkvoorbeelden en duidelijke, herbruikbare ...
26 en 27 november 2024 Organisaties hebben behoefte aan data science, selfservice BI, embedded BI, edge analytics en klantgedreven BI. Vaak is het dan ook tijd voor een nieuwe, toekomstbestendige data-architectuur. Dit tweedaagse seminar geeft antwoo...
De DAMA DMBoK2 beschrijft 11 disciplines van Data Management, waarbij Data Governance centraal staat. De Certified Data Management Professional (CDMP) certificatie biedt een traject voor het inleidende niveau (Associate) tot en met hogere niveaus van...
3 april 2025 (halve dag)Praktische workshop met Alec Sharp [Halve dag] Deze workshop door Alec Sharp introduceert conceptmodellering vanuit een non-technisch perspectief. Alec geeft tips en richtlijnen voor de analist, en verkent datamodellering op c...
10, 11 en 14 april 2025Praktische driedaagse workshop met internationaal gerenommeerde spreker Alec Sharp over herkennen, beschrijven en ontwerpen van business processen. De workshop wordt ondersteund met praktijkvoorbeelden en duidelijke, herbruikba...
15 april 2025 Praktische workshop Datavisualisatie - Dashboards en Data Storytelling. Hoe gaat u van data naar inzicht? En hoe gaat u om met grote hoeveelheden data, de noodzaak van storytelling en data science? Lex Pierik behandelt de stromingen in ...
Deel dit bericht