De snelheid waarmee data door je organisatie stroomt, bepaalt grotendeels het succes van gebruik van die data. Directe toegang tot actuele, relevante informatie zorgt voor de beste en snelste besluitvorming. In een omgeving waar snelle data het verschil maakt tussen een succesvolle productie en een verspilling van inzet en grondstoffen, is het voorkomen van hoge data latency van cruciaal belang. Wat kun je als organisatie doen om het te voorkomen?
Dat is niet de minste uitdaging. De groeiende berg data is niet per se een resultaat van mensen die meer data genereren. De gegevens komen met name van systemen binnen organisaties. Denk daarbij aan het Internet of Things, waarbij allerlei machines en sensoren zelf data creëren en verzenden. Die data is vaak niet ‘zomaar’ bruikbaar; niet elke computer spreekt namelijk dezelfde taal. In 2013 waren er nog ‘slechts’ 162 verschillende data formats. Zes jaar later was dat al verdubbeld, naar 341 in 2019. Toch zijn organisaties afhankelijk van gebruik van al die data, die in verschillende silo’s liggen maar toch vergeleken of gecombineerd moeten worden. Dat helpt de verwerkingssnelheid niet, terwijl we op zoek zijn naar een zo laag mogelijke data latency. Daarom de vraag: hoe lossen organisaties dat op?
Een modern, overkoepelend dataplatform kan uitkomst bieden. Robert Eggermont, salesmanager bij InterSystems, legt in drie punten uit hoe zo’n dataplatform ervoor zorgt dat data zo snel mogelijk door de organisatie stroomt.
1. Alle data is welkom
Een dataplatform dat zich focust op een zo laag mogelijke data latency, zorgt ervoor dat alle data zo eenvoudig mogelijk te vinden is. Dat houdt in dat alle verschillende soorten gegevens in dit overkoepelende dataplatform te vinden zijn, en dat je geen complexe programma’s hoeft te gebruiken om verschillende datasilo’s op te zoeken en daar data uit te oogsten. Het is logisch dat je minder latency krijgt als je minder verschillende programma’s in je systeem hebt draaien.
2. Interoperabiliteit en analyse
Interoperabiliteit is een enorm hoge prioriteit voor moderne dataplatformen. Wat heb je er immers aan om alle verschillende dataformats op te halen en in te laden, om vervolgens lastige omwegen te moeten zoeken om die data samen te brengen en bruikbaar te maken? Stel, je hebt een machine die data genereert van format X, en je machine learning algoritme heeft format Y als input nodig. Je platform zorgt voor een soort vertaalslag die de verschillende systemen samen kan laten werken. Analyse van data, en het trekken van conclusies die je organisatie verder helpen, is namelijk alleen mogelijk als de data vergelijkbaar is. Een dataplatform helpt je me het behouden van overzicht, en regelt dat de verschillende soorten data elkaar verstaan. Zo behoud je een zo laag mogelijke data latency.
3. Betrouwbaarheid
De ergste vorm van latency is misschien wel de vertraging die ontstaat door systemen die ‘downtime’ hebben en simpelweg niet werken, of door andere technische mankementen in de programma’s. Hoe meer verschillende systemen bij een dataketen betrokken zijn, des te groter is de kans op deze kwalen. De betrouwbaarheid van één bewezen platform voorkomt zulke kostbare downtime.
Van inzicht naar actie
Data ophalen, inladen en analyseren heeft alleen zin als die data als input gaat dienen voor een (liefst belangrijk) bedrijfsproces. Op z’n simpelst gezegd brengt succesvol datagebruik je van inzicht naar actie. En de beste manier om dat te doen is om een proces te vinden waarin dat proces schaalbaar is, dus geen aparte oplossing per toepassing is. Het hoort een flexibele oplossing te zijn, een omgeving waarin je niet aan een dataformat of licentie gebonden bent. Die interoperabiliteit is immers van cruciaal belang. Er is data genoeg in de wereld, en dataplatforms zijn er om succesvol van die data gebruik te maken.
16 mei 2024 Praktische en interactieve workshop met Nigel Turner Data-gedreven worden lukt niet door alleen nieuwe technologie en tools aan te schaffen. Het vereist een transformatie van bestaande business modellen, met cultuurverandering, een heront...
29 - 31 mei 2024Praktische driedaagse workshop met internationaal gerenommeerde spreker Alec Sharp over herkennen, beschrijven en ontwerpen van business processen. De workshop wordt ondersteund met praktijkvoorbeelden en duidelijke, herbruikbare rich...
3 t/m 5 juni 2024Praktische workshop met internationaal gerenommeerde spreker Alec Sharp over het modelleren met Entity-Relationship vanuit business perspectief. De workshop wordt ondersteund met praktijkvoorbeelden en duidelijke, herbruikbare richtl...
10 t/m 12 juni 2024 Praktische workshop Data Management Fundamentals door Chris Bradley - CDMP-examinatie optioneel De DAMA DMBoK2 beschrijft 11 disciplines van Data Management, waarbij Data Governance centraal staat. De Certified Data Managem...
14 juni 2024 (halve dag online) Praktische en interactieve workshop met Nigel Turner In ons digitale tijdperk willen veel organisaties datagedreven worden en investeren zij fors in nieuwe technologieën om dit mogelijk te maken. Maar deze ...
17 t/m 19 juni 2024Praktische driedaagse workshop met internationaal gerenommeerde trainer Lawrence Corr over het modelleren Datawarehouse / BI systemen op basis van dimensioneel modelleren. De workshop wordt ondersteund met vele oefeningen en prakti...
15 oktober 2024 Workshop met BPM-specialist Christian Gijsels over AI-Gedreven Business Analyse met ChatGPT. Kunstmatige Intelligentie, ongetwijfeld een van de meest baanbrekende technologieën tot nu toe, opent nieuwe deuren voor analisten met i...
17 oktober 2024 Praktische workshop Datavisualisatie - Dashboards en Data Storytelling. Hoe gaat u van data naar inzicht? En hoe gaat u om met grote hoeveelheden data, de noodzaak van storytelling en data science? Lex Pierik behandelt de stromingen i...
Deel dit bericht