IT-specialisten van NBCUniversal (NBCU) combineerden met succes hun op Splunk gebaseerd data- analyse platform met het Diamanti Kubernetes platform. Hogere prestaties, betere schaalbaarheid en vereenvoudiging van het beheer vormen het resultaat van de software/hardware combinatie.
De internationale maker en distributeur van film- en televisieproducties ervaart heel duidelijk de verschuiving in het bedrijfsmodel naar rechtstreekse digitale afname van de mediadiensten door consumenten. Om de nieuwe business technisch beter te ondersteunen was het concern als gestart met het samenbrengen van de interne softwareontwikkelaars en de mensen van de operationele dienstverlening. Containers en Kubernetes werden ingevoerd om de schaalbaarheid van applicaties te vergroten en de IT-processen flexibeler en veerkrachtig te maken.
Grenzen fysieke infrastructuur
De DevOps omgeving leunde zwaar op Splunk-applicaties. Het softwareplatform is in staat om alle door machines gegenereerde data in ongestructureerde vorm te ontsluiten, op te slaan en te structureren ten behoeve van een willekeurige reeks AI-gebaseerde analytische toepassingen. Het platform omvat een bibliotheek van pasklare apps die zich via API’s met een dataverzameling laten verbinden. Terwijl Splunk functioneel heel rijk is, kan het inrichten en implementeren als complex worden ervaren. De applicaties functioneren optimaal zolang de onderliggende infrastructurele IT-bronnen in lijn zijn met de topologie van een Splunk-cluster.
Aanvankelijk lieten bij NBCU de prestaties van de applicaties te wensen over. De architectuur had moeite met het opnemen en verwerken van 1 terabyte aan data per dag, waardoor de organisatie worstelde met een enorme achterstand; veel data bleef onverwerkt en het activeren van real-time acties was niet langer mogelijk. De grenzen van de fysieke infrastructuur waren bereikt. Software liet zich niet op grote schaal in gebruik nemen.
Test met Splunk-referentiearchitectuur
De oplossing werd gevonden in een 32-node Diamanti cluster, voorzien van Intel CPU’s, met een verwerkingscapaciteit van 200 Terabyte aan data. De Splunk-applicaties werden overgezet naar ’bare-metal’ Kubernetes. Door het wegvallen van de virtualisatie overhead na het verwijderen van de hypervisors en andere overbodige abstractielagen, bleek het Diamanti platform in staat tot het verwerken van 1.000.000 I/O processen per seconde per 1U node. Zonder kostbare en gecompliceerde over-dimensionering van de infrastructuur gingen de prestaties van de Splunk applicaties met sprongen omhoog. Het resultaat: in plaats van 1 terabyte per dag aan data verwerkt NBCU nu 1 terabyte per uur. De oorspronkelijke fysieke IT-infrastructuur liet zich met een zesde inkrimpen, waardoor de IT-afdeling bespaarde op: elektrische voeding; koelcapaciteit; rackruimte in het datacenter; meerkosten voor monitoring en onderhoud. Het mediaconcern becijfert dat ze de TCO voor de Splunk gerelateerde IT-infrastructuur met 80 procent heeft verlaagd.
Gedurende de afgelopen maand augustus heeft Diamanti een onafhankelijk Splunk expertisebureau gevraagd om de meerwaarde van haar Kubernetes-platform te valideren voor Splunk-applicaties. Dit bureau, de Kinney Group, levert sedert 2013 diensten rondom Splunk aan het bedrijfsleven en overheidsorganisaties. De Splunk-experts concludeerden na een uitgebreide test van een Splunk-referentiearchitectuur op zowel het Diamanti-platform als op het public cloud platform van AWS, dat Splunk-gebruikers zowel qua prestaties als qua kosten beter uit zijn met de Diamanti cloudoplossing.
2 april 2025 Schrijf in voor al weer de twaalfde editie van ons jaarlijkse congres met wederom een ijzersterke sprekers line-up. Op deze editie behandelen wij belangrijke thema’s als Moderne (Native-Cloud) Data Architecturen, Datawarehouse Desi...
3 april 2025 (halve dag)Praktische workshop met Alec Sharp [Halve dag] Deze workshop door Alec Sharp introduceert conceptmodellering vanuit een non-technisch perspectief. Alec geeft tips en richtlijnen voor de analist, en verkent datamodellering op c...
3 april 2025 Deze workshop met Winfried Etzel behandelt de centrale pijler van Data Mesh: Federated Data Governance. Hoe zorg je voor een goede balans tussen autonomie en centrale regie? Praktische workshop van een halve dag op 3 april in Utre...
3 april 2025 In de snel veranderende wereld van vandaag is het effectief benutten en beheren van gegevens een kritieke succesfactor voor organisaties. Deze cursus biedt een fundamenteel begrip van Master Data Management (MDM) en de centrale ro...
7 t/m 9 april 2025Praktische workshop met internationaal gerenommeerde spreker Alec Sharp over het modelleren met Entity-Relationship vanuit business perspectief. De workshop wordt ondersteund met praktijkvoorbeelden en duidelijke, herbruikbare richt...
10, 11 en 14 april 2025Praktische driedaagse workshop met internationaal gerenommeerde spreker Alec Sharp over herkennen, beschrijven en ontwerpen van business processen. De workshop wordt ondersteund met praktijkvoorbeelden en duidelijke, herbruikba...
15 april 2025 Praktische workshop Datavisualisatie - Dashboards en Data Storytelling. Hoe gaat u van data naar inzicht? En hoe gaat u om met grote hoeveelheden data, de noodzaak van storytelling en data science? Lex Pierik behandelt de stromingen in ...
14 en 15 mei 2025 Organisaties hebben behoefte aan data science, selfservice BI, embedded BI, edge analytics en klantgedreven BI. Vaak is het dan ook tijd voor een nieuwe, toekomstbestendige data-architectuur. Dit tweedaagse seminar geeft antwoord op...
Deel dit bericht