IT-specialisten van NBCUniversal (NBCU) combineerden met succes hun op Splunk gebaseerd data- analyse platform met het Diamanti Kubernetes platform. Hogere prestaties, betere schaalbaarheid en vereenvoudiging van het beheer vormen het resultaat van de software/hardware combinatie.
De internationale maker en distributeur van film- en televisieproducties ervaart heel duidelijk de verschuiving in het bedrijfsmodel naar rechtstreekse digitale afname van de mediadiensten door consumenten. Om de nieuwe business technisch beter te ondersteunen was het concern als gestart met het samenbrengen van de interne softwareontwikkelaars en de mensen van de operationele dienstverlening. Containers en Kubernetes werden ingevoerd om de schaalbaarheid van applicaties te vergroten en de IT-processen flexibeler en veerkrachtig te maken.
Grenzen fysieke infrastructuur
De DevOps omgeving leunde zwaar op Splunk-applicaties. Het softwareplatform is in staat om alle door machines gegenereerde data in ongestructureerde vorm te ontsluiten, op te slaan en te structureren ten behoeve van een willekeurige reeks AI-gebaseerde analytische toepassingen. Het platform omvat een bibliotheek van pasklare apps die zich via API’s met een dataverzameling laten verbinden. Terwijl Splunk functioneel heel rijk is, kan het inrichten en implementeren als complex worden ervaren. De applicaties functioneren optimaal zolang de onderliggende infrastructurele IT-bronnen in lijn zijn met de topologie van een Splunk-cluster.
Aanvankelijk lieten bij NBCU de prestaties van de applicaties te wensen over. De architectuur had moeite met het opnemen en verwerken van 1 terabyte aan data per dag, waardoor de organisatie worstelde met een enorme achterstand; veel data bleef onverwerkt en het activeren van real-time acties was niet langer mogelijk. De grenzen van de fysieke infrastructuur waren bereikt. Software liet zich niet op grote schaal in gebruik nemen.
Test met Splunk-referentiearchitectuur
De oplossing werd gevonden in een 32-node Diamanti cluster, voorzien van Intel CPU’s, met een verwerkingscapaciteit van 200 Terabyte aan data. De Splunk-applicaties werden overgezet naar ’bare-metal’ Kubernetes. Door het wegvallen van de virtualisatie overhead na het verwijderen van de hypervisors en andere overbodige abstractielagen, bleek het Diamanti platform in staat tot het verwerken van 1.000.000 I/O processen per seconde per 1U node. Zonder kostbare en gecompliceerde over-dimensionering van de infrastructuur gingen de prestaties van de Splunk applicaties met sprongen omhoog. Het resultaat: in plaats van 1 terabyte per dag aan data verwerkt NBCU nu 1 terabyte per uur. De oorspronkelijke fysieke IT-infrastructuur liet zich met een zesde inkrimpen, waardoor de IT-afdeling bespaarde op: elektrische voeding; koelcapaciteit; rackruimte in het datacenter; meerkosten voor monitoring en onderhoud. Het mediaconcern becijfert dat ze de TCO voor de Splunk gerelateerde IT-infrastructuur met 80 procent heeft verlaagd.
Gedurende de afgelopen maand augustus heeft Diamanti een onafhankelijk Splunk expertisebureau gevraagd om de meerwaarde van haar Kubernetes-platform te valideren voor Splunk-applicaties. Dit bureau, de Kinney Group, levert sedert 2013 diensten rondom Splunk aan het bedrijfsleven en overheidsorganisaties. De Splunk-experts concludeerden na een uitgebreide test van een Splunk-referentiearchitectuur op zowel het Diamanti-platform als op het public cloud platform van AWS, dat Splunk-gebruikers zowel qua prestaties als qua kosten beter uit zijn met de Diamanti cloudoplossing.
7 november (online seminar op 1 middag)Praktische tutorial met Alec Sharp Alec Sharp illustreert de vele manieren waarop conceptmodellen (conceptuele datamodellen) procesverandering en business analyse ondersteunen. En hij behandelt wat elke data-pr...
11 t/m 13 november 2024Praktische driedaagse workshop met internationaal gerenommeerde trainer Lawrence Corr over het modelleren Datawarehouse / BI systemen op basis van dimensioneel modelleren. De workshop wordt ondersteund met vele oefeningen en pr...
18 t/m 20 november 2024Praktische workshop met internationaal gerenommeerde spreker Alec Sharp over het modelleren met Entity-Relationship vanuit business perspectief. De workshop wordt ondersteund met praktijkvoorbeelden en duidelijke, herbruikbare ...
26 en 27 november 2024 Organisaties hebben behoefte aan data science, selfservice BI, embedded BI, edge analytics en klantgedreven BI. Vaak is het dan ook tijd voor een nieuwe, toekomstbestendige data-architectuur. Dit tweedaagse seminar geeft antwoo...
De DAMA DMBoK2 beschrijft 11 disciplines van Data Management, waarbij Data Governance centraal staat. De Certified Data Management Professional (CDMP) certificatie biedt een traject voor het inleidende niveau (Associate) tot en met hogere niveaus van...
3 april 2025 (halve dag)Praktische workshop met Alec Sharp [Halve dag] Deze workshop door Alec Sharp introduceert conceptmodellering vanuit een non-technisch perspectief. Alec geeft tips en richtlijnen voor de analist, en verkent datamodellering op c...
10, 11 en 14 april 2025Praktische driedaagse workshop met internationaal gerenommeerde spreker Alec Sharp over herkennen, beschrijven en ontwerpen van business processen. De workshop wordt ondersteund met praktijkvoorbeelden en duidelijke, herbruikba...
15 april 2025 Praktische workshop Datavisualisatie - Dashboards en Data Storytelling. Hoe gaat u van data naar inzicht? En hoe gaat u om met grote hoeveelheden data, de noodzaak van storytelling en data science? Lex Pierik behandelt de stromingen in ...
Deel dit bericht