Nu Big Data en analytics hot topics zijn in de IT-wereld, staat ook de in-memory database stevig in de belangstelling.De in-memory technologie oogt een beetje als ‘terug naar af’. Bij de allereerste IT-systemen (ten tijde van de ponskaarten e.d.) was in-memory een gegeven. Er waren geen manieren om data apart vast te leggen. Toen er steeds meer data kwam, was het nodig om iets te vinden waarmee we informatie permanent konden opslaan. Vergelijk het met het menselijke brein. Lange tijd was het gesproken woord de enige manier om kennis over te dragen en zo weer ‘vast te leggen’. Met het ontstaan van het schrift lukte het om informatie permanent vast te leggen. Inmiddels zijn we gewend om veel te onthouden en de rest op te slaan in boeken of digitale systemen die we gemakkelijk kunnen raadplegen.
Gemakkelijk opslaan is een ding, informatie terughalen een ander. Een feit dat in je hoofd zit, is onmiddellijk beschikbaar. Hetzelfde feit opzoeken in de bibliotheek kost echter meer tijd, net zoals data van een disk of tape halen. En tijd is steeds vaker een issue. Bedrijven willen bijvoorbeeld trends kunnen destilleren uit grote hoeveelheden klantgegevens. Hoe sneller dat gebeurt, hoe groter de kans dat je concreet kunt inspelen op gevonden trends. Daarnaast kan de online wereld niet zonder snelle toegang tot data. Als je een reis boekt via het internet, verwacht je direct een bevestiging. Tegelijkertijd wil de touroperator in realtime kunnen spelen met prijzen. Dat is alleen mogelijk als je alle actuele boekings- en beschikbaarheidsgegevens direct kunt ontsluiten. Daar heb je in-memory mogelijkheden voor nodig.
In-memory computing is daarom aan een opmars bezig. Belangrijke enablers zijn de 64 bits- technologie, het steeds goedkopere geheugen en steeds geavanceerdere software om grote hoeveelheden data te beheren. In-memory is op verschillende manieren inzetbaar, variërend van caching–het tijdelijk opslaan van data in geheugen – en index in-memory – waarbij je data in het geheugen indexeert – totSSD (Solid State Disk), waarbij je alle data op SSD-schijven bewaart.
Voordelen en beperkingen
De voordelen van een in-memory database liggen voor de hand. Je kunt veel sneller grote hoeveelheden data ontsluiten, gebruiken en complexere berekeningen maken. Dat betekent onder meer dat je nieuwe dingen kunt doen die eerder niet mogelijk waren. Het is niet erg zinvol om te investeren in in-memory systemen om er vervolgens hetzelfde mee te doen wat je gewend was. Innoveren is dus een wezenlijk onderdeel van in-memory computing.Naast meer snelheid en mogelijkheden om te innoveren kan in-memory computing ook zorgen voor kostenbesparingen, omdat je kleinere systemen nodig hebt. Die hebben minder ruimte en minder stroom en koeling nodig.
Naast deze voordelen is het verstandig ook te kijken naar de beperkingen van in-memory systemen. Zo werkt dit type oplossingen vaak met nieuwe afwijkende talen. Alle opgebouwde SQL-kennis –om maar een voorbeeld te noemen – heeft dan weinig rendement. Daarnaast worden er soms technologieën toegepast die zich nog niet bewezen hebben of waarover nog maar weinig kennis breed beschikbaar is. Verder is het bestaande applicatielandschap lang niet altijd geschikt om met in-memory systemen te werken en is er ook bij in-memory sprake van fysieke grenzen. Mijn advies is dan ook: bezint eer ge begint, zodat initiatieven op dit gebied praktische resultaten opleveren en in-memory computing niet ‘terug naar af’betekent.
Sandor Nieuwenhuijs is Director Sales Consulting bij Oracle
14 en 15 mei 2025 Organisaties hebben behoefte aan data science, selfservice BI, embedded BI, edge analytics en klantgedreven BI. Vaak is het dan ook tijd voor een nieuwe, toekomstbestendige data-architectuur. Dit tweedaagse seminar geeft antwoord op...
19 t/m 21 mei 2025Praktische driedaagse workshop met internationaal gerenommeerde trainer Lawrence Corr over het modelleren Datawarehouse / BI systemen op basis van dimensioneel modelleren. De workshop wordt ondersteund met vele oefeningen en praktij...
20 en 21 mei 2025 Deze 2-daagse cursus is ontworpen om dataprofessionals te voorzien van de kennis en praktische vaardigheden die nodig zijn om Knowledge Graphs en Large Language Models (LLM's) te integreren in hun workflows voor datamodelleri...
22 mei 2025 Workshop met BPM-specialist Christian Gijsels over AI-Gedreven Business Analyse met ChatGPT. Kunstmatige Intelligentie, ongetwijfeld een van de meest baanbrekende technologieën tot nu toe, opent nieuwe deuren voor analisten met innovatie...
17 t/m 19 november 2025 De DAMA DMBoK2 beschrijft 11 disciplines van Data Management, waarbij Data Governance centraal staat. De Certified Data Management Professional (CDMP) certificatie biedt een traject voor het inleidende niveau (Associate) tot...
Alleen als In-house beschikbaar Het Logical Data Warehouse, een door Gartner geïntroduceerde architectuur, is gebaseerd op een ontkoppeling van rapportage en analyse enerzijds en gegevensbronnen anderzijds. Een flexibelere architectuur waarbij snell...
Deel dit bericht