15-01-2018 Door: Rick van der Lans

Van generieke naar specialistische databaseservers

Deel dit bericht

De interesse voor big data heeft geleid tot een explosie van nieuwe producten voor gegevensopslag en -verwerking. Maar buiten het feit dat er veel nieuwe producten bijgekomen zijn, is er nog iets anders veranderd, iets dat sommigen misschien ontgaan is. Veel van de nieuwe databaseservers zijn specialistische en geen generieke producten. Dit heeft effect op hoe en waar ze in, bijvoorbeeld, BI- of operationele systemen ingezet kunnen worden.

Maar laten we bij het begin beginnen. Het zal niemand ontgaan zijn dat er de laatste jaren veel databaseservers bijgekomen zijn. Werd tien jaar geleden de markt nog gedomineerd door bekende SQL-producten van IBM, Microsoft en Oracle, tegenwoordig bestaan er NoSQL-databaseservers, Hadoop-gebaseerde platformen, streaming databaseservers, graph databaseservers en databaseservers die maximaal gebruik maken van GPU’s. De bekende SQL-databaseservers zijn generieke databaseservers. Ze zijn inzetbaar voor een breed scala aan toepassingen. Ze kunnen ingezet worden in, bijvoorbeeld, transactionele systemen, BI-systemen waar de nadruk ligt op rapporten en analyses en in websites. Ze zijn generiek. Dit betekent dat ze voor veel toepassingen geschikt zijn, maar nergens echt in uitblinken.

De meeste nieuwe databaseservers daarentegen zijn specialistische producten. Ze zijn ontwikkeld om een of twee toepassingen zeer goed te ondersteunen. Bijvoorbeeld, graph databaseservers, zoals AllegroGraph en Neo4j zijn speciaal ontwikkeld voor graph analytics en zijn daar dus ook erg sterk in. Producten als Apache HBase en MongoDB zijn geoptimaliseerd voor transactionele systemen waar de noodzaak voor dynamische databasestructuren groot is en waar gewerkt kan worden met eventual consistency voor transactiebeheer. Maar voor het analyseren van data zijn dit soort producten ronduit zwak. Dit geldt trouwens voor veel vergelijkbare NoSQL-producten: zeer sterk in transacties en zwak in analyses. Daarnaast bestaan er producten als MarkLogic en InterSystems Caché die elk weer hun eigen toepassingsgebieden hebben. Tenslotte, GPU-databases als MapD en Kinetica zijn speciaal ontwikkeld voor zware complexe analyses van gestructureerde big data.
Kortom, de markt van databaseservers is drastisch veranderd: van generieke naar specialistische producten. Dit betekent dat organisaties in detail moeten weten wat de karakteristieken van hun toepassingen zijn plus moeten zij weten wat de eigenschappen zijn van die producten zijn en dan de beste match zien te vinden. Dit vereist veel diepgaande kennis van de producten en van de toepassingen.

Helaas moet geconstateerd worden dat dit al diverse malen fout gegaan is. Organisaties hebben producten aangeschaft die geheel niet bij hun toepassingen pasten met als consequentie dat systemen opnieuw gebouwd moesten worden.
Bij het opzetten van BI-systemen moet dus ook aandachtig bestudeerd worden welke van deze nieuwe producten waar gebruikt kunnen worden? Waar kunnen bijvoorbeeld oplossingen zoals Kafka en streaming databases goed ingezet worden en wanneer is Spark nuttig? En hoe voorkomen we dat al deze nieuwe technologieën geïsoleerde oplossingen worden die weinig tot niet geïntegreerd zijn met het huidige BI-systeem? Het algemene advies is, bestudeer in detail wat de mogelijkheden en het primaire toepassingsgebied van een product zijn en bepaal dan waar en hoe deze ingezet kan worden in een BI-systeem.

Opmerking: Dit onderwerp zal uitgebreid besproken worden tijdens de DW&BI Summit 2018.

Rick van der Lans

Rick van der Lans is een gerespecteerd en onafhankelijk analist, adviseur, auteur en internationaal bekende spreker. Hij is gespecialiseerd in datawarehousing, business intelligence, big data en databasetechnologie. Hij heeft vele seminars en webinars gepresenteerd en keynotes bij industry-leading conferenties. Hij weet als geen ander een goede balans te vinden tussen op de praktijk toegesneden technologische en strategische zaken. Al meer dan tien jaar is hij de voorzitter van de jaarlijkse European Enterprise Data and Business Intelligence Conference in Londen en de jaarlijkse Data Warehousing en Business Intelligence Summit in Nederland. Rick helpt cliënten wereldwijd met het ontwerpen van hun data warehouse, big data en business intelligence architecturen en begeleid hen bij het selecteren van de geschikte producten. Hij is invloedrijk geweest bij het wereldwijd introduceren van de nieuwe logische datawarehouse architectuur waarmee organisaties meer flexibele business intelligence systemen kunnen ontwikkelen. Rick heeft honderden artikelen en blogs geschreven voor toonaangevende vakbladen en websites en van zijn hand zijn vele educatieve en populaire whitepapers verschenen voor een groot aantal leveranciers. Hij was de auteur van het eerste beschikbare boek over SQL, getiteld Introduction to SQL, dat in vele talen gepubliceerd is en waarvan meer dan 100.000 exemplaren verkocht zijn. Recentelijk publiceerde hij het boek Data Virtualization for Business Intelligence Systems.

Rick verzorgt bij Adept Events een seminar over Big Data Technologie, een seminar over de architectuur, ontwerp en technologie van het Logisch Datawarehouse alsmede een cursus over BI en DWH Fundamentals.

Alle blogs van deze auteur

Partners