10-02-2017 Door: Rick van der Lans

OLAP-on-Hadoop in opkomst

Deel dit bericht

Al geruime tijd zijn SQL-interfaces beschikbaar voor het benaderen van gegevens die in Hadoop opgeslagen zijn. Het eerste product was Apache Hive en op dit moment zijn er al meer dan twintig zogenoemde SQL-on-Hadoop engines. De laatste tijd zijn er enkele producten geïntroduceerd waarmee ontwikkelaars met behulp van een OLAP-achtige interface Hadoop-gegevens kunnen benaderen. Voorbeelden van OLAP-on-Hadoop-engines zijn Apache Kylin, AtScale, Kyvos Insights en Platfora. Hun interne structuren verschillen, maar ze staan allemaal toe dat gegevens opgeslagen in Hadoop geanalyseerd en gevisualiseerd kunnen worden middels een MDX-interface. Hier zijn gegevens georganiseerd als multi-dimensionele kubussen.

Aan de buitenkant zien OLAP-on-Hadoop-engines eruit als traditionele OLAP-tools die MDX-interfaces ondersteunen en, zoals gezegd, de gegevens in kubussen organiseren. Aan de binnenkant zijn ze echter zeer verschillend. Dit zijn enkele van de grote verschillen tussen OLAP-on-Hadoop-engines en traditionele OLAP tools:

Lage data latency: OLAP-on-Hadoop-engines analyseren gegevens die in Hadoop opgeslagen zijn. Hadoop-gegevens worden on-demand omgezet naar kubussen. Gegevens hoeven niet eerst in fysieke kubussen opgeslagen te worden. De verwerking van de queries op de kubussen wordt uitgevoerd door ze te transformeren naar queries die rechtstreeks op het Hadoop platform worden uitgevoerd. Het effect is dat gebruikers zero-latency gegevens kunnen analyseren. Met traditionele OLAP-oplossingen moeten gegevens vanuit de bronsystemen naar een datawarehouse gekopieerd worden, vervolgens naar data marts en tenslotte moeten ze naar fysieke kubussen omgezet worden. Dit gehele proces duurt bij sommige organisaties een gehele dag, wat inhoudt dat de data latency ook een gehele dag is. Steeds meer gebruikers vinden deze hoge data latency niet langer acceptabel. OLAP-on-Hadoop kan een zeer lage data latency bieden, zelfs als het om big data gaat.

Data storage schaalbaarheid: Aangezien Hadoop het opslagsysteem is, is de hoeveelheid gegevens die opgeslagen kan worden voor analytische doeleinden vrijwel onbeperkt. Dit is heel anders dan bij enkele traditionele OLAP-producten waarin de maximale hoeveelheid gegevens die opgeslagen kan worden, beperkt wordt door de maximale grootte van de kubus. OLAP-on-Hadoop ondersteunt live OLAP op big data.

Data processing schaalbaarheid: Het merendeel van de OLAP-on-Hadoop-engines gebruiken de gedistribueerde verwerkingskracht van het Hadoop-platform om analytische queries uit te voeren. Bij traditionele OLAP-oplossingen worden de gegevens verstuurd naar het punt waar de analytische verwerking plaatsvindt, terwijl bij OLAP-on-Hadoop de analytische verwerking verplaatst wordt naar de plek waar de gegevens opgeslagen zijn. Zeker in big data-omgevingen is dit veel efficiënter.

Verbeterde time-to-market: Aangezien de kubussen in een OLAP-on-Hadoop-engine geen fysieke kubussen zijn, kunnen hun structuur en (virtuele) inhoud zeer eenvoudig en snel gewijzigd worden, waardoor de time-to-market voor nieuwe rapporten aanzienlijk verbetert. Als een kubus gewijzigd moet worden, hoeft alleen de definitie aangepast te worden. Er is geen noodzaak de kubussen fysiek opnieuw op te bouwen en alle vooraf gedefinieerde en samengevatte gegevens opnieuw te berekenen. Wijzig alleen de definitie van de kubus en de gebruiker kan de nieuwe kubus direct analyseren.

BYOBIT: BYOBIT staat voor Bring-Your-Own-BI-Tool. Door de MDX-interface die de OLAP-on-Hadoop-engines bieden, kunnen gebruikers een veelvoud aan producten inzetten om gegevens te analyseren en visualiseren. Ze worden niet gedwongen een nieuw product te gebruiken, want ze kunnen hun eigen product meenemen, een product waarmee ze vertrouwd zijn. Op een bepaalde manier worden met OLAP-on-Hadoop de gegevens, die in Hadoop zijn opgeslagen, gedemocratiseerd. Hadoop-gegevens zijn op deze manier beschikbaar voor alle gebruikers en niet alleen voor de happy few, de super experts die weten hoe ze in MapReduce, Pig of Python moeten programmeren.

Samenvattend, OLAP-on-Hadoop-engines kunnen dan wel wat jonger zijn dan de SQL-on-Hadoop-engines, maar voor de wereld van analyse, rapportage en gegevensvisualisatie hadden ze niet later moeten verschijnen. Veel organisaties hebben gewacht om hun big data-investering opgeslagen in Hadoop beschikbaar te maken voor analyses zonder een complexe multi-database architectuur met een hoge data latency te hoeven ontwerpen, bouwen en beheren.

Rick van der Lans

Rick van der Lans is onafhankelijk adviseur, docent en auteur op het terrein van datawarehousing, business intelligence, big data en databasetechnologie. Als consultant heeft hij door de jaren heen veel grote bedrijven geadviseerd bij het ontwerpen van hun datawarehouse- en big data architecturen. Rick heeft als spreker op conferenties een zeer goede naam verworven zowel in binnen- als buitenland en is chairman van de jaarlijkse Datawarehousing & BI Summit.  Hij weet als geen ander een goede balans te vinden tussen op de praktijk toegesneden technologische ontwikkelingen en strategische zaken. Hij schrijft voor diverse bekende websites waaronder BI-Platform. Verschillende van zijn boeken, waaronder het populaire "SQL Leerboek", zijn in vele talen gepubliceerd. Recent is van zijn hand verschenen "Data Virtualization for Business Intelligence Systems", alsook tientallen whitepapers over BI. Rick verzorgt bij Adept Events een seminar over Hadoop, NoSQL en Big Data alsmede een seminar over de architectuur, ontwerp en technologie van het Logisch Datawarehouse.

Alle blogs van deze auteur

Partners