Nieuws Nieuws http://biplatform.nl http:///item/25/nieuws.html Thu, 17 Aug 2017 17:39:28 +0100 FeedCreator 1.7.2-ppt (info@mypapit.net) Pegasystems en Accenture introduceren Customer Engagement-oplossing voor telco’s http:///item/994187/pegasystems-en-accenture-introduceren-customer-engagement-oplossing-voor-telcoa-s.html Pegasystems en Accenture introduceren gezamenlijk Intelligent Customer Decisioning as a Service om marketingstrategieën van telco’s te optimaliseren. Met deze cloudgebaseerde oplossing beschikken telecomaanbieders over een volledig operationeel business team van Accenture waarmee ze effectieve realtime marketingcampagnes kunnen uitvoeren op basis van Pega's AI-gestuurde marketing decisioning oplossingen.

Telecomaanbieders strijden om iedere klant, maar beschikken vaak niet over geavanceerde een-op-een marketingmogelijkheden waarmee ze nieuwe klanten kunnen aantrekken maar ook het verloop kunnen verkleinen. Met Intelligente Customer Decisioning as a Service kunnen telecomaanbieders de klantretentie, acquisitiesnelheid en verkoopresultaten verbeteren dankzij Pega Marketing for Communications en Pega Customer Decision Hub, in combinatie met Accenture´s ervaring op het gebied van advies, managed services en kennis van technologie, digitalisering en marketing. Door gebruik te maken van Pega’s technologie voor een optimale klantbetrokkenheid, kunnen Accenture teams klanten voorzien van AI-gestuurde marketingstrategieën die de prestatiedoelstellingen realiseren zonder de dagelijks werkzaamheden te verstoren en zonder aanvullende hulpmiddelen.

Dankzij de Accenture en Pega alliantie kunnen gebruikers hun klanten beter bedienen door de meerwaarde van iedere afzonderlijke klantinteractie te verbeteren. Als Strategisch Advies Partner van Pega beschikt Accenture over meer dan 4.600 Pega specialisten, meer dan 2.000 Pega certificaten en 15 Pega technologische distributiecentra. Onlangs werd Accenture voor het vijfde achtereenvolgende jaar onderscheiden als Pega Partner of the Year. Deze nieuwe oplossing van Pega en Accenture zorgt ervoor dat iedere willekeurige telecomaanbieder zijn klanten relevanter en zinvoller kan benaderen, zonder extra inspanningen, tijd of hulp van derden. De huidige oplossing zal later dit jaar voor andere verticale markten beschikbaar komen.

Meer informatie: Pega

]]>
Thu, 17 Aug 2017 17:24:19 +0200 Pegasystems en Accenture introduceren Customer Engagement-oplossing voor telco’s http:///item/994187/pegasystems-en-accenture-introduceren-customer-engagement-oplossing-voor-telcoa-s.html&field=Foto1&rType=crop&height=165&width=165.jpg
Advanced Programs Gold Sponsor van OutSystems NextStep event http:///item/994186/advanced-programs-gold-sponsor-van-outsystems-nextstep-event.html Op 10 oktober 2017 is Advanced Programs aanwezig als Gold Sponsor bij het NextStep evenement van OutSystems. NextStep is het evenement van OutSystems voor digitale transformatie en low-code ontwikkeling.

Tijdens het evenement waar veel IT-experts, managers, beslissers, ontwikkelaars en architecten naar toe komen wordt het beste rondom het Low-Code platform van OutSystems bij elkaar gebracht.

OutSystems en Advanced Programs zijn een bijzondere samenwerking aan gegaan. Advanced Programs heeft voor het ontwikkelen van hybride omgevingen gekozen voor het applicatie ontwikkelplatform van OutSystems. Advanced Programs wil dat bedrijven zich focussen op functionaliteit van applicaties en zich niet laten leiden door de onderliggende hard- en software.

Volgens Advanced Programs er zijn nog veel organisaties met legacy maatwerk applicatie-omgevingen. Deze applicaties zijn specifiek gebouwd en/of aangepast voor bedrijfskritische processen en daardoor lastig te vervangen door standaardoplossingen. Behoefte aan modernisatie en toekomstbestendig maken van deze legacy omgeving is vaak wel aanwezig. Advanced Programs wil met haar Application Life Cycle Extension for Legacy aanpak hiervoor een oplossing bieden.

Tevens zal Advanced Programs in samenwerking met IBM tijdens de NextStep event een Business Track presenteren onder de naam The New Digital Revenue Streams.

]]>
Thu, 17 Aug 2017 17:11:27 +0200 Advanced Programs Gold Sponsor van OutSystems NextStep event http:///item/994186/advanced-programs-gold-sponsor-van-outsystems-nextstep-event.html&field=Foto1&rType=crop&height=165&width=165.jpg
Pink Elephant reseller van datawarehouse automation leverancier TimeXtender http:///item/992604/pink-elephant-reseller-van-datawarehouse-automation-leverancier-timextender.html Pink Elephant Business Intelligence is reseller geworden van TimeXtender, softwareleverancier voor datawarehouse automation. TimeXtender werd opgericht in Denemarken in 2006 en heeft inmiddels hoofdkantoren in Denemarken en de VS waar vanuit het bedrijf meer dan 2600 klanten bedient, verspreid over de zes werelddelen.

TimeXtender levert het Discovery Hub datawarehousingplatform dat inzichtelijk maakt van welke bron data afkomstig zijn en welke personen toegang hebben tot deze gegevens. Daarmee helpt TimeXtender organisaties te voldoen aan de eisen van de Algemene Verordening Gegevensbescherming (GDPR) die per 25 mei 2018 ingaan. Daarnaast claimt TimeXtender de implementatietijd van een datawarehouse met bijna zeventig procent te kunnen reduceren. Data en analyses kunnen worden weergegeven in BI-tools van Qlik, gezamenlijke partner van Pink Elephant en TimeXtender.

Volgens directeur Dave Jansen van Pink Elephant Business Intelligence zijn datawarehouses complex en tijdsintensief om te bouwen. “TimeXtender zorgt door middel van datawarehouse automation dat het bouwen van een data warehouse simpeler, sneller en betrouwbaarder gaat. De koppeling met Qlik zorgt dat organisaties relevante analyses kunnen maken, wat continu waarde oplevert voor de business.”

In Nederland heeft Business Intelligence specialist E-mergo de Discovery Hub oplosing geïmplementeerd bij VolkerWessels Bouw en Vastgoed Ontwikkeling. TimeXtender is verder ook leverancier van datawarehouse automation voor Microsoft SQL Server.

Meer informatie: TimeXtender

]]>
Wed, 16 Aug 2017 13:28:10 +0200 Pink Elephant reseller van datawarehouse automation leverancier TimeXtender http:///item/992604/pink-elephant-reseller-van-datawarehouse-automation-leverancier-timextender.html&field=Foto1&rType=crop&height=165&width=165.jpg
Dataiku en GoDataDriven gaan partnerschap aan voor ontwikkeling van AI http:///item/991211/dataiku-en-godatadriven-gaan-partnerschap-aan-voor-ontwikkeling-van-ai.html Dataiku heeft aangekondigd een partnerschap aan te gaan met GoDataDriven, om het ontwikkelingsproces van datatoepassingen voor grote ondernemingen te stroomlijnen. De samenwerking is tevens gericht op het stimuleren van innovatie op het gebied van data science, machine learning en kunstmatige intelligentie in Nederland, onder meer door het organiseren van evenementen en het opbouwen van een community van gebruikers en opinieleiders. Het in New York gevestigde bedrijf Dataiku is fabrikant van het data science software-platform Dataiku Data Science Studio (DSS).

Naarmate er steeds meer data in bijna alle aspecten van het bedrijfsleven geproduceerd worden, van online interactie met klanten tot IoT-data van industriële machines, ontstaat de mogelijkheid voor bedrijven om met behulp van de nieuwste technologieën op het gebied van machine learning, artificial intelligence en data science, data te gebruiken voor krachtige analytische toepassingen en het maken van zakelijke beslissingen gebaseerd op data.

Gepassioneerde data-pioniers
Dataiku is de maker van het ‘kant-en-klare’ platform Dataiku Data Science Studio (DSS): geavanceerde analytische bedrijfssoftware die bedrijven de mogelijkheid biedt dataproducten efficiënter te ontwikkelen en te leveren. Dankzij een gebruikersinterface op teambasis en op basis van samenwerking en een gemeenschappelijk kader voor zowel ontwikkeling als inzet van dataprojecten, kunnen klanten gemakkelijk machine learning en data science toepassen op ruwe data van elk type, iedere grootte en ieder formaat om voorspellende datastromen te ontwikkelen en te implementeren.
Dataiku wordt beschouwd als een internationale gemeenschap van ‘gepassioneerde data-pioniers en -nerds’ onder leiding van een aantal van de allerbeste data wetenschappers ter wereld, die niet alleen data-oplossingen creëren om problemen voor hun klanten op te lossen, maar die tevens voortdurend bezig zijn met het ontdekken en verplaatsen van de grenzen van de data science en haar technologieën.  

Hub voor innovatie
Volgens Giovanni Lanzani, Chief Science Officer bij GoDataDriven, maakt Dataiku het mogelijk om in teams samen te werken aan data-analyses en machine learning-toepassingen, en stelt het data analisten, data scientists en data engineers in staat om tegelijkertijd samen te werken aan hetzelfde product.” Naast het feit dat Dataiku een integratie biedt met alle belangrijke open-source oplossingen is het automatische gegevensbeheer een ander groot voordeel. Hiermee voorkom je namelijk situaties waarbij datasets enkel lokaal op een laptop beschikbaar zijn.”

CEO Florian Douetteau van Dataiku is verheugd met het partnerschap met GoDataDriven en de uitbreiding naar Nederland. “Amsterdam staat steeds vaker bekend als een hub voor innovatie op het gebied van kunstmatige intelligentie, dankzij bedrijven zoals GoDataDriven. Dataiku ziet ernaar uit om met hen samen te werken, een bijdrage aan de lokale gemeenschap voor innovatie te leveren en onze klanten fantastische oplossingen te blijven bieden.”

Evenementen
De twee bedrijven zullen nauw samenwerken vanuit Amsterdam, waar Dataiku de komende maanden een kantoor zal openen. Samen zullen zij bovendien innovatie bevorderen met evenementen die innovators, opinieleiders en pioniers vanuit de branche samenbrengen; de mensen die van Amsterdam een internationale hub voor innovatie op het gebied van kunstmatige intelligentie maken. (Kijk ook op GoDataFest).

]]>
Tue, 15 Aug 2017 13:48:59 +0200 Dataiku en GoDataDriven gaan partnerschap aan voor ontwikkeling van AI http:///item/991211/dataiku-en-godatadriven-gaan-partnerschap-aan-voor-ontwikkeling-van-ai.html&field=Foto1&rType=crop&height=165&width=165.jpg
E-mergo implementeert datawarehouse-oplossing Discovery Hub bij BVGO http:///item/991209/e-mergo-implementeert-datawarehouse-oplossing-discovery-hub-bij-bvgo.html Business Intelligence specialist E-mergo heeft de datawarehouse-oplossing Discovery Hub geïmplementeerd bij VolkerWessels Bouw en Vastgoed Ontwikkeling (BVGO). Door een geautomatiseerd proces kan de Discovery Hub-oplossing voor tijd- en kostenbesparingen zorgen.

VolkerWessels BVGO werkte voorheen met in-house ontwikkelde ETL’s om gegevens uit Microsoft NAV (Navision 4PS Construct) in haar datawarehouse te laden. Hierbij werd zij geconfronteerd met zowel lange ontwikkeltijden als lange oplostijden als er fouten optraden en was de kwaliteit van de data moeilijk in grip te houden, doordat alles in de ETL geprogrammeerd werd. Tevens was het tijdrovend om nieuwe bronnen en nieuwe NAV versies op het datawarehouse aan te sluiten. Dit waren drijfveren om op zoek te gaan naar een nieuwe datawarehouse-oplossing. Deze zoektocht werd beëindigd toen E-mergo de datawarehouse-oplossing Discovery Hub van TimeXtender presenteerde.

Proof of Concept
Na de introductie van Discovery Hub heeft E-mergo een Proof Of Concept (POC) aangeboden waarmee E-mergo de waarde van Discovery Hub in een bedrijfsomgeving, met gebruik van BVGO’s eigen data, kon bewijzen. Het ontsluiten van BVGO’s meerdere Microsoft NAV 4PS Construct versies in de Discovery Hub was een groot succes. Binnen enkele dagen waren meerdere versies van NAV 4PS Construct ontsloten met behulp van de innovatieve datawarehousing software. Het kunnen omgaan met de verschillende NAV-versies met behulp van TimeXtender’s krachtige NAV adapter heeft veel tijd bespaard. Door te modelleren in plaats van te programmeren is er een beter overzicht van wat er in de processen gebeurt. Veranderingen als gevolg van de implementatie van een additionele versie van NAV worden nu zelfs automatisch gesynchroniseerd.

Automatische documentatie
De Discovery Hub van TimeXtender schrijft geautomatiseerd scripts om alle data in de datawarehouse te laden. Dit gebeurt op een slimme manier waarbij de executie van het script met behulp van Machine Learning continu wordt geoptimaliseerd. Daarnaast wordt alles automatisch gedocumenteerd, wat de kwaliteit van de documentatie verhoogt en veel tijd bespaart omdat dit voorheen handmatig moest worden gedaan. Deze documentatie levert goede inzichten op hoe de data in het datawarehouse tot stand komt. Tot aan de databron kan worden nagegaan welke bewerkingen er worden toegepast (datalineage).

]]>
Tue, 15 Aug 2017 13:16:55 +0200 E-mergo implementeert datawarehouse-oplossing Discovery Hub bij BVGO http:///item/991209/e-mergo-implementeert-datawarehouse-oplossing-discovery-hub-bij-bvgo.html&field=Foto1&rType=crop&height=165&width=165.jpg
Tableau neemt startup ClearGraph over http:///item/989941/tableau-neemt-startup-cleargraph-over.html Tableau Software heeft de overname aangekondigd van startupbedrijf ClearGraph, dat intelligente datadetectie en data-analyse mogelijk maakt via het bevragen van de computer in natuurlijke taal. Tableau wil de technologie van ClearGraph integreren in haar eigen producten, zodat gebruikers gemakkelijker met hun data kunnen interacteren via natuurlijke taal om vragen te stellen en inzicht te zoeken.

Chief Product Officer Francois Ajenstat bij Tableau is blij met de overname. “Met Natural language queries wordt het voor gebruikers eenvoudiger om met Tableau te werken. Het team van ClearGraph deelt onze visie op innovatie”. De technologie van ClearGraph slaat semantische data op in een uitbreidbare graph-structuur. Technische training is volgens het bedrijf niet nodig bij het gebruik, aangezien de data in natuurlijke taal bevraagd kan worden.

ClearGraph is in 2014 opgericht door Andrew Vigneault en Ryan Atallah, waarna de op Stanford gepromoveerde linguïst Alex Djalali zich bij hen voegde. Vigneault wilde met ClearGraph de afstand tussen mens en computer overbruggen via natuurlijke taal, zeker op het gebied van data-analyse.
Als onderdeel van de overname zullen de werknemers van ClearGraph bij Tableau in het Palo Alto kantoor komen te werken, om de onderliggende technologie van ClearGraph in Tableau te integreren.

Meer informatie over de overname
Meer informatie over ClearGraph

]]>
Mon, 14 Aug 2017 16:16:53 +0200 Tableau neemt startup ClearGraph over http:///item/989941/tableau-neemt-startup-cleargraph-over.html&field=Foto1&rType=crop&height=165&width=165.jpg
Centric, KNVI en Antea organiseren seminar over de digitale werkplek van de toekomst http:///item/984892/centric-knvi-en-antea-organiseren-seminar-over-de-digitale-werkplek-van-de-toekomst.html Weten hoe de digitale werkplek zich ontwikkelt? Kom dan op donderdagavond 28 september naar het event De digitale werkplek van de toekomst, op het kantoor van Antea Group in Heerenveen. Centric, KNVI en Antea organiseren een gratis seminar met ruimte voor discussies en enkele verrassende presentaties waarin visie, verwachting en praktijk aan bod komen.

Sprekers tijdens dit seminar zijn Frank de Nijs, enterprise innovator bij Centric, Peter van der Voordt, manager ICT Antea Group en
Nadine de Ruiter, customer succes manager van Microsoft.
Frank de Nijs spreekt over de kracht van digitale transformatie. De maatschappij is in rep en roer op tal van terreinen. Digitalisering fungeert hierbij als dominante katalysator. Toch staan we pas aan het begin van die maatschappelijke digitale transformatie. Welke ontwikkelingen kunnen we nog meer verwachten?
Peter van der Voordt bekijkt hoe de transitie naar de nieuwe werkplek er uitziet. Voor Antea Group staat de werkplek van de toekomst op de agenda van een 1000-dagen plan om een innovatief ingenieurs- en adviesbureau te worden. Tenslotte geeft Nadine de Ruiter de visie van Microsoft op de digitale werkplek van de toekomst.

Programma
17.30 uur: Bits & bytes
18.30 uur: Opening & welkomstwoord door Harmen Tjeerdsma, manager innovatie & ICT Antea Group
18.45 uur: Frank de Nijs, enterprise innovator Centric, Visie 2025 – De kracht van Digitale Transformatie
19.30 uur: Peter van der Voordt, manager ICT Antea Group, De transitie naar de nieuwe werkplek
20.00 uur: Koffiepauze
20.15 uur: Nadine de Ruiter, customer success manager van Microsoft, De visie van Microsoft op de werkplek van de toekomst
21.00 uur: Napraten en netwerken
21.00 uur: Einde

De avondsessie vindt plaats op 28 september 2017 in het hoofdkantoor van de Antea Group te Heerenveen.

Aanmelding
Ook je kennis vergroten en delen met vakgenoten? Meld je dan aan. De kennissessie is voor iedereen toegankelijk, voor Centric-professionals en professionals buiten Centric.

]]>
Fri, 11 Aug 2017 00:01:50 +0200 Centric, KNVI en Antea organiseren seminar over de digitale werkplek van de toekomst http:///item/984892/centric-knvi-en-antea-organiseren-seminar-over-de-digitale-werkplek-van-de-toekomst.html&field=Foto1&rType=crop&height=165&width=165.jpg
Oracle lanceert next-generation Cloud Applications http:///item/984498/oracle-lanceert-next-generation-cloud-applications.html Oracle introduceert nieuwe functies en verbeteringen van Oracle Cloud Applications. De innovaties in versie 13 van Oracle Cloud Applications verbeteren de gebruikerservaring en bieden meer mogelijkheden voor zakelijke gebruikers door het hele bedrijf, zoals klantenservice, de financiële afdeling, HR en supply chain-professionals.

“We ondersteunen organisaties, van groot tot klein, graag bij het transformeren van hun kritische bedrijfsfuncties om hun groei te stimuleren en ze te helpen competitief te blijven”, zegt Steve Miranda, executive vice president of applications development bij Oracle. “Met de nieuwste versie van Oracle Cloud Applications introduceren we honderden innovaties, zoals grote verbeteringen van onze supply chain management-suite. Daarmee helpen we klanten bij het creëren van intelligente, connected en klantgerichte supply chains. Daarnaast introduceren we een gloednieuwe oplossing die de kloof tussen sales en klantenservice kleiner maakt en zo de klantervaring verbetert. Verder verbetert de nieuwe release ook de ervaring van gebruikers en bevat deze klantgerichte veranderingen voor human resources en financiële afdelingen.”

Oracle Cloud Applications biedt een geïntegreerde suite van applicaties waarmee organisaties bedrijfsflexibiliteit verhogen en kosten verlagen. De nieuwste versie bevat nieuwe functies en verbeteringen van Oracle Supply Chain Management (SCM) Cloud, Oracle Customer Experience (CX) Cloud Suite, Oracle Enterprise Resource Planning (ERP) Cloud en Oracle Human Capital Management (HCM) Cloud. Daarnaast verbetert Oracle de algehele gebruikerservaring van Oracle Cloud Applicaties. Klanten kunnen hun ervaring nu personaliseren voor meer productiviteit, inzicht en betere samenwerking.

Oracle SCM Cloud
Oracle SCM Cloud biedt het end-to-end-overzicht, -inzicht en -mogelijkheden die organisaties nodig hebben om slimme supply chains te creëren. Versie 13 van Oracle SCM Cloud introduceert meer dan tweehonderd functies en zes nieuwe producten: Sales and Operation Planning, Demand Management, Supply Planning, Collaboration, Quality Management en Maintenance. Deze innovaties veranderen traditionele supply chain-systemen in connected, uitgebreide flexibele en klantgerichte supply chain-managementfuncties.

Oracle CX Cloud Suite
Versie 13 van Oracle CX Cloud Suite introduceert innovaties in Oracle Sales Cloud, waaronder verbeterde mogelijkheden voor mobiel en datavisualisering en een reeks nieuwe mogelijkheden die de productiviteit van salesmedewerkers verhogen. Daarnaast breidt Oracle haar CX Cloud Suite uit met Oracle Engagement Cloud: een oplossing die sales- en servicemogelijkheden combineert.

Oracle ERP Cloud
Oracle ERP Cloud helpt organisaties bij het verhogen van bedrijfsflexibiliteit, het verlagen van kosten en het verminderen van IT-complexiteit, om zo innovatie en bedrijfstransformatie te stimuleren. Met diepte en breedte bieden Financials, Procurement, en Project Portfolio Management (PPM), organisaties de mogelijkheid om sneller te innoveren via diepere domeinfunctionaliteiten zoals Dynamic Discounting en Multi-Funding. Branchebrede dekking voor betere opleidingen, financiële dienstverlening en productie en uitgebreide landlokaliseringen voor India en Brazilië, stellen daarnaast organisaties van verschillende formaten en in verschillende branches en locaties in staat om snel en eenvoudig van de nieuwe versie te profiteren.

Oracle HCM Cloud
Oracle HCM Cloud voorziet organisaties van moderne HR-technologieën die samenwerking mogelijk maken, talentmanagement optimaliseren, compleet inzicht bieden in het personeelsbestand, bedrijfsefficiëntie verhogen, en het voor iedereen eenvoudiger maken om vanaf welk apparaat dan ook verbinding te maken. Versie 13 is een verbetering van Oracle’s end-to-end-oplossing voor alle HCM-processen, met de introductie van uitgebreide personalisatie van gebruikerservaring en branding en de toevoeging van extra Tier 1-lokaliseringsondersteuning. Daarnaast biedt het meer mogelijkheden voor bedrijven met zeer flexibele werkroosters, zoals in de retail en de gezondheidszorg.

Meer informatie: Oracle Cloud

]]>
Thu, 10 Aug 2017 14:14:30 +0200 Oracle lanceert next-generation Cloud Applications http:///item/984498/oracle-lanceert-next-generation-cloud-applications.html&field=Foto1&rType=crop&height=165&width=165.jpg
Talend versnelt ontwikkeling big data-pipelines voor Microsoft Azure http:///item/984385/talend-versnelt-ontwikkeling-big-data-pipelines-voor-microsoft-azure.html Talend kondigt een nieuwe set van connectors aan voor Talend Data Fabric. Dit platform helpt organisaties om al hun bedrijfsdata snel te migreren naar Microsoft Azure. Met de nieuwe connectors kunnen gebruikers nu slimmere en schaalbare cloud data-pipelines bouwen voor realtime data-analyse.

Volgnes Ashley Stirrup, CMO bij Talend begrijpen bedrijven dat de cloud een belangrijke drijfveer is om te groeien. “Ze willen daarom hun legacy- en on-premise-data overbrengen naar data lakes in de cloud. Samen met Microsoft kunnen we klanten nu schaalbare ondersteuning bieden voor big data in de cloud. Andere data integratie-oplossingen bieden koppeling met een beperkt aantal gegevensbronnen. De Summer ’17 release van Talend Data Fabric daarentegen, voorziet in functionaliteiten waarmee klanten snel hun on-premise databronnen kunnen migreren naar de Azure cloud. Hiermee kunnen gebruikers data-pipelines optimaliseren voor snellere inzichten.”

In het onderzoeksrapport van Gartner staat: “Zowel grote als kleine IT-afdelingen zijn bezig met een cloud-implementatiestrategie. Echter komen deze initiatieven de concurrentiepositie niet altijd ten goede, tenminste niet als het publieke cloud-diensten betreft.” Veel bedrijven onderschatten de omvang en snelheid waarmee hun IT-omgeving ontwikkelt in een tijd waarin organisaties meerdere clouds gebruiken. Daarnaast onderschatten zij de impact van die ontwikkelingen op hun activiteiten en de toenemende bedrijfseisen.

Azure cloud
De nieuwe connectors van Talend voor Microsoft Azure SQL Data Warehouse, SQL Database, Azure CosmosDB, Data Lake Store, Queue Storage en Table Storage geven bedrijven agility. Hiermee kunnen zij big data snel integreren, analyseren en streamen in en vanuit de cloud en zo concurrentievoordeel behalen. Naast de bestaande connectiviteit die Talend biedt voor Microsoft Azure HDInsight en Blob Storage, stellen de nieuwe connectors voor Microsoft Azure klanten in staat om:
• de ontwikkeling van data-pipelines te vereenvoudigen voor Azure-ontwikkelaars;
• historische en streaming data eenvoudig te integreren voor contextgevoelige inzichten;
• snel on-premise data over te zetten naar de Azure cloud;
• de datakwaliteit te verbeteren met door Spark ondersteunde data matching en machine learning;
• DevOps-productiviteit te verhogen door configuratie en beveiliging van big data-clusters.

Ruime integratiemogelijkheden
Lance Olson, directeur Microsoft Azure bij Microsoft, werkt graag met Talend aan oplossingen die uitgebreide ondersteuning bieden voor Microsoft Azure. “Dankzij de ruime integratiemogelijkheden kunnen klanten optimaal gebruikmaken van cloud-diensten voor Hadoop, data warehousing, storage en NoSQL. Zo kunnen zij de uitvoer van hun cloud first-strategie versnellen."

Newgistics, een leverancier van integrale e-commerceoplossingen, wilde haar losstaande systemen consolideren tot één geïntegreerd data warehouse. Hiermee kunnen zij effectievere beslissingen nemen op basis van ‘één versie van de waarheid’. Puru Agrawal, vice president Data Services bij Newgistics: “Wij brengen al onze on-premise data over naar een data lake in Microsoft Azure. Data-analyse voor slimme beslissingen duurt nu hooguit 15 minuten in plaats van meerdere uren. De data lake elimineert het risico dat een analyse ermee stopt wanneer een bedrijfsanalist meer data opvraagt. We hebben sneller resultaat en kunnen machine learning-technologie gebruiken voor nieuwe inzichten, voorspellingen en beslissingen. Talend biedt functionaliteiten voor het repliceren en transformeren van data om een goed data-framework in te richten. Dit verbetert onze bedrijfsprocessen ingrijpend en komt de klanttevredenheid ten goede.”

Meer informatie: Talend

]]>
Thu, 10 Aug 2017 12:30:58 +0200 Talend versnelt ontwikkeling big data-pipelines voor Microsoft Azure http:///item/984385/talend-versnelt-ontwikkeling-big-data-pipelines-voor-microsoft-azure.html&field=Foto1&rType=crop&height=165&width=165.jpg
Walmart, ING, Picnic en KLM tijdens Big Data Expo 2017 http:///item/983151/walmart-ing-picnic-en-klm-tijdens-big-data-expo.html Op 20 en 21 september vindt in de Jaarbeurs Utrecht de Big Data Expo plaats, hét Big Data event van Nederland. Alleen op deze event zijn zoveel leveranciers en experts op het gebied van big data op een plek bij elkaar. Naast een keynote programma met topsprekers uit binnen- en buitenland worden gedurende twee dagen in zes lezingenzalen diverse thema's behandeld.

De tweedaagse Big Data Expo heeft als doel om specialisten uit verschillende big data-disciplines en van verschillende niveaus, samen te brengen. Exposanten en sprekers delen hun kennis en kunde met een grote groep specifieke bezoekers die op zoek is naar oplossingen om de grote stroom aan data inzichtelijk en relevant te maken. Daarbij zijn inspiratie en echte handvatten krijgen om verder te komen van onschatbaar belang. Tientallen exposanten uit verschillende disciplines presenteren nieuwe oplossingen en innovaties. Of u nog ‘nieuw’ in de big datawereld bent en informatie zoekt om vorm te geven aan een big dataproject, of dat u zoekt naar de laatste ontwikkelingen en hands-on adviezen om stappen te maken; voor iedereen is er zeer interessante en actuele informatie te vinden.

Lezingen
Tijdens de Big Data Expo vinden doorlopend lezingen plaats waarin experts van bijvoorbeeld Walmart, bol.com, ING, CZ, Deloitte, Accenture, Picnic, Gemeente Amsterdam, Prorail, Nationale Politie en TNO, hun kennis delen. Hierdoor krijgt de bezoeker een goed overzicht van de mogelijkheden en trends op het gebied van big data, zowel op hoofdlijnen als in detail. Thema’s die in de lezingenserie aan bod zullen komen zijn onder andere: Scalable Data Science, Risk & Reputatie, Aan de slag met Big Data, Building a data driven organization, The data driven customer experience, en De impact van artificial intelligence op bedrijfsvoering.

Big Data Survey
Tevens wordt op de Big Data Expo voor de derde keer op rij het onderzoeksrapport Big Data Survey gepresenteerd. De Big Data Survey is een gezamenlijk initiatief van Big Data Expo en GoDataDriven naar de inzet van datatoepassingen in het Nederlandse bedrijfsleven. Deelname aan dit onderzoek is nog mogelijk tot 20 augustus. Ook dit jaar zit het onderzoek dicht op de trends.

De Big Data Expo is een evenement van Organisatie Groep Zuid B.V. BI-Platform is als partner van de Big Data Expo op de beursvloer aanwezig met een stand.

Bekijk hier het programma van de Big Data Expo.

U kunt zich hier als bezoeker registreren.

]]>
Wed, 09 Aug 2017 14:37:10 +0200 Walmart, ING, Picnic en KLM tijdens Big Data Expo 2017 http:///item/983151/walmart-ing-picnic-en-klm-tijdens-big-data-expo.html&field=Foto1&rType=crop&height=165&width=165.jpg
Microsoft kondigt Azure Container Instances aan en connector voor Kubernetes http:///item/983081/microsoft-kondigt-azure-container-instances-aan-en-connector-voor-kubernetes.html Microsoft heeft de nieuwe dienst Azure Container Instances aangekondigd, die het gemakkelijker moet maken om containers op te zetten en in gebruik te nemen. Microsoft introduceert daarbij ook een connector voor Kubernetes. Tevens heeft Microsoft zich aangesloten bij de Cloud Native Computing Foundation.

Microsoft introduceert Azure Container Instances (ACI), een nieuwe Azure dienst, waarmee met groot gemak, eenvoud en snelheid containers opgezet kunnen worden, zonder dat het nodig is om een Virtual Machine infrastructuur te beheren. Azure Container Instances leveren volgens Microsoft de snelste en eenvoudigste manier om een container in de cloud te draaien. Azure Container Instances is als public preview beschikbaar voor Linux containers.

Kubernetes
Microsoft introduceert verder de open source Azure Container Instances Connector for Kubernetes, waarmee Kubernetes clusters verbonden worden naar Azure Container Instances. Corey Sanders, Head of product Azure Compute bij Microsoft, schrijft in zijn blog dat hiermee zowel Virtual Machines als container instances tegelijkertijd binnen hetzelfde Kubernetes-cluster kunnen draaien, waarmee het beste van twee werelden wordt gecombineerd.
Volgens Sanders biedt dit een nieuw niveau van agility bij de inzet van Kubernetes, waardoor diensten en applicaties gestart kunnen worden binnen enkele seconden zonder onderliggende Virtual Machines. Tevens wordt er ook in seconden afgerekend.

Cloud Native Computing Foundation
Microsoft heeft zich tegelijkertijd als Platina-lid aangesloten bij de Cloud Native Computing Foundation (CNCF). CNCF, een onderdeel van de Linux Foundation, houdt toezicht op een brede reeks cloud-georiënteerde open source projecten als Kubernetes, Prometheus, OpenTracing, Fluentd, Linkerd, containerd, Helm en gRPC. De container-orchestration dienst Kubernetes is binnen Google ontwikkeld, en is in 2015 als open source gedoneerd aan de Cloud Native Computing Foundation.

Lees hier de blog van Corey Sanders

Azure Container Instances Connector for Kubernetes

Microsoft en CNCF

]]>
Wed, 09 Aug 2017 13:22:28 +0200 Microsoft kondigt Azure Container Instances aan en connector voor Kubernetes http:///item/983081/microsoft-kondigt-azure-container-instances-aan-en-connector-voor-kubernetes.html&field=Foto1&rType=crop&height=165&width=165.jpg
WhereScape biedt cloud datawarehouse automation voor Snowflake http:///item/983024/wherescape-biedt-cloud-datawarehouse-automation-voor-snowflake.html WhereScape, specialist in automatisering van data-infrastructuur, kondigt WhereScape automation for Snowflake aan. Deze oplossing is ontworpen om de levering van cloudgebaseerde data-infrastructuurprojecten te versnellen.

WhereScape automation for Snowflake automatiseert belangrijke ontwikkelings- en operationele werkstromen voor Snowflake-klanten op basis van ‘native’ functies, wizards en best practices en bevat datawarehouse modelleringmethodologieën zoals derde normaalvorm (3NF), dimensionele modellering en Data Vault 2.0. Snowflake voorziet in cloudgebaseerde datawarehousingoplossingen die de prestaties, elasticiteit, schaalbaarheid, concurrency en eenvoud leveren, die nodig zijn om alle data van een organisatie op een locatie op te slaan en te analyseren.

Agile datawarehousing
De combinatie van datawarehouse automation tools met Snowflake's zero administration service is volgens Kent Graziano, senior technical evangelist bij Snowflake, perfect om klanten succesvol agile datawarehousing te laten toepassen. “Met WhereScape automation for Snowflake kunnen organisaties sneller en gemakkelijker Snowflake gebruiken door de vereenvoudiging en automatisering van het ontwerp, de bouw en het vullen van datawarehouse-tabellen. Met een soepele drag and drop interface kan men data uit de brondatabase of zelfs flat files direct in Snowflake laden, zonder iets te hoeven coderen. Dat is agile!”

WhereScape automation for Snowflake omvat:
WhereScape 3D for Snowflake, om snel en effectief planning, modelleren en ontwerp op te zetten voor gebruik van Snowflake. Met WhereScape 3D dataexploratie en profileringshulpmiddelen kunnen klanten gemakkelijker nieuwe databronnen begrijpen en automatisering van Snowflake inzetten voor bouw, testen en itereren op prototypes voor zakelijke gebruikers.
WhereScape RED for Snowflake, een geïntegreerde ontwikkelomgeving, waardoor IT-teams de mogelijkheid krijgen om de Snowflake data-infrastructuur sneller te ontwikkelen, implementeren en exploiteren. Met ingebouwde automatisering op basis van Snowflake-functies, wizards en best practices, kunnen gebruikers handmatige codering elimineren. Geavanceerde DevOps-mogelijkheden stellen gebruikers in staat om snel nieuwe omgevingen op te zetten, wijzigingen voortdurend te migreren en gegevensverwerking in Snowflake te beheren. WhereScape RED for Snowflake genereert automatisch gebruikers- en technische documentatie, zoals data lineage, track back en track forward, waardoor een last van IT-teams wordt opgeheven.
WhereScape Data Vault Express for Snowflake, een geïntegreerde combinatie van WhereScape 3D en WhereScape RED, ingebed met Data Vault 2.0 specifieke mogelijkheden.

Meer informatie: WhereScape

]]>
Wed, 09 Aug 2017 12:20:09 +0200 WhereScape biedt cloud datawarehouse automation voor Snowflake http:///item/983024/wherescape-biedt-cloud-datawarehouse-automation-voor-snowflake.html&field=Foto1&rType=crop&height=165&width=165.jpg
Partnerschap Tableau en MongoDB brengt Business Analytics naar moderne data http:///item/982932/partnerschap-tableau-en-mongodb-brengt-business-analytics-naar-moderne-data.html MongoDB en Tableau hebben een partnerschap gesloten en aangekondigd dat de MongoDB Connector for BI door Tableau is gecertificeerd als officiële connector. Volgens beide bedrijven kunnen gebruikers nu voor het eerst rijke JSON-achtige datastructuren, die worden toegepast in moderne applicaties, direct in MongoDB Enterprise Advanced visualiseren en analyseren.

Volgens CTO Eliot Horowitz van MongoDB is data het belangrijkste bezit binnen elk moderne softwareteam, dus het moet volgens hem gemakkelijk worden om data op flexibele en schaalbare wijze zowel op te slaan als te visualiseren. "Met de certificering door Tableau van de MongoDB Connector for BI, kunnen analisten, data scientists en de business profiteren van de technische en operationele voordelen van MongoDB gepaard aan de inzichten die het krachtige en intuïtieve BI-platform van Tableau oplevert.”

Rijke data
Moderne applicaties integreren in toenemende mate rijke data uit mobiele, IoT-, sociale en andere bronnen, waardoor het van groot belang is dat bedrijven BI-tools implementeren voor betere besluitvorming. MongoDB's platform voldoet naar eigen zeggen aan de vereisten van performance, schaalbaarheid, agility en betrouwbaarheid die moderne applicaties verlangen, terwijl de kerncapaciteiten van legacy databases blijven behouden. Met de certificering door Tableau levert de MongoDB Connector for BI gebruikers inzicht in de gegevens die deze moderne applicaties genereren met Tableau's analytische platform.

Groeiende marktbehoefte
Volgens Todd Talkington, Director of Technology Partnerships in Tableau, zijn sociale, mobiele, rijke webapplicaties en andere bronnen van moderne applicaties die ongestructureerde gegevens genereren, de toekomst en is het noodzakelijk om de beste analysemogelijkheden voor die data te leveren. "Door direct klanten van Tableau een snelle en inzichtelijke visuele analyse te bieden van de in MongoDB opgeslagen data, voldoen we aan een groeiende marktbehoefte."

Volgens de bedrijven zijn het partnerschap en de diepe integratie het gevolg van vraag aan klantzijde bij beide bedrijven.

Meer informatie over de MongoDB Connector for BI voor Tableau

]]>
Wed, 09 Aug 2017 11:43:30 +0200 Partnerschap Tableau en MongoDB brengt Business Analytics naar moderne data http:///item/982932/partnerschap-tableau-en-mongodb-brengt-business-analytics-naar-moderne-data.html&field=Foto1&rType=crop&height=165&width=165.jpg
Arrow ECS lanceert IoT Innovator Program http:///item/980883/arrow-ecs-lanceert-iot-innovator-program.html Distributeur Arrow ECS kondigt de lancering aan van haar Things Evolved: IoT Innovator Program. Dit nieuwe initiatief voor de EMEA-regio moet de ontwikkeling van een Internet of Things ecosysteem mogelijk maken en kanaalpartners faciliteren op dit vlak.

Arrow ECS beschikt op de IoT-markt over een breed portefeuille dat alle lagen van een IoT-stack beslaat, uiteenlopend van elektronische componenten tot IT-oplossingen. Met het Innovator Program van Arrow ECS kunnen channel- en IoT solutionproviders profiteren van de aanwezige kennis en kunde op IoT-gebied en van alle andere diensten die Arrow ECS levert, zoals remote management en monitoring, support, design, integratie, training, marketing en financiële oplossingen.

IoT-stacks
Het IoT Innovator Program stelt Arrow’s channelklanten in staat hun eindklanten complete IoT-oplossingen te bieden. Om deze aanpak te ondersteunen en de marktontwikkeling van IoT te versnellen, ontwikkelt Arrow ECS specifieke IoT-stacks. Dat doet het bedrijf in samenwerking met gespecialiseerde aanbieders die oplossingen bieden in IoT-verticals zoals smart cities, industriële IoT, gezondheidszorg en automotive/transport.
Een belangrijk onderdeel van het Innovator Program is de koppeling van deelnemende Things Evolved-partners aan IoT-projecten die Arrow genereert vanuit haar brede activiteiten op het gebied van sensoren en connectiviteit. Things Evolved-klanten profiteren hierbij van Arrow's expertise in het verzamelen en transporteren van IoT-data.

Voordelen
Solution providers kunnen voordelen ondervinden van deelname aan Arrow's IoT Innovator Program, zoals:
• Toegang tot de IoT-solution stacks met daarin alle aspecten van sensoren, connectivity, cloud, analytics, security, IT-infrastructuur, managed services tot en met end-of-life asset disposition
• Certificering van de Arrow Things Evolved Partner-accreditatie
• Bedrijfsanalyses van het Arrow IoT-verkoopteam
• Gekwalificeerde leads en opname in IoT-projecten
• IoT-trainingen en -marketing expertise

Meer informatie: Arrow ECS

]]>
Tue, 08 Aug 2017 00:48:42 +0200 Arrow ECS lanceert IoT Innovator Program http:///item/980883/arrow-ecs-lanceert-iot-innovator-program.html&field=Foto1&rType=crop&height=165&width=165.jpg
Red Hat neemt Permabit-technologie over http:///item/980322/red-hat-neemt-permabit-technologie-over.html Red Hat neemt technologie over van Permabit Technology Corporation, een leverancier van software voor data-deduplicatie, datacompressie en thin provisioning. Door Red Hat Enterprise Linux uit te breiden met de technologie van Permabit kan Red Hat bedrijven beter helpen met hun digitale transformatie door ze efficiëntere opslagmogelijkheden te bieden.
 
Steeds meer bedrijven kiezen voor digitale technologieën als Linux-containers en cloud computing om hun efficiëntie te verbeteren. Om deze services te laten draaien en de data op te slaan, hebben ze echter meer nodig dan wat door traditionele storagetechnologieën wordt geboden. Efficiënte opslag is een belangrijk onderdeel om aan die behoeften te voldoen, met name vanwege de opkomst van hyperconverged infrastructuur (HCI) die storage en compute samenvoegt op een enkele x86-server. Zakelijke open source oplossingen kunnen helpen bij de storage-uitdagingen die door deze digitaal transformatieve technologieën worden opgelegd. Dit is mogelijk door software te gebruiken die de voor applicaties beschikbare opslagruimte kan vergroten zonder dat de hoeveelheid fysieke opslagruimte vergroot hoeft te worden.

Met de technologie van Permabit kan Red Hat nu krachtige data-deduplicatie- en compressiemogelijkheden opnemen in Red Hat Enterprise Linux. Deze zullen ook de mogelijkheden van Red Hat's hybride cloud- en opslagtechnologie verbeteren, waaronder het Red Hat OpenStack Platform, het Red Hat OpenShift Container Platform en Red Hat Storage. Red Hat is verder van plan om de technologie van Permabit open source te maken, wat in lijn is met de toewijding om oplossingen en upstream-first innovatie te leveren die volledig open source zijn. Klanten kunnen hierdoor volgens Red Hat een enkel, ondersteund en volledig open platform gebruiken om hun storage-efficiëntie te verbeteren, zonder afhankelijk te zijn van heterogene tools of aangepaste en slecht ondersteunde besturingssystemen.

]]>
Mon, 07 Aug 2017 14:07:30 +0200 Red Hat neemt Permabit-technologie over http:///item/980322/red-hat-neemt-permabit-technologie-over.html&field=Foto1&rType=crop&height=165&width=165.jpg
Haagse Hogeschool begint met minor Applied Data Science http:///item/980265/haagse-hogeschool-begint-met-minor-applied-data-science.html In September start bij de faculteit IT & Design van de Haagse Hogeschool voor het eerst de minor Applied Data Science.

Applied Data Science (ADS) betreft het oplossen van problemen met behulp van data. Binnen de minor ADS worden vier ambitieuze onderzoeksprojecten uitgewerkt:
- Pepper: een Pepperrobot leren om correct bewegingen te herkennen van patiënten die revalidatie oefeningen moeten doen;
- Urbinn: een semantische kaart van de omgeving maken op basis van camera beelden voor het realiseren van een duurzame autonoom rijdende stadsauto;
- Smart Building: het detecteren of voorspellen of de sensoren van een klimaatbeheersing systeem niet correct functioneren;
- Electromagnetisme: het bepalen wat de werkelijke blootstelling is van personen aan elektromagnetische velden.

Op elk project wordt 20 weken lang een groep van 8 studenten en een ervaren onderzoeker gezet. Er wordt gewerkt in ‘sprints’ van twee weken die steeds een stapje dichter bij het doel brengen. Op de laatste vrijdag van elke sprint presenteren de studenten wat de sprint heeft opgeleverd. Op deze dag zijn geïnteresseerden (van bedrijven, overheid, collega’s) van harte welkom om langs te komen. Op die dag wil men ook een gastspreker uitnodigen om bijvoorbeeld te praten over Data Science aan de hand van een praktijkcase. Ook gastcolleges zijn als geïnteresseerde bij te wonen.

​Voor meer informatie, aanmeldingen: Haagse Hogeschool

]]>
Mon, 07 Aug 2017 14:00:10 +0200 Haagse Hogeschool begint met minor Applied Data Science http:///item/980265/haagse-hogeschool-begint-met-minor-applied-data-science.html&field=Foto1&rType=crop&height=165&width=165.jpg
Interoperabiliteit en de logistieke sector: de ontbrekende schakel? http:///item/975517/interoperabiliteit-en-de-logistieke-sector-de-ontbrekende-schakel.html Dat innovatie in de zorg broodnodig is, dat wisten we al. De noodzaak is er immers: er staan mensenlevens op het spel. Maar ook als we in andere sectoren kijken, zien we de verschuiving naar betere en slimmere IT-oplossingen. Zo is de logistieke sector bezig met een opmars. Supermarktketens en transportbedrijven werken steeds vaker met slimme integratietools om hun voorraad, bestellingen en transacties te verwerken. Werk jij in de logistieke sector en zoek je naar manieren om slimmer om te gaan met je informatiestromen? In dit blog bespreken we je opties.

In de logistieke sector wordt er flink op los gecommuniceerd. Goederen moeten van A via B naar C worden vervoerd en onderweg worden bewerkt en verpakt. Zo zijn er voor één simpel product vaak veel verschillende bedrijven betrokken die allemaal met hun eigen systemen en vanuit hun eigen locaties werken. Al die verschillende datasystemen zullen op de een of andere manier met elkaar moeten communiceren om gegevens uit te wisselen. Geen gemakkelijke taak. Gelukkig is het interoperabiliteit principe ook tot de logistieke- en transportsector doorgedrongen. Hierbij stelt de IT-afdeling de systemen in staat om te praten met andere systemen, ook als ze elkaars taal niet spreken. Met als gevolg dat dezelfde informatie op verschillende plekken kan worden gedeeld, opgevraagd en bewerkt.

Geld besparen
Door systemen te koppelen en data uit te wisselen, besparen bedrijven veel geld. De bedragen lopen soms zelfs tot in de miljoenen. Immers, hoe meer je weet, hoe beter je je activiteiten op elkaar kunt afstemmen. Supermarktketen Jan Linders is hier een mooi voorbeeld van. Dit Zuid-Limburgse bedrijf had met zijn 60 vestingen een dagtaak aan het structureren van informatie. Sinds de implementatie van de Enterprise Service Bus gaat dat stukken beter. Dankzij de ESB staan de verschillende applicaties zoals het kassasysteem, het magazijnbeheersysteem en het datawarehouse met elkaar in verbinding. Hierdoor wordt het magazijn op tijd aangevuld met de juiste hoeveelheden en worden lege schappen voorkomen. Ook verzamelt Jan Linders met de ESB data over het aantal verkochte producten. Deze informatie gebruikt de supermarktketen weer om het assortiment aan te passen op klanten.

De data snelweg
Hoewel data uitwisseling tussen systemen veel voordelen met zich meebrengt, is het koppelen van applicaties niet zonder gevaar. In het slechtste geval raken de systemen van elkaar afhankelijk en stort het geheel als een kaartenhuis in elkaar bij een fout in een van de systemen. Daarom gaat interoperabiliteit niet over het nauw verbinden van systemen, maar over het losjes koppelen ervan. Hierdoor worden alleen díe onderdelen vertaald die nodig zijn om te kunnen communiceren en blijven de systemen zelfstandig opereren. Data wordt zo via een virtuele snelweg afgetapt, omgezet tot bruikbare informatie en doorgestuurd. Zo zijn alle interne applicaties met elkaar verbonden maar blijven ze toch autonoom. Een ander voordeel van deze losse manier van koppelen is dat de data infrastructuur zo toekomstbestendig blijft. Oude systemen kunnen makkelijk worden losgekoppeld en nieuwe sluit je snel aan.

Logistiek en the Internet of Things
Afgezien van een betere en efficiëntere communicatie, is een gestructureerde data uitwisseling (bijvoorbeeld in de vorm van een ESB) ook nog ergens anders goed voor. Nu het succes van the Internet of Things een feit is, worden er overal ter wereld miljoenen apparaten aangesloten op het internet via sensoren. In de zorg wordt er al volop geëxperimenteerd met slimme insulinemeters en beweegsensoren die zieken en ouderen meer bewegingsvrijheid geven zonder hun mobiliteit in te perken. De logistieke sector kan van precies dezelfde techniek gebruik maken. Onderweg bijvoorbeeld. Als vrachtwagens in real-time in de gaten worden gehouden, is op de minuut te voorspellen wanneer ze arriveren. Hetzelfde geldt voor het aanvullen van lege schappen zonder te veel te bestellen. Op klantniveau kunnen personen worden herkend op basis van hun telefoon en persoonlijke aanbiedingen ontvangen.

Wie A zegt…
Bovenstaande is slechts een greep uit alle mogelijkheden. De vraag of interoperabiliteit een ontbrekende schakel is in de logistieke sector, is daarmee ook gelijk beantwoord. Kijkend naar het groeiende aantal databronnen waar we tegenwoordig uit putten, zullen we alle uiteinden op een slimme manier aan elkaar moeten knopen. Hiervoor kun je niet zonder software die “B” zegt als ergens “A” gebeurt.

David Majster is Marketing Manager bij InterSystems Benelux.

]]>
Mon, 07 Aug 2017 12:47:34 +0200 Interoperabiliteit en de logistieke sector: de ontbrekende schakel? http:///item/975517/interoperabiliteit-en-de-logistieke-sector-de-ontbrekende-schakel.html&field=Foto1&rType=crop&height=165&width=165.jpg
UvA gaat partnerschap aan met Microsoft Research Lab Cambridge http:///item/975518/uva-gaat-partnerschap-aan-met-microsoft-research-lab-cambridge.html Het Machine Learning Lab aan de Universiteit van Amsterdam (AMLAB) onder leiding van professor Max Welling start een partnerschap met het Microsoft Research Lab in Cambridge op het gebied van Machine Learning. Het partnerschap streeft naar het stimuleren van onderzoekstalent door middel van een symbiotische relatie. De samenwerking is erop gericht enerzijds de tekorten aan vaardigheden in de industrie aan te pakken en tegelijkertijd de kennis voor de academische wereld te behouden.

Vanuit het partnerschap biedt Microsoft master- en PhD-studenten van de Universiteit van Amsterdam stageplaatsen die zich concentreren op unsupervised deep learning en causaliteit in Machine Learning. De uitwisseling wordt gefaciliteerd door AMLAB’s medewerker Joris Mooij en is gericht op basis onderzoekswerk binnen thema’s met een maatschappelijk belang, zoals de gezondheidszorg.

Behoud van onderzoekstalent
Het partnerschap is een nieuwe aanpak om de volgende generatie talent in Machine Learning te onderwijzen vanuit een evenwicht tussen de industrie en de academische wereld. Microsoft en AMLAB ondersteunen het standpunt dat onderwijsprogramma’s vanuit de industrie studenten niet vroegtijdig moeten werven om daarmee het kennistekort op korte termijn te verhelpen. In plaats daarvan moet toegewerkt worden naar een duurzame en wederzijds voordelige manier om onderzoekstalent voor beide partijen te behouden.

Meer informatie: Amsterdam Machine Learning Lab

]]>
Fri, 04 Aug 2017 01:55:13 +0200 UvA gaat partnerschap aan met Microsoft Research Lab Cambridge http:///item/975518/uva-gaat-partnerschap-aan-met-microsoft-research-lab-cambridge.html&field=Foto1&rType=crop&height=165&width=165.jpg
Live event Cloudera Now biedt virtuele discussie over disruptie http:///item/973422/live-event-cloudera-now-biedt-virtuele-discussie-over-disruptie.html Cloudera presenteert de live event Cloudera Now waarin experts hun visie geven over hoe de inzet van (big) data hele bedrijfstakken verandert. Keynote sprekers zijn Cloudera's CEO Tom Reilly en Big Data Evangelist Amy O'Connor en Professor Tom Davenport van Babson College en Fellow of the MIT Initiative on the Digital Economy.

Na de keynotes zijn er series met breakout sessies waarin onderwerpen aan bod komen als Data Science, analytics, cybersecurity, Machine Learning en ETL. De event vindt plaats op 23 Augustus van 9.00 am tot 13.00 pm (Pacific Daylight Time).

Meer informatie: Cloudera Now

]]>
Wed, 02 Aug 2017 12:51:54 +0200 Live event Cloudera Now biedt virtuele discussie over disruptie http:///item/973422/live-event-cloudera-now-biedt-virtuele-discussie-over-disruptie.html&field=Foto1&rType=crop&height=165&width=165.jpg
SAP en VNSG bundelen krachten in nieuw kennisevenement http:///item/972656/sap-en-vnsg-bundelen-krachten-in-nieuw-kennisevenement.html Softwareontwikkelaar SAP en de Vereniging voor Nederlandstalige SAP Gebruikers (VNSG) hebben de krachten gebundeld en presenteren een volledig nieuw kennisevenement: Connect to Innovate. Op het interactieve, tweedaagse congres staan digitale transformatie, innovatie en ontmoetingen centraal.


Connect to Innovate draait om innoveren en verbinden, en daarbij staat de mens centraal. In een steeds sneller veranderende digitale wereld wijzen SAP en de VNSG juist op de kracht van samenwerken: verbinden en versterken.
Het evenement vloeit voort uit het SAP Innovation Forum, de SAP Inspiration Days en het VNSG Congres. Patrick Van Deven, Managing Director SAP: “Het VNSG Congres is al jaren de ontmoetingsplek voor IT-professionals om de laatste ontwikkelingen te zien op het gebied van bedrijfssoftware. Daarnaast hebben we bij SAP de afgelopen jaren veel succes gehad met het organiseren van inspiratiedagen voor specifieke doelgroepen als HR en Marketing & Sales.” Het was voor SAP en de VNSG dan ook een logische stap om deze events met elkaar te verbinden.

Krachtig kennisplatform
Connect to Innovate is met een veelzijdig en interactief IT- en businessprogramma een krachtig kennisplatform voor een brede groep. Naast de eerdergenoemde doelgroepen, is het evenement interessant voor professionals uit de vakgebieden finance, supply chain en procurement. Ook willen SAP en de VNSG studenten en start-ups aanspreken met inspirerende thought leadership content.

Jan-Willem van der Meere, waarnemend voorzitter van de VNSG, ziet een mooie kans om samen de impact van het congres te versterken voor de gebruikers die de VNSG verenigt. “Door het inzetten van onze gezamenlijke kennis en netwerken kan innovatie plaatsvinden. Voor mij zit ware innovatie in de combinatie van techniek en ideeën. Dit is het meest krachtig wanneer business en IT innig samenwerken om waarde toe te voegen voor een organisatie en haar klanten. Dat willen we op dit congres tonen.”

Interactie en beleving
Het programma bestaat uit een veelzijdige mix: van inspiratiesessies en workshops door experts tot klantpresentaties en Q&A-sessies. “De sleutel tot een succesvol congres is een actieve participatie van de deelnemers,” aldus Van Deven. “Op deze manier kunnen ze innovaties echt ervaren in plaats van ze alleen vanaf een podium gepresenteerd te krijgen. Het hele programma is ingericht om deze ervaring zo waardevol mogelijk te maken.”

Connect to Innovate vindt plaats op 3 & 4 oktober in het NBC Congrescentrum Nieuwegein. Kijk voor meer informatie op www.connect-to-innovate.nl

]]>
Wed, 02 Aug 2017 00:04:00 +0200 SAP en VNSG bundelen krachten in nieuw kennisevenement http:///item/972656/sap-en-vnsg-bundelen-krachten-in-nieuw-kennisevenement.html&field=Foto1&rType=crop&height=165&width=165.jpg
Five reasons to rethink your governance strategy http:///item/972655/five-reasons-to-rethink-your-governance-strategy.html It has long been believed that the only way to successfully govern a Business Intelligence deployment is through rigorous process, tight controls, and restricted access to data and reporting solutions. Organizations think that if the rules are written and enforced by a small, centralized group of individuals residing in IT, the risk of misuse can be mitigated.

Unfortunately, this rigid approach to governance only serves to restrict business users who have the necessary business context and are in the best position to discover and translate data into insights and action. As a result, “shadow IT” organizations often emerge, driving mission-critical business activities based on unapproved data, with unsanctioned processes, unsupported tools, and no organizational support. This exposes the organization to significant risk. Specifically, the risk of making bad decisions, as well as the potential for inadvertently compromising data assets, increases dramatically when IT is circumvented because of an overly restrictive approach to governance. But there is a better way.

BI leaders have an opportunity to rethink their approach and relaunch governance initiatives focused on encouraging and enabling broad use of data, while simultaneously mitigating risk. For many organizations, this notion represents a sea change that will likely seem counter-intuitive to existing governance practices, and will require significant changes in the way IT thinks and talks about governance with stakeholders. The Harvard Business Review recently published "What's Your Data Strategy?" and outlined the idea of "offensive" and "defensive" data strategies. This means addressing IT's requirement for data security and the business's requirement of creating value from data. As you'll see below, modern analytics platforms let you do both: Keep your data safe and use data to its full potential.

Organizations that successfully navigate this transition from a culture of restriction to a culture of empowerment will begin to see 5 key benefits:

1. Broader adoption for better decision-making
The value of an organization’s data can only be harnessed when its people are empowered to explore, discover, and analyze it in search of key insights. A governance model that is designed to promote broader adoption and quickly ramp up new users in a safe and responsible way is required to achieve this goal.

The impact is exponentially greater when business users, often with limited technical skills, are empowered to ask and answer their own questions of data that they know, understand, and trust. These users have the necessary business context and ability to turn insights into action. Take REI, for instance, whose analyst Tim Letona is creating a model for better understanding project-related costs and timecards.

2. Higher confidence in the outcome
This transition requires users to become active participants in the governance process that supports an organization’s analytic initiatives. When users are more empowered and feel personally invested, governance goes from being a topic that no business user ever wants to talk about to something for which everyone feels personally responsible.

As users grow more confident in their findings, they are more inclined to share and collaborate with others, which feeds momentum and broader adoption. This newfound power and confidence is the key to scaling data-driven decision-making across the organization. Learn how to encourage everyone to become part of the discovery process and build a culture of self-service analytics in your own organization.

3. Eliminate “shadow IT”
“Shadow IT” organizations are the result of inflexible, restricted governance policies, and can lead to unsanctioned and untrustworthy analytics. But they can quickly become irrelevant in a BI governance model built on a foundation of empowerment through true self-service.

The clear benefit for users is that eliminating the need for “shadow IT” means that they can invest fully in a sanctioned and trusted environment to support their business process and no longer need to sacrifice safety for agility.

4. A more strategic IT team
When the mandate of a BI governance initiative is to restrict access, IT resources spend a disproportionate amount of their valuable time defining and enforcing rules. By adopting a governance strategy which encourages broad use, and shifts the burden of self-regulation to the users of the environment, IT can assume a more strategic role in supporting BI initiatives.

This change in mindset creates opportunities for IT to move closer to the business processes that they are charged with supporting. With increased bandwidth, IT can focus on R&D and innovation, and bring to light new data sources as well as new tools and techniques that enhance the value of BI to the organization. Find out how Director of Business Intelligence and Analytics, Jeff Strauss, is keeps constant tabs on Conversant Media’s R&D IT initiatives.

5. Trusted security by reducing risk
Organizations that embrace a restrictive approach to governance often have a false sense of security when it comes to how data and analytics are being used. If users and “shadow IT” groups are using data curated by IT as a source to feed downstream processes and analyses outside the purview of IT, the degree to which it can be considered safe and trusted deteriorates considerably. If users have faith in the governance process and trust that the rules reflect an understanding of the needs of the business and the inherent need for agility, they are far more likely to play by the rules and avoid taking these unnecessary risks.

With business intelligence and analytics platform modernization on the minds of many organizations, the time is right to adopt a governance model that is designed to empower users to self-serve responsibly and maximize the reach and impact of analytics.

Josh Parenteau is Market Intelligence Manager at Tableau Software.

]]>
Wed, 02 Aug 2017 00:03:00 +0200 Five reasons to rethink your governance strategy http:///item/972655/five-reasons-to-rethink-your-governance-strategy.html&field=Foto1&rType=crop&height=165&width=165.jpg
Programma en sprekers Microsoft TechDays 2017 bekend http:///item/972136/programma-en-sprekers-microsoft-techdays-bekend.html Microsoft TechDays 2017 vindt plaats op 12 en 13 oktober in de RAI te Amsterdam en het programma met sprekers is bekend gemaakt. TechDays is een tweedaags topevenement voor developers en ops- of data-engineers die werken met de bekendste Open Source en Microsoft technologieën.

Bezoekers maken kennis met beproefde en nieuwe mogelijkheden om de ontwikkeling, implementatie en het beheer van applicaties op grote schaal te verbeteren en te versnellen. Op TechDays is te zien welke processen, tools en technieken de wereld van IT transformeren.

Op de bijgewerkte website zijn nu alle sprekers vermeld en zijn de sessies omschreven, met zaal en tijd. Er bestaat de mogelijkheid om een sessie te ‘liken’, zodat de organisatie vooraf kan inschatten welke zaalgrootte te reserveren. Onderwerpen waaraan veel sessies gewijd zijn, zijn onder andere Azure, DevOps en .NET.

Meer informatie: Microsoft TechDays

]]>
Tue, 01 Aug 2017 14:29:32 +0200 Programma en sprekers Microsoft TechDays 2017 bekend http:///item/972136/programma-en-sprekers-microsoft-techdays-bekend.html&field=Foto1&rType=crop&height=165&width=165.jpg
Adobe verandert personalisatie door middel van AI en data science http:///item/971147/adobe-verandert-personalisatie-door-middel-van-ai-en-data-science.html Softwareleverancier Adobe kondigt aan data science en algoritme-optimalisatiemogelijkheden in Adobe Target, de personalisatietool van Adobe Marketing Cloud, open te stellen. Hiermee kunnen merken hun eigen datamodellen en algoritmes toevoegen aan Adobe Target om zo de beste ervaring te leveren aan hun klanten. Volgens Adobe benutten merken nu nog niet de volledige potentie van de technologie van kunstmatige intelligentie.

Adobe introduceert daarnaast nieuwe mogelijkheden in Adobe Target, ondersteund door AI en machine learning framework Adobe Sensei, om klantaanbevelingen en gerichte targeting verder te verbeteren, ervaringen te optimaliseren en de levering van een gepersonaliseerd aanbod te automatiseren.

Verwachtingen
Volgens Aseem Chandra, VP Adobe Experience Manager en Adobe Target, nemen de verwachtingen van de consument steeds verder toe. “Daardoor is hyperpersonalisatie geen mogelijkheid meer voor een merk, maar een absolute noodzaak. Vooruitstrevende merken zijn bezig met het ontwikkelen van gepatenteerde algoritmes. Als deze worden geïntegreerd in Adobe Target, kunnen merken hun eigen expertise combineren met de kracht van de AI en machine learning tools van Adobe om te voorspellen wat klanten wensen en deze wensen te leveren voordat klanten ernaar vragen. Dit ondersteunt de bedrijfswaarde en versterkt de merkloyaliteit.”

Geïndividualiseerde klantervaringen
De mogelijkheid om gepatenteerde algoritmes toe te voegen aan een marketingplatform is volgens Adobe uniek. Merken profiteren van de mogelijkheid om hun industriële expertise te koppelen aan Adobe Sensei’s krachtige machine learning en AI-mogelijkheden in Adobe Target. Hiermee worden zij in staat gesteld om op grote schaal geïndividualiseerde klantervaringen te leveren. Daarnaast introduceert Adobe nieuwe Sensei-mogelijkheden in Adobe Target om klanten meer gepersonaliseerde ervaringen te bieden:
One-click personalisatie: Met de nieuwe Auto-Target functionaliteit kunnen marketeers snel een oneindig aantal variaties van gepersonaliseerde klantervaringen leveren via hun digitale kanalen, zoals websites, apps en IoT-user interfaces.
Gepersonaliseerde aanbevelingen: De nieuwe aanbevelingstechnologie in Adobe Target maakt het voor merken mogelijk om de intentie van de klant te gebruiken om zo beter te voorspellen welke content en producten diezelfde klant vervolgens zou willen hebben.
Geautomatiseerde aanbiedingen: Merken kunnen ervoor zorgen dat het beste aanbod, uit honderden mogelijke aanbiedingen, automatisch aan de juiste persoon op het juiste moment wordt getoond.
Gerichte targeting: Door verbeterde integratie met Adobe Analytics Cloud kunnen marketeers gerichter targeten door het gebruik van gedrags-analytics en doelgroepsdata voor een diepere segmentatie. Adobe Target kan bijvoorbeeld de ervaringen van een doelgroep van een automerk personaliseren door inzichten uit Adobe Analytics Cloud te gebruiken waaruit blijkt dat de meeste personen uit deze doelgroep smartphones gebruiken om naar hun volgende autoaankoop te zoeken.

Meer informatie: Adobe

]]>
Tue, 01 Aug 2017 00:03:00 +0200 Adobe verandert personalisatie door middel van AI en data science http:///item/971147/adobe-verandert-personalisatie-door-middel-van-ai-en-data-science.html&field=Foto1&rType=crop&height=165&width=165.jpg
MvR & Partners zet Cognos dashboards in bij datagestuurd werken Gemeente Renkum http:///item/970641/mvr-en-partners-zet-cognos-dashboards-in-bij-datagestuurd-werken-gemeente-renkum.html De gemeente Renkum heeft MvR & Partners gevraagd om mee te denken over de manier waarop de sturings- en verantwoordingsinformatie uit het Sociaal Domein overzichtelijk en systematisch vergaard en gepresenteerd kan worden aan de organisatie en gemeenteraad. Voorwaarde hierbij is dat de invulling van datagestuurd werken past bij gemeente Renkum.

Binnen de gemeenteraad van Renkum is het ‘Masterplan 2020 - sociaal domein - van kader naar praktijk’ gepresenteerd waarin te bereiken resultaten en effecten worden benoemd. Daarnaast is er een raadsmotie ‘Grip op het sociaal domein’, die aansluit op het masterplan, en vooral gemaakt richting de raad zelf. De motie ondersteunt ofwel zorgt ervoor dat er inkadering is vanuit het ‘tel en vertel’ idee. Dat zorgt ervoor dat met de raad afspraken gemaakt worden over tellen en vertellen op basis van data/informatie en de manier waarop wordt gerapporteerd.

Meten en weten
Volgens Pieter Bas Becking, Manager Sociaal Domein bij de gemeente Renkum, is een doelstelling bijvoorbeeld het verhogen van de zelfredzaamheid van de inwoners van de gemeente. “Maar hoe meet je dat en hoe weet je welke informatie je daarvoor in moet zetten. Wij willen vooral dat we ons binnen de organisatie meer bewust worden van kwantitatieve gegevens en welke effecten bereikt kunnen worden door die op de juiste manier te interpreteren.” Hij concludeert dat “we vooral op input sturen, maar er is eigenlijk nog geen gesystematiseerd sturingsmechanisme ingericht op basis van data die (mogelijk) beschikbaar is die ons laat zien in hoeverre ons beleid in de praktijk ook succesvol is.”

Gefragmenteerd
De samenwerking met MvR & Partners houdt in dat de gemeente Renkum MvR inzet om binnen de organisatie bewuster aan de slag te gaan met het gebruik van stuurinformatie. Welke informatie, waar en hoe beschikbaar is voor rapportage en analyse. Veel informatie is gefragmenteerd op verschillende plekken aanwezig, maar is nog te weinig centraal geregeld. Juist daar ligt een sterke behoefte: het samenbrengen en ontsluiten van informatie op een logische en gestructureerde manier.

Sturen op effecten
MvR is in Renkum via een agile aanpak begonnen om sturing op effecten mogelijk te maken. In eerste instantie als een pilot om te kijken hoe de gemeente Renkum vorm kan geven aan datagestuurd werken. Voor MvR is het vervolg tweeledig. “Ten eerste het helpen met het ontwikkelen van dashboards in BI-tool Cognos”, volgens Francine van der Kooij, Consultant bij MvR. “Ten tweede: het begeleiden van de medewerkers binnen het Sociaal Domein met de omslag naar datagestuurd werken.” Hierbij werkt MvR & Partners nauw samen met zowel beleidsmedewerkers van het Sociaal Domein als met de IT-afdeling, zodat de nu gefragmenteerde informatievraag zo accuraat en doelgericht mogelijk kan worden vertaald naar Cognos, opdat de data ook daadwerkelijk inzicht geven en voor analyse bruikbaar zijn.

]]>
Mon, 31 Jul 2017 12:08:23 +0200 MvR & Partners zet Cognos dashboards in bij datagestuurd werken Gemeente Renkum http:///item/970641/mvr-en-partners-zet-cognos-dashboards-in-bij-datagestuurd-werken-gemeente-renkum.html&field=Foto1&rType=crop&height=165&width=165.jpg
Het domino-effect: de vier voordelen van data-integratie http:///item/964013/het-domino-effect-de-vier-voordelen-van-data-integratie.html Als je tegenwoordig wilt dat iets soepel verloopt, richt je je al snel tot de IT-afdeling. Logisch, want nog nooit was de rol van techniek zo groot in het bedrijfsleven. Snelheid, hogere kwaliteit en personalisatie: al deze wensen worden werkelijkheid dankzij slim gebruik van data.

Klinkt abstract? Dat vind ik ook. Daarom vertel ik in dit artikel het verhaal van Bodymat, een Waalse klant van ons die een domino-effect teweegbracht door verschillende datasystemen te laten samenwerken.

Situatieschets
Laten we allereerst eens kijken naar het bedrijf en de uitdaging. Bodymat is een overkoepelende organisatie voor (Waalse) bedrijven in constructiemateriaal zoals hout en steen. De holding bestaat uit acht verschillende vennootschappen die allemaal hun eigen activiteiten en klantenbestand beheren. Een inventarisatie van de IT-omgeving: een stabiel maar verouderd ERP, een exchange server die geen toegang geeft aan alle gebruikers en een voorzichtige vorm van Business Intelligence die nog niet volgroeid is. Dagelijks worden er grote hoeveelheden aan berichten verstuurd binnen en buiten de vennootschappen, bijvoorbeeld over aankopen, betalingen en voorraden. De CIO van Bodymat had een duidelijke missie: al deze datastromen in kaart brengen, integreren en optimaliseren.

Dominosteen 1. Beter zicht op datastromen
Tot nu toe was het onmogelijk gebleken om zicht te houden op de gegevensuitwisseling binnen de holding. Profielen van individuele klanten konden niet worden opgevraagd of waren onvolledig, terwijl andere gegevens helemaal niet geïntegreerd konden worden. Om deze problemen op te lossen en de datastromen beter op elkaar af te stemmen, richtte het management van Bodymat zich tot InterSystems. Ze besloten om zowel met het databasesysteem Caché als de Enterprise Service Bus (ESB) Ensemble aan de slag te gaan. Deze aanschaf was het startsein van een grote schoonmaak. Systemen zoals het ERP, databases en afhankelijkheden werden in kaart gebracht, waarop alle verschillende elementen werden geïntegreerd in een transparante en gecentraliseerde infrastructuur. Binnen deze structuur was direct helder welke informatie waarheen moest en kon data op verschillende plekken worden hergebruikt.

Dominosteen 2. Beter voorraadbeheer
Nu Bodymat beter zicht had op de verschillende datastromen, kon er pas echt worden geoptimaliseerd. Het voorraadbeheer was als eerste aan de beurt. Tot voorheen werd de voorraad aan het einde van iedere maand geïnventariseerd. De verwerkingstijd kostte drie dagen, waardoor niet direct kon worden ingegrepen bij een tekort of een overschot. Vanaf het moment dat Ensemble real-time gegevensuitwisseling mogelijk had gemaakt, ontstond er een zee aan mogelijkheden. Bodymat had nu direct inzicht in de situatie van hun toeleveranciers, eigen voorraden en die van hun klanten. Hierdoor konden zij de aanlevering van materiaal dagelijks bijsturen en afstemmen op de daadwerkelijke behoeften. Deze flexibiliteit had Bodymat vooral te danken aan de koppeling tussen het ERP en het TMS (Transport Management System), waardoor aan beide kanten informatie kon worden toegevoegd of bijgewerkt.

Dominosteen 3. Meer management controle
Zoals gezegd was Bodymat al bezig met Business Intelligence, maar was dit project nog niet van de grond gekomen. Gegevens werden bijgehouden in Excel, waarmee je slechts beperkt analyses kunt draaien. Bovendien kostten deze analyses veel tijd, waardoor veel cijfers rondzwierven zonder dat er wat mee gedaan werd. Nu Caché data uit alle verschillende systemen had “vrij” gemaakt, werd het maken van analyses makkelijker en sneller. Bodymat schafte een aantal Business Intelligence tools aan, zoals het MicroStrategy dashboard en Visual Insight voor rapportage. Dankzij de enorme hoeveelheid en verscheidenheid aan data kreeg Bodymat direct meer inzicht in onder andere facturen, de huidige én toekomstige situatie en het aantal verstuurde en aangekomen berichten. Deze kennis gaf hen weer meer controle over de verschillende vennootschappen en bespaarde hen tegelijkertijd een hoop tijd- en dus geld.

Dominosteen 4. Betere samenwerking tussen medewerkers
Naast alle technische en financiële voordelen veroorzaakte de data integratie ook nog een bijkomend voordeel. Vanwege de nieuwe standaarden moest data volgens bepaalde richtlijnen worden ingevoerd, wat een grote verandering teweegbracht onder de werknemers van Bodymat. Data werd zorgvuldiger ingevoerd, meer fouten werden voorkomen en individuen werden zich bewuster van hun rol in het grotere geheel. Ze merkten dat het nieuwe datasysteem hen veel werk uit handen nam en voor minder verrassingen zorgde, waardoor zij hun werk beter konden uitvoeren. Hierdoor werd de samenwerking binnen en tussen afdelingen hechter en ontstonden er nieuwe vaardigheden. Veel medewerkers schepten er plezier in uit te vinden hoe hun data invoer kon bijdragen aan betere bedrijfsprocessen, meer structuur en een lagere werkdruk. Het data integratieplan van Bodymat was dus precies op de juiste plek voelbaar: op de werkvloer!

Data integratie brengt dus veel goeds met zich mee. Niet alleen zorgt het voor meer inzicht in datastromen en meer hergebruik van gegevens: het verbetert voorraad management, draagt bij aan het succes van Business Intelligence tools én zorgt voor meer samenwerking op de werkvloer.

David Majster is Marketing Manager bij InterSystems Benelux.

]]>
Fri, 28 Jul 2017 00:01:00 +0200 Het domino-effect: de vier voordelen van data-integratie http:///item/964013/het-domino-effect-de-vier-voordelen-van-data-integratie.html&field=Foto1&rType=crop&height=165&width=165.jpg
Indeed: groeiende vraag naar blockchain-experts http:///item/964590/indeed-groeiende-vraag-naar-blockchain-experts.html De vraag naar blockchain-experts groeit. Tegelijkertijd is deze expertise op de arbeidsmarkt erg schaars, blijkt uit Europees onderzoek van vacaturesite Indeed. Indeed keek in de periode november 2016 tot en met mei 2017 naar het voorkomen van de term blockchain in vacatures.

Blockchain is de technologie achter de bitcoin, maar kent ook allerlei andere innovatieve toepassingen. De kern van de technologie is het zodanig vastleggen van transacties, dat die niet zijn te veranderen. Een bekende omschrijving van blockchain is: “een gedistribueerde database die een gestaag groeiende lijst bijhoudt van data-items die bestand zijn tegen manipulatie en vervalsing.”

Groeiende populariteit
De belangstelling voor blockchain is in een zeer korte tijd heel snel gegroeid. In 2015 was de zoekterm in vacatures zo goed als onbekend. In 2016 kwam de term in zeventien procent van de vacatures voor. Dat groeide in mei 2017 naar maar liefst 28 procent. Indeed onderzocht verder hoe vaak deze term terugkomt in zoekopdrachten van werkzoekenden. Het percentage zoekopdrachten met deze term lag in 2016 op zes procent. In januari 2017 begon zich een stijging af te tekenen omtrent zoekopdrachten naar blockchain-functies en in mei 2017 was er sprake van een verdrievoudiging (achttien procent) ten opzichte van januari 2017. Dit betekent dat banen die gerelateerd zijn aan blockchain-technologie aan populariteit winnen.

Tekort aan blockchain-profielen
Hoewel er steeds meer banen rond blockchain-technologie beschikbaar komen, merkt Indeed dat die moeilijker in te vullen zijn. Meer dan vijftien procent van de vacatures voor blockchain-manager staan meer dan zestig dagen open, wat betekent dat er ondanks de stijgende interesse toch nog steeds een tekort is aan blockchain-profielen. Ook developers die meer en meer met blockchain te maken krijgen, zijn schaars op de arbeidsmarkt. Meer dan twintig procent van de developer-banen blijft meer dan zestig dagen open op Indeed.

Concurrentie
Volgens Sander Poos, Managing Director Benelux bij Indeed, moeten zeker technologiebedrijven vaak met elkaar concurreren om toptalenten in de sector te werven. “Dit merken we ook op Indeed. De impact van blockchain op de arbeidsmarkt is groot, aangezien deze technologie mogelijk de wereld kan veranderen, zoals de manier waarop het internet dat gedaan heeft. Recruiters zullen dus creatieve strategieën moeten creëren om geschikte kandidaten op het vlak van blockchain voor zich te winnen. Daar ligt een flinke uitdaging. De wervingstechnieken van technologiebedrijven kunnen dan ook een inspiratie zijn voor andere sectoren in de huidige arbeidsmarkt.”

]]>
Thu, 27 Jul 2017 00:23:09 +0200 Indeed: groeiende vraag naar blockchain-experts http:///item/964590/indeed-groeiende-vraag-naar-blockchain-experts.html&field=Foto1&rType=crop&height=165&width=165.jpg
Tussentijdse analyse resultaten Big Data Survey 2017 http:///item/964080/tussentijdse-analyse-resultaten-big-data-survey.html Eenvijfde van de organisaties ervaart opslaan van data in de cloud als onveilig. Dit blijkt uit tussentijdse resultaten van de derde editie van het nationaal onderzoek naar de inzet van datatoepassingen in het Nederlandse bedrijfsleven.

Het internationale data-onderzoek Big Data Survey van Big Data Expo en GoDataDriven is nu enige tijd op weg, het is de hoogste tijd om wat eerste inzichten te delen. Bent u benieuwd naar meer resultaten? Neem dan deel aan het onderzoek en laat uw gegevens achter, u ontvangt dan medio september het eindrapport. In het eindrapport maken we onderscheid tussen de reacties van managers, gebruikers en ontwikkelaars en verschillende bedrijfsgroottes. U kunt nog deelnemen tot 20 augustus aanstaande.

De jacht naar talent
In 2016 bleek uit het onderzoek van Big Data Expo en GoDataDriven dat het opbouwen van een datateam voor veel organisaties een uitdaging was. Ook dit jaar zien we dezelfde trend: de vraag naar talentvolle data scientists is groter dan ooit. Beduidend meer organisaties geven dit jaar aan dat talent één van de meest belangrijke factoren is voor het succes van een datastrategie. Hoewel bijna de helft van de organisaties aangeeft dat data een onmisbaar onderdeel is van de strategie, blijft het budget nog vaak knellen.

GDPR
De meerderheid van de deelnemers (63 procent) is bekend met de aankomende GDPR wetgeving, toch zegt slechts eenderde klaar te zijn voor de introductie van GDPR: daar is dus nog werk aan de winkel! Als we dit iets breder trekken dan zien we dat het verbeteren van de datakwaliteit over het algemeen een grote uitdaging is (53 procent van de organisaties). Succes met data is een gedeelde verantwoordelijkheid van business en IT.

Cloud
Eenvijfde van de deelnemers vindt het opslaan van data in de cloud onveilig, terwijl bijna de helft van de respondenten cloud als een goede oplossing ziet voor hun organisatie. In het eindrapport analyseren we verder welk type organisatie of respondent cloud veilig of onveilig vindt. Van de drie grote cloud-providers, Microsoft Azure, Amazon en Google Cloud, is de laatste de grote uitdager. Microsoft Azure lijkt de cloudaanbieder met de breedste adoptie te zijn. Hoe kijkt u aan tegen de cloud voor uw organisatie?

Rapport en prijzen
Deelnemers die hun gegevens achterlaten ontvangen het onderzoeksrapport en maken ook nog eens kans op mooie prijzen, zoals een Apple Watch, Moleskine notebooks, VIP-toegangskaarten voor Big Data Expo en Bol.com cadeaukaarten.
De resultaten van Big Data Survey worden gepresenteerd tijdens Big Data Expo op 20 en 21 september 2017 in de Jaarbeurs in Utrecht. Kijk voor meer informatie op www.bigdatasurvey.nl

]]>
Wed, 26 Jul 2017 15:42:57 +0200 Tussentijdse analyse resultaten Big Data Survey 2017 http:///item/964080/tussentijdse-analyse-resultaten-big-data-survey.html&field=Foto1&rType=crop&height=165&width=165.jpg
Accenture en Roche werken aan centraal diabetes-dataplatform http:///item/964012/accenture-en-roche-werken-aan-centraal-diabetes-dataplatform.html Roche kondigt vandaag een samenwerkingsovereenkomst aan met Accenture. Onder de voorwaarden van de vijfjarige overeenkomst creëren Roche en Accenture een centraal dataplatform voor het digitale diabetes ecosysteem van Roche om vorm te geven aan de diabeteszorg in de toekomst.

Het nieuwe dataplatform integreert alle bestaande en toekomstige producten, oplossingen en diensten en verbindt mensen met diabetes en hun zorgverleners. Dit stelt Roche in staat persoonlijke, nauwkeurige en uitgebreide ondersteuning aan te bieden.
Het centrale dataplatform wordt gebouwd op het Accenture Intelligent Patient Platform. Accenture biedt Roche hiermee een platform dat Roche in staat stelt gegevens in een beveiligde omgeving te verzamelen en te analyseren. Roche kan zo nieuwe diabetes-therapieën ontwikkelen en nieuwe oplossingen en apparaten van partners eenvoudig integreren.

Gegevensanalyse
De samenwerkingsovereenkomst met Accenture is volgens Marcel Gmünder, Global Head of Roche Diabetes Care, een geweldige stap in de richting van geïntegreerde diabetesmanagementoplossingen. “Het open diabetesplatform dat we creëren stelt ons in staat om, door middel van algoritmen, grote hoeveelheden gegevens te analyseren en te duiden, zodat we sneller kunnen reageren op de behoeften van mensen met diabetes, hun verzorgers en zorgsystemen. Uiteindelijk kan dat tot gepersonaliseerde zorg en betere uitkomsten leiden. De samenwerking vloeit voort uit de vertrouwensrelatie die we de afgelopen jaren hebben opgebouwd. Het maakt het ons mogelijk digitale zorg voor diabetes verder te ontwikkelen en geïntegreerde diabetesmanagementoplossingen en -diensten aan te bieden. Zo geven we vorm aan de manier waarop zorg wordt verleend in de toekomst en realiseren we betere behandelresultaten en duurzame zorgsystemen.”

Beveiligde omgeving
Koen Deryckere, MD Consumer & Manufacturing bij Accenture, is verheugd de samenwerking met Roche naar een hoger niveau te tillen en de zorg voor mensen met diabetes sterk te kunnen verbeteren. “Het digitale ecosysteem dat wordt gebouwd op het Accenture Intelligent Patient Platform combineert de buitengewone expertise van Roche met diabetes en de expertise van Accenture op gebied van biowetenschappen en gezondheid. Het biedt een beveiligde, analytische omgeving waarin de gehele medische branche samenkomt voor een betere zorg voor mensen met diabetes.”

Meer informatie: Accenture

]]>
Wed, 26 Jul 2017 14:12:44 +0200 Accenture en Roche werken aan centraal diabetes-dataplatform http:///item/964012/accenture-en-roche-werken-aan-centraal-diabetes-dataplatform.html&field=Foto1&rType=crop&height=165&width=165.jpg
Grote rol voor Analytics en AI in samenwerking KPN en TU Eindhoven http:///item/963189/grote-rol-voor-analytics-en-ai-in-samenwerking-kpn-en-tu-eindhoven.html Telecom- en ICT-dienstverlener KPN en TU Eindhoven gaan samenwerken aan de ontwikkeling van hoogwaardige technologie voor de telecomsector. Software, data analytics en ook kunstmatige intelligentie krijgen hierin een steeds grotere rol. KPN ziet goede kansen om samen met TU Eindhoven elkaar op dit vlak te versterken met de Flagship Telecom.

De strategische samenwerking concentreert zich rond vier faculteit-overstijgende centra van TU/e, te weten: Center for Wireless, Data Sciences, Smart Cities en het Institute for Photonics. De Flagship Telecom streeft ernaar om op termijn plek te bieden aan zestien hoogwaardige promotieplaatsen voor TU/e-studenten (PhD’s).
De samenwerking is vorige week door beide partijen bekrachtigd. Jan Mengelers, bestuursvoorzitter TU/e: "Dankzij de samenwerking met KPN kunnen onze onderzoekers, promovendi en studenten de dynamische telecommarkt met hun onderzoek ondersteunen en de kans krijgen om hoogwaardige telecom-technologie in the-internet-of-everything-tijdperk in de praktijk te ontwikkelen."

Volgens Joost Farwerck, COO en lid van de Raad van Bestuur KPN, gaat deze gezamenlijke inspanning bijdragen aan de verdere ontwikkeling van talent binnen KPN. “Het helpt ons nog beter in te spelen op exponentiële en disruptieve technologieën van de toekomst. De interactie met TU/e-studenten en de samenwerking met vier belangrijke technologiecentra van de universiteit, zijn een belangrijke inspiratiebron voor de ontwikkeling van nieuwe producten en technologieën.”

]]>
Wed, 26 Jul 2017 00:44:14 +0200 Grote rol voor Analytics en AI in samenwerking KPN en TU Eindhoven http:///item/963189/grote-rol-voor-analytics-en-ai-in-samenwerking-kpn-en-tu-eindhoven.html&field=Foto1&rType=crop&height=165&width=165.jpg
Lieven Verhaevert nieuwe CEO van Ordina Belgium & Luxemburg http:///item/963188/lieven-verhaevert-nieuwe-ceo-van-ordina-belgium-en-luxemburg.html Lieven Verhaevert is de nieuwe CEO van Ordina Belgium & Luxemburg. Hij is maandag 24 juli in dienst getreden. Lieven Verhaevert volgt Franky Van Damme op die in november vorig jaar tijdelijk de rol van CEO op zich nam.

Verhaevert was General Manager Insurance bij CSC & DXC Technology, waar hij verantwoordelijk was voor de resultaten in België, Luxemburg, Spanje, Portugal, Frankrijk en Italië. In eerdere functies was hij werkzaam voor KPMG, PwC en IBM. Hij heeft ruime ervaring in de financiële sector en beschikt over uitgebreide expertise in het leiden van teams die business consulting, ICT- en outsourcingdiensten leveren. Ook begeleidde hij klanten en projectteams bij impactvolle veranderingstrajecten van value discovery tot en met value delivery.

CEO Jo Maes van Ordina N.V. heeft het volste vertrouwen in Lieven. “Ik weet dat de Ordina Benelux-club met Lieven verder aan de toekomst kan bouwen en dat hij met passie en enthousiasme de ambities van Ordina mede zal vormgeven en ondersteunen."

]]>
Wed, 26 Jul 2017 00:34:04 +0200 Lieven Verhaevert nieuwe CEO van Ordina Belgium & Luxemburg http:///item/963188/lieven-verhaevert-nieuwe-ceo-van-ordina-belgium-en-luxemburg.html&field=Foto1&rType=crop&height=165&width=165.jpg
5 Advantages of Automated In-Memory Data Warehousing from WhereScape and EXASOL http:///item/958994/advantages-of-automated-in-memory-data-warehousing-from-wherescape-and-exasol.html The combination of WhereScape RED data automation technology and EXASOL's in-memory analytic database gives developers a plethora of new data modelling capabilities. Here are five ways your team can use this combination to transform the way they work with data.

Intuitive drag-and-drop modelling
The partnership allows you to build a malleable data warehouse on EXASOL via an intuitive drag-and-drop GUI that automates the actions you commit. This allows complex data ecosystems to be built in a fraction of the time compared to hand-coding, and without the inevitable human error. Teams can commit fewer resources yet achieve the insight they are looking for faster. Plus, you never need to write documentation again!

Faster ELT
WhereScape RED either complements your existing ETL processes and speeds it up, or replaces them with a highly scalable ELT architecture that leverages the power of EXASOL and performs the transformation process using the power of the database. You can use this to quickly build native EXASOL objects and even an entire semantic layer.

Orchestration made simple
WhereScape RED for EXASOL does not add another new product into your already complex web of data creating, sharing or analysis technology. Instead it ensures your existing data sources, targets and BI tools feed in and out of EXASOL as quickly as possible without the need for manual handoffs. WhereScape RED is essentially an integrated development environment, enabling you to unravel the complexity that slows you down.

New features
As RED commits changes made in its GUI, it simultaneously creates standardized documentation for them, creating a full audit trail. This means new EXASOL features can be seamlessly integrated as soon as they are available, without a need for work-around solutions to be hand-coded.

Value for money
Data automation allows teams to do more with less budget. This is useful for a company of any size of course, but it allows smaller teams to build structures that previously lay outside their scope. The reduced resources required means more time to work on other initiatives, or as in the case of many companies we have worked with, less money spent on outsourcing.

Partner Focus
Since 2008, EXASOL has led the Transaction Processing Performance Council's TPC-H benchmark for analytical scenarios, in all data volume-based categories 100 GB, 300 GB, 1 TB, 3 TB, 10 TB, 30 TB and 100 TB.
EXASOL holds a top position in absolute performance as well as price/performance. It is a parallelized relational database management system (RDBMS) which runs on a cluster of standard computer hardware servers. Following the SPMD model, the identical code is executed on each node simultaneously. The data is stored in a column-oriented way and proprietary in-memory compression methods are used. Given its self-optimizing and tuning-free features, the database gives you more time to focus on analytics and insights, not administration.

Charlie Coffey is EMEA Marketing Manager at WhereScape.

]]>
Tue, 25 Jul 2017 00:04:00 +0200 5 Advantages of Automated In-Memory Data Warehousing from WhereScape and EXASOL http:///item/958994/advantages-of-automated-in-memory-data-warehousing-from-wherescape-and-exasol.html&field=Foto1&rType=crop&height=165&width=165.jpg
What Do We Mean by 'Data Driven Business'? http:///item/958995/what-do-we-mean-by-data-driven-business.html We just finished work on a new video that introduces data-driven business. It is a trending term for sure, sometimes misunderstood, often misused. In our industry we see it as how organizations are trying to increase adoption of business intelligence (BI) and analytical insight to employees, partners, and customers. The primary purpose is to execute planning and business based on data, not intuition or guesswork.

So what is the biggest challenge with increasing the degree of data-driven business undertaken by organizations?

Some might say that the BI and analytics technologies available to employees works for some, but not for others. The data discovery tools that have risen in prominence have proven valuable for those who are analytically natured, reasonably data savvy, and willing to learn a new tool. Others do not have the time, skills, or inclination to learn or figure out how to use a new technology. The tools themselves have become more intuitive, but they have also become more complex as more features and options have been packed into them.

The role of data scientist or citizen data scientist has increased in prominence, as more advanced analytics are possible by non-technical workers. Younger, more tech savvy workers will undertake more data-oriented tasks, but we are still faced with 70-75 percent of the addressable user population without data-driven business.

Take a look at the video for a few observations and thoughts on how to approach this challenge.

Here are some points worth considering:
1. Trust in data. This is an absolute fundamental, because if your organization cannot provide accurate, trusted, and timely data, there is no point in analyzing anything. We are amazed at how many decisions are made leveraging questionable data. Providing trusted data is, however, easier said than done, especially when attempting to incorporate new data sources, and then trying to solve data integration/data quality problems. This page might help on this topic.

2. Provide BI and analytics on users' terms. There are several metaphors that can be used when it comes to delivering inappropriate tools to the wrong users, e.g. "Square peg round hole", "Horses for courses". The key is to provide the data that helps with users' activities in a way that is convenient, intuitive, flexible, and, of course, valuable. Our organization is widely known for going beyond the 20-25 percent adoption for execs and analysts, and supplying a wide range of tools, applications, and analytical documents to the 75-80 percent as well, whether everyday operational workers, or business partners and customers outside the firewall. We have been solving this challenge with a combination of 'tools' and 'apps'. More info here.

3. Customer-facing analytics. Another way to increase adoption of data-driven business is to deliver analytics outside of the firewall, in this case to your partners and customers. You could do this via some kind of portal, extranet, or information application that has a live connection to your analytics platform. There is another type of customer-facing analytics that is incredibly cost-effective, based on a patented technology we have developed called In-Document Analytics. This enables you to automatically create analytical documents that each contain reports/charts/dashboards, the data, and analytical functions all within a single document, providing interactivity even when disconnected. Also, be sure to explore the capability known as Data Monetization when looking to generate additional value from your data. This page elaborates further.

4. Consider new sources of data. As big data enters the mainstream, many new sources of data are being introduced into the information equation. New data sources open up a world of opportunity, not only for user-oriented decision-making, but for the automation of operations based on predetermined or machine-generated rules. Examples might be Internet of Things (IoT) sensor data, or unstructured sources like e-mail, audio, or video. You may have seen the graphic stating that 90 percent of all data by 2020 will be unstructured. How can we leverage that data for competitive and operational benefit? Our first task is to consider the relevance and possible value of this data. Then we can figure out how to integrate all our data sources to provide context and practical value for its use. Here is more info on IoT and Big Data.

I hope this blog has offered food for thought on how to maximize the use and value of all the information sources available to you. Right now our industry is progressing at an unrelenting speed, which is generating both challenge and opportunity. I love it!

Andy McCartney is the director of product marketing at Information Builders, responsible for the development and delivery of WebFOCUS go-to-market strategies.

]]>
Mon, 24 Jul 2017 03:00:00 +0200 What Do We Mean by 'Data Driven Business'? http:///item/958995/what-do-we-mean-by-data-driven-business.html&field=Foto1&rType=crop&height=165&width=165.jpg
Oracle voegt PaaS- en SaaS-diensten toe aan Cloud at Customer http:///item/958760/oracle-voegt-paas-en-saas-diensten-toe-aan-cloud-at-customer.html Om organisaties te ondersteunen bij het verplaatsen van workloads naar de cloud, terwijl ze hun data op eigen locatie beheren, komt Oracle met een aanvulling op de diensten die beschikbaar zijn via Oracle Cloud at Customer.

Het portfolio omvat naast alle grote Oracle PaaS-categorieën nu voor het eerst ook de SaaS-diensten van het bedrijf. Oracle Cloud at Customer is sinds de introductie vorig jaar hard gegroeid. Inmiddels hebben vooroplopende bedrijven verspreid over zes continenten en in meer dan dertig landen de oplossing al geïmplementeerd, waaronder AT&T en Bank of America.

Dataprivacy
Oracle Cloud at Customer is ontworpen om een van de grootste struikelblokken van cloudadoptie weg te nemen, namelijk problemen met betrekking tot dataprivacy en de opslaglocatie van data. Hoewel organisaties hun workloads maar al te graag naar de public cloud willen verhuizen, worden veel ervan tegengehouden door onder meer bedrijfsgerelateerde en wettelijke eisen waaraan zij moeten voldoen. De diensten van Oracle geven bedrijven een keuze in waar data en applicaties worden opgeslagen, en een soepeler manier voor het verplaatsen van bedrijfskritische applicaties naar de public cloud.

Aan de basis van Oracle Cloud at Customer ligt een modern cloudinfrastructuurplatform gebaseerd op Oracle-hardware, software-defined storage en networking. Oracle beheert en onderhoudt de infrastructuur op de klantlocatie, zodat klanten zelf zich kunnen focussen op het gebruik van de IaaS-, PaaS- en SaaS-diensten. Het platform van Oracle Cloud at Customer is hetzelfde platform dat wereldwijd de Oracle Cloud ondersteunt.

Abonnementsbasis
Vanwege de grote vraag blijft Oracle de diensten uitbreiden, die beschikbaar zijn via Oracle Cloud at Customer. Klanten hebben nu toegang tot alle grote PaaS-categorieën van Oracle, inclusief Database, Application Development, Analytics, Big Data, Application and Data Integration en Identity Management. Deze diensten profiteren van de recente verbeteringen aan het onderliggende Cloud at Customer-platform, zoals bijvoorbeeld servers met snellere CPU’s, maar ook all-flash block storage voor een nog betere ondersteuning van enterprise-workloads.

Daarnaast zorgt Oracle er voor dat verschillende SaaS-diensten beschikbaar zijn via Oracle Cloud at Customer, waaronder Enterprise Resource Planning, Human Capital Management, Customer Relationship Management en Supply Chain Management. Grote organisaties zetten deze nieuwe optie inmiddels in om hun belangrijkste bedrijfsactiviteiten te moderniseren en te profiteren van de innovatie binnen Oracle-SaaS zonder gevoelige applicatiedata uit het oog te hoeven verliezen. Met de komst van SaaS-diensten naar Oracle Cloud at Customer hebben klanten toegang tot Oracle Cloud-diensten binnen de volledige cloudstack die toegankelijk zijn binnen hun eigen datacenters. En dat allemaal in een managed model op basis van een abonnement.

Big Data Cloud Machine
Ook beschikbaar is de Oracle Big Data Cloud Machine, een geoptimaliseerd systeem dat een robuust Hadoop- en Spark-platform biedt met de kracht van eigen nodes en de flexibiliteit en eenvoud van een cloudaanbod. Organisaties hebben hiermee op basis van een abonnement toegang tot verschillende Hadoop-, Spark- en analytics-tools binnen hun eigen datacenters.

Oracle Cloud at Customer biedt de volgende Oracle Cloud-diensten:
• Infrastructuur
• Data Management
• Big Data en Analytics
• Application Development
• Enterprise Integration
• Security
• Software-as-a-Service

Meer informatie: Oracle Cloud at Customer

]]>
Mon, 24 Jul 2017 00:04:00 +0200 Oracle voegt PaaS- en SaaS-diensten toe aan Cloud at Customer http:///item/958760/oracle-voegt-paas-en-saas-diensten-toe-aan-cloud-at-customer.html&field=Foto1&rType=crop&height=165&width=165.jpg
Info Support biedt programma voor Artificial Intelligence trajecten http:///item/958762/info-support-biedt-programma-voor-artificial-intelligence-trajecten.html Info Support heeft een programma ontworpen waarmee in drie stappen een eigen AI-experiment is op te starten.

Tijdens een AI-experiment worden bedrijfsdata geanalyseerd en geïnterpreteerd door slimme software. Zo zijn nieuwe patronen te ontdekken met verrassende verbanden. Deze inzichten vertaalt Info Support vervolgens in een softwaresysteem en borgt deze in de bestaande processen van een organisatie. Op deze manier ontstaat een beter inzicht in de organisatie, om sneller antwoord te kunnen geven op uiteenlopende organisatievraagstukken.

De invulling van een Artificial Intelligence experiment is sterk afhankelijk van het doel van de organisatie, daarom staat in de eerste stap het definiëren van deze doelen centraal. In stap 2 wordt het experiment gezamenlijk uitgevoerd, zodat er direct kennisoverdracht plaatsvindt. De nadruk ligt op het verzamelen, analyseren en combineren van bestaande en nieuwe data. Een valide hypothese kan omgezet worden in een productiesysteem. In de laatste stap worden alle gevonden datastromen vertaald in een softwaresysteem, zodat het een onderdeel wordt van de interne processen in de organisatie.

Meer informatie: Info Support

]]>
Mon, 24 Jul 2017 00:02:00 +0200 Info Support biedt programma voor Artificial Intelligence trajecten http:///item/958762/info-support-biedt-programma-voor-artificial-intelligence-trajecten.html&field=Foto1&rType=crop&height=165&width=165.jpg
Infor Concierge brengt klantcontactpunten bij elkaar in een portaal http:///item/958935/infor-concierge-brengt-klantcontactpunten-bij-elkaar-in-een-portaal.html Infor kondigt de beschikbaarheid aan van Infor Concierge, een krachtige self-service tool waarmee klanten eenvoudiger toegang hebben tot belangrijke sites, content en middelen. Infor Concierge is intuïtief, heeft een moderne look en feel en is 24×7 zonder extra kosten beschikbaar voor alle klanten met een Infor Maintenance- of Subscription-contract.

De tool is ontwikkeld in samenwerking met de Infor Customer Experience Board waarin klanten uit de hele wereld zijn vertegenwoordigd. Zij werken nauw samen met Infor om de klantervaring te verbeteren. Infor Concierge biedt klanten toegang tot updates over support-incidenten, quick views, informatie over productspecifieke webinars en één plek waar alle productdocumentatie te vinden is. Door klanten invloed te geven op de specificaties van het ontwerp, de ontwikkeling, het testen en de goedkeuring kan Infor de wensen van de klanten direct in Infor Concierge verwerken.

Infor Concierge is ontwikkeld met behulp van Infor Ming.le dat rolgebaseerde startpagina’s biedt met widgets die informatie van meerdere ERP-systemen op een plek tonen. Elke gebruiker kan zijn startscherm personaliseren en heeft op elk moment toegang tot informatie over zijn Infor-diensten en -oplossingen en controle over wie binnen de organisatie welke informatie kan bekijken. Daarnaast kunnen gebruikers contact opnemen met andere gebruikers in de Infor Communities en Infor-contacten e-mailen of bellen.

Infor wil volgens  Mary Trick, vice-president en chief customer officer bij Infor, de gemakkelijkste bedrijfssoftwareleverancier zijn om mee samen te werken als het gaat om interacties. “Door onze klanten toegang te geven tot informatie, kunnen ze zakelijke problemen sneller oplossen en op elk moment beschikken over gegevens die ze nodig hebben, zonder dat ze daar meerdere telefoontjes en e-mails aan moeten wijden. Ons bedrijf begrijpt dat elke organisatie uniek is, net als zijn zakelijke behoeften. We hebben met klanten in diverse sectoren gesproken om te begrijpen welk soort realtime klantenservice zij van een technologiepartner verwachten. En dat is allemaal verwerkt in Infor Concierge.”

]]>
Mon, 24 Jul 2017 00:01:00 +0200 Infor Concierge brengt klantcontactpunten bij elkaar in een portaal http:///item/958935/infor-concierge-brengt-klantcontactpunten-bij-elkaar-in-een-portaal.html&field=Foto1&rType=crop&height=165&width=165.jpg
Booking.com: The Case of Finance Innovation http:///item/926204/booking-com-the-case-of-finance-innovation.html We are witnessing a fresh acceleration of technological change which is affecting the established ground rules within companies. The primary driver of this change is Big Data and relevant technologies that are transforming the way businesses approach data analysis. While the sheer volume of data and the disparate sources from which it is collected has made data analysis and the process of extracting insights a challenging task for businesses, there are a few data-driven companies that all of us can look up to get inspiration and direction. 

Booking.com is one of those companies that have always remained at the forefront of technology. Owned and operated by the Priceline Group, Booking.com is the world leader in booking accommodations online. It is estimated that each day, over 1,200,000 room nights are reserved via the company’s website. As a result, the company collects and analyzes massive amounts of data every single day. 

To get an insight into Booking.com’s finance-related data handling practices and the technologies and tools that it utilizes, I scheduled an interview at SAP Netherland’s recent S/4HANA Adoption Forum with Venkat Iyer who is serving as Director Financial Systems for Booking.com. Here are the key things that I learnt about the fascinating work that Venkat and his team are doing to support the business and finance operations of Booking.com.

Driving Innovation by Approaching Challenges as a Way to Learn 

http://biplatform.nl afbeelding

Venkat Made a Difficult Decision 

Almost every single company has experienced a massive growth in the volume of data generated by various channels, and Booking.com was not an exception. Venkat explained that there was a time when they were wondering what would happen if they doubled the amount of properties on their website in the next three years and how the finance back-office would cope with this growth. They analyzed that the investment in more hardware alone would not solve the problem. 

A comprehensive evaluation made them realize that to support the increasing volume of data, they will require massive scalability, which was not feasible on the existing ERP platform. It became essential for them to invest in a new solution, but this was risky as well. They didn’t want to bottleneck the business and impede finance business support functions. So, Venkat, along with his team, decided that exploring new opportunities was the only solution. Booking.com evaluated the pros and cons of SAP’s S/4HANA solution and decided that this was the solution that could drive speed, scalability, and innovation, and improve the way people work. 

This particular decision is quite inspirational for entrepreneurs and leaders who are often required to take tough decisions in challenging circumstances. When I asked Venkat about what really made him take this risk, he said, “We have an obligation to dream and realize it, because if we don’t, we don’t move forward.”

Approaching Challenges In a More Fun Way

Apart from technical details, I believe that it’s important to share the ‘actual’ experience that Venkat and his team had during the initial HANA implementation. Since the deployment of HANA entailed significant risk, Booking.com chose to give themselves 4 months to implement and to go live a day before an NL national public holiday (Kings Day). The rationale was if something went wrong, the company had at least one more day to recover from the problem. 

Here’s how Venkat puts the experience into words:

“You can’t implement projects like these if you don’t have a lot of fun while you are doing it. And you have to trust each other…”.” 

3 Key Drivers for Success

When I asked Venkat about the three primary reasons behind the successful implementation, his immediate response was: “There were many drivers. There are a lot of things that went right.” In addition to teamwork, one major reason why the decision to invest in a new solution proved to be a strategically sound decision for Booking.com was that it facilitated full financial business involvement. The company worked in collaboration with the solution provider throughout the process and their continuous involvement contributed a lot to the final outcome. 

When Booking.com invested in this new solution, they were things that they knew they could do with it. And on the other hand, there were things that they didn’t know it could do, and that proved to be very exciting. Venkat and his team experimented and innovated new ways of doing everyday tasks in a more efficient manner. This ability to innovate served as a driving force for every function of the finance organization in all imaginable directions. Here’s how Venkat puts it: 

“The fact that you do not know what you can do with something is the most exciting thing in the journey of innovation.”

Finding Newer Ways to Approach Conventional Problems 

Learning from Your Failures

“Don’t be discouraged by failure. It can lead you in new directions.” 

In just one sentence, Venkat perfectly summarized the approach he adopted when he was met with challenges and constraints during his innovation journey. As I have mentioned earlier, every decision entails its own risks, and Booking.com’s investment decision was no exception. There were several challenges that the company faced during the migration process. Some of these include:

  • There was a huge volume of unclean, unstructured legacy data that was a pain to deal with during the migration process. 
  • There was little room for error during migration as it would push back scalability plans by several months. 
  • The company experienced an inconsistent migration experience. One of the migration steps that the team had run successfully multiple times, failed during the deployment, and for six hours, they had no solution. 

The Crucial Design Thinking Workshop

http://biplatform.nl afbeelding

Venkat made an interesting choice before he made the decision. He organized a design thinking workshop that was facilitated by SAP and three finance teams from Booking.com. There were two themes that emerged during the discussions. 

  1. People were not willing to wait. They wanted everything in real-time because they lived in the world of now. 
  2. When people have invested in technology and see its possibilities, they start to re-imagine the future and no longer feel constrained by the things that happen. 

While the second theme was the primary reason the participants of the workshop asked the right questions, dug deeper, and spoke freely without judgment, the first theme directed to a more in-depth issue. It helped the company realize that if they gave a better user experience for employees and provided them easy access to data they could fundamentally change the way they work and have a wider business impact. 

It Was More Than a Database. It Represented an Opportunity.

http://biplatform.nl afbeelding

Venkat and his team didn’t see S/4HANA as a mere database. Instead, they perceived it as a platform for innovation, an opportunity to change the way the finance teams work at Booking.com. For them, the implementation was not just about driving speed and innovation and improving the analytics skills of the workforce, it was about helping them understand the value of data and turn into a key driver for decision making. 

Another thing that Venkat focused on was making the finance operation more agile and user-friendly. The company’s website offered an agile and highly responsive experience to the users, allowing them to change their decisions as fast as they wanted. However, the finance functions didn’t have that luxury. They realized that making finance operations simpler and more agile constituted an opportunity for them. Therefore, they aimed for a consistent, user-friendly experience throughout the value chain, and they achieved it through meticulous preparation, consistent testing, and a successful migration. 

When someone is faced with a seemingly insurmountable challenge, their attitude matters a lot. When faced with the challenge of a successful implementation of S/4HANA, Venkat asked himself:

“Are there other opportunities that we are missing? Why are we always looking at it from the point of view of what problem can we solve? Why don’t we look at it from the point of view of what opportunities are out there that we can exploit?”

Approaching problem from a positive angle provided the team a new direction. They realized that Booking.com’s limited knowledge was a constraint for the implementation. But they also knew that with SAP’s support and in-depth expertise of the solution, they could resolve the issue and achieve their ultimate objective.

“You are not working on your own. And for us, we got a lot of support. I must admit we would not have been able to do it if we did not have the collaboration [from SAP] at this point in time.”

Using Data to Predict Financial Risks 

The Pre-Requisites to Achieve a High ROI on Database Investment 

According to Venkat, the foundation of the HANA database is very critical when it comes to collecting data from different sources with the purpose of generating insights. However, you need to be careful about the kind of data sources you bring in because a solution has the infrastructure to support it, but with time, it may become too costly to maintain all this data and generate something valuable from it. 

To summarize, your ability to achieve a high return on your database investment depends on:

  • A self-managed environment that’s able to scale
  • A high-skilled, reliable internal team
  • Bringing the right type of data sources
  • Handling the flow of data 

Exploring the True Potential of S/4HANA

Booking.com has always been a data-driven company, but investing in S/4HANA provided the finance functions an opportunity to look at data in a completely different way. Venkat and his team used the solution to innovate with analytics and machine learning. They migrated datasets from several sources to the new database, and the data analysis help them gain a better understanding of financial risks and provided actionable insights to their people at the right time. 

Start Small and Trust Your Team

I realize that many of my readers are aspiring to be an entrepreneur or are ready to drive change in the organizations they work for. Therefore, I asked Venkat to provide his advice to people who are in a similar situation and are required to make an unusual decision. He said, “Start very small. Pick one little use case, start from there. If it doesn’t work, you will know. But if it works, you are giving your company an amazing opportunity to march into the future.”

Conclusion

The corporate world today is driven by technology, and the finance function of a business is no exception. With information of all types, structured and unstructured, being generated from a spectrum of resources, the long-term financial success of a company depends greatly on its ability to capture data, analyze it, and take immediate and accurate decisions on the basis of insights extracted from data analysis. To meet this needs and expectations, businesses are required to invest in sophisticated tools that can support the data analytics needs of their financial function and help them thrive in today’s technology driven world.

]]>
Sun, 23 Jul 2017 12:14:17 +0200 Booking.com: The Case of Finance Innovation http:///item/926204/booking-com-the-case-of-finance-innovation.html&field=Foto1&rType=crop&height=165&width=165.jpg
Apple lanceert online Machine Learning Journal voor onderzoekspublicatie http:///item/959052/apple-lanceert-online-machine-learning-journal-voor-onderzoekspublicatie.html Apple heeft de Machine Learning Journal gelanceerd, een blog voor Apple's software engineers, waarin zij hun onderzoek en innovaties op het gebied van AI en machine learning kunnen publiceren.

Eind 2016 publiceerde Apple haar eerste AI onderzoekspaper online, waarmee het bedrijf aangaf open te willen zijn naar de academische wereld en haar onderzoeksresultaten te willen delen. De nieuwe online journal is een volgende stap in deze richting, waarin Apple meer openheid van zaken geeft in haar onderzoekswerk. Apple bevestigt dat er regelmatig updates worden doorgevoerd, maar men moet niet een kenmerkende dagelijks ververste nieuwssite verwachten.

De eerste bijdrage op de Machine Learning Journal heet Improving the Realism of Synthetic Images en is een theoretisch verslag over het verbeteren van beeldgebaseerde machine learning modellen. De bijdrage bevat een ‘tips & tricks’ gedeelte en een lijst met wetenschappelijke referenties. Apple vermeldt niet hoe de onderzoeksresultaten in haar producten worden toegepast.
Apple nodigt ontwikkelaars van buiten, studenten en onderzoekers uit om vragen en commentaar in te zenden naar machine-learning@apple.com.

Meer informatie: Apple Machine Learning Journal

]]>
Sat, 22 Jul 2017 23:33:03 +0200 Apple lanceert online Machine Learning Journal voor onderzoekspublicatie http:///item/959052/apple-lanceert-online-machine-learning-journal-voor-onderzoekspublicatie.html&field=Foto1&rType=crop&height=165&width=165.jpg
Optimizing your Tableau and Azure SQL DB connectivity http:///item/958931/optimizing-your-tableau-and-azure-sql-db-connectivity.html Tableau's ability to integrate with Microsoft technologies has helped businesses around the world grow stronger and achieve more. As Microsoft pursues its cloud-first strategy, Tableau is there, allowing you to put the full weight of the Azure platform behind your analytics. Along the way we've enabled joint customers like Cox Automotive and Hertz, to transform their organizations with self-service analytics in the public cloud.

In recent years, Microsoft SQL and Tableau’s engineering teams have worked closely together to provide superior user experience and improve customer satisfaction with the two platforms. We’ve learned a lot, and today we are sharing some valuable advice on how to optimize the connectivity between Azure SQL DB and Tableau.

Our teams previously teamed up for SQL Server 2016 launch and for Azure SQL Data Warehouse launch. To date, SQL Server is Tableau’s most common data source (in combined cloud and on-premises usage), as detailed in the recent Tableau Cloud Data Brief, which makes our partnership vital for our customers.
img1_datalandscape.png

Our engineering benchmarks, and several global customer engagements have led us to explore how to leverage the best of both platforms to achieve optimal connectivity and performance. In one such engagement, a Fortune 100 mutual Tableau/Azure SQL DB customer provided our teams full access to their environment and key datasets that we could test and optimize. Over the course of this engagement—which generated excellent “engineer-to-engineer” level dialogue across four time zones—our teams collaborated with the customer to perform numerous performance tests. Then, we documented key takeaways for maximizing performance.

Here are some chief learnings about Azure SQL DB and Tableau:
Out-of-the-box experience works well
Beyond the self-indulging statement, we observed that most customers fared well by simply replicating their on-premises approach, or hitting Azure SQL DB directly. Azure SQL DB uses the same drivers as SQL Server 2016, which reduces complexity here. As you might have already noticed in Tableau Desktop UI, there is a single SQL Server connector for Azure SQL DB, Azure SQL Data Warehouse or SQL Server 2016 - running on premises or in a public cloud like Azure.


img2_sqlserver.png

Tableau Live Querying provides the best performance
Network bandwidth permitting, live-querying Azure SQL DB with Tableau allows the heavy lifting to occur in Azure SQL DB, while also providing more up to date information to Tableau users - as opposed to extract based connectivity (There are a number of reasons you may still need extracts for, as spelled out in great detail by Tableau Zen Master Jonathan Drummey here). This implies doing some sizing and performance testing with different Azure SQL DB SKUs. In our experience, Azure SQL DB latency and throughput can meet the most stringent Tableau requirements.

For example, we advised a joint customer to move from S0 (10 DTUs) to P1 Premium (125 DTUs), which instantly removed latency issues. The cost impact is commonly offset by user and customer satisfaction.

We also wanted to provide some recommendations on how to monitor and ensure optimal performance of your “Tableau on Azure SQL DB” deployment. As Tableau customer advisor extraordinaire Alan Eldridge mentions in his seminal Tableau whitepaper, Designing Efficient Workbooks, “there is no silver bullet for inefficient workbooks.” Start your monitoring by looking at Tableau’s performance recorder to understand where the time is going. Are there long-running queries? Do you have lots of queries? How slow are your calculations? Is there complex rendering? Use these questions to drilldown on further insights to focus your efforts in the right direction.

Azure SQL DB optimization
Let’s start with the data source. “If it is slow in the data source, it will be slow in Tableau,” says Alan in Designing Efficient Workbooks i.e. performance issues, in most cases, can be traced back to a poorly tuned database. Our friends at Microsoft have put together a full, exhaustive list of tuning steps and checks that are worth performing to make sure your database is responsive.

Three of my favorite tips from this list are:
• Check for index recommendations and usage
• Prioritize statements based on highest execution time
• Examine top queries and associated execution plans (Use performance recorder to identify long running queries)

Customer learnings from workbook optimization
The following bullets are some Tableau specific best practices that the Fortune 100 joint customer employed and benefited tremendously from:
Isolate Date Calculations: As much as possible, put together information that can be pre-computed. Tableau will compute it once and the database may be able to use an index.
Use Boolean Fields: Don’t use 0 and 1 as indicators for true and false. Use Boolean fields as they are generally faster.
Don’t Change Case: Don’t put UPPER or LOWER in comparisons when you know the case of the values. The database doesn’t know the case, so it will apply the UPPER or LOWER as directed.
Use Aliases: Where possible, label text using Tableau’s alias feature, rather than in a calculation. Aliases aren’t sent to the database so they tend to be faster.
Use formatting when possible: Don’t use string functions when you can just use formatting. Then use aliases to label the fields.
Replace IF / ELSEIF with CASE: It’s a good idea to do this as CASE statements are generally faster.

This is a subset of techniques the joint customer used to make their deployment fast and responsive, but we highly recommend reading the aforementioned whitepaper, Designing Efficient Workbooks by Alan Eldridge, for the exhaustive set of best practices, which apply to all scenarios across different volumes, velocity, and variety of data.

We hope this is useful to you and we’re curious to read your comments and feedback on how you use Tableau and Azure SQL DB. Note that your Azure free trial includes $200 you can use against Azure SQL DB. If you are running your infrastructure and applications in Azure today, remember that Tableau Server is certified to run in Azure, so you can have your entire BI and analytics platform running seamlessly in the Azure cloud.

And, finally, if you’re looking at more complex deployment scenarios and want to upgrade your Tableau and Azure skills, we’d recommend a look at our Tableau and Cloudera Quickstart Azure template.

Vaidy is a Senior Manager, Big Data Product Marketing for Tableau based out of Seattle.

Acknowledgments: This article is a collaboration between several people. Special thanks to Dan Cory (Tableau), Joe Sack (Microsoft), Nico Caudron (Microsoft) and Gil Isaacs (Microsoft).

]]>
Sat, 22 Jul 2017 21:07:20 +0200 Optimizing your Tableau and Azure SQL DB connectivity http:///item/958931/optimizing-your-tableau-and-azure-sql-db-connectivity.html&field=Foto1&rType=crop&height=165&width=165.jpg
Pegasystems intensiveert partnerships met Amazon Web Services en Microsoft Azure http:///item/957301/pegasystems-intensiveert-partnerships-met-amazon-web-services-en-microsoft-azure.html Pegasystems kondigt aan de relaties met Amazon Web Services (AWS) en Microsoft Azure te intensiveren. Dit biedt klanten meer keuze, flexibiliteit en ondersteuning bij het configureren van hun cloud-omgeving. Naast de recentelijk aangekondigde samenwerking met Pivotal betekenen deze partnerships een verdere uitbreiding van Pega's cloud-strategie, die klanten niet langer afhankelijk maakt van één leverancier.
 
Uitbreiding van de samenwerking met AWS zorgt voor naadloze integratie tussen Pega Customer Service – Pega’s  customer service oplossing voor gepersonaliseerde realtime klantinteracties met ondersteuning van Artificial Intelligence – en Amazon Connect – een zakelijke cloud-based contact center management dienst. Pega klanten kunnen nu Amazon Connect direct integreren in Pega Customer Service zodat de call center agents per klant beschikken over de volledige context en interacties eenvoudig kunnen beheren.

Microsoft Azure is een open en flexibel cloud computing-platform. Met deze cloud-diensten kunnen gebruikers overal applicaties bouwen, implementeren en beheren met de tools, applicaties en frameworks van hun keuze. Klanten kunnen nu kiezen voor Pega®Cloud – Pega's volledig beheerde cloud platform – of voor een model waarbij Pega’s technologie rechtstreeks op AWS of Azure wordt geïmplementeerd. In alle gevallen geldt een 24/7 ondersteuning van Pega's wereldwijde support team.

"Organisaties willen tegenwoordig geen one-size-fits-all oplossing meer; ze willen liever een set van tools die naar eigen behoefte kan worden ingezet", aldus Derk-Jan Brand, managing director Benelux & Nordics bij Pegasystems. "Klanten afhankelijk maken van één cloud-architectuur is niet meer van deze tijd. Wij bieden onze klanten de mogelijkheden om te kiezen voor oplossingen die het beste aansluiten bij hun bedrijfsdoelstellingen. Dit geldt dus ook voor hun keuze voor de cloud.”

]]>
Fri, 21 Jul 2017 16:20:22 +0200 Pegasystems intensiveert partnerships met Amazon Web Services en Microsoft Azure http:///item/957301/pegasystems-intensiveert-partnerships-met-amazon-web-services-en-microsoft-azure.html&field=Foto1&rType=crop&height=165&width=165.jpg
Amsterdam School of Data Science start minor Data Science http:///item/955900/amsterdam-school-of-data-science-start-minor-data-science.html In september start de Amsterdam School of Data Science een minor Data Science. De Amsterdam School of Data Science is een initiatief van de UvA, de Vrije Universiteit en de Hogeschool van Amsterdam en wil het data science-onderwijs in Amsterdam samenbrengen.

Volgens opleidingsdirecteur Marc Salomon zegt kunnen studenten niet meer zonder data science-kennis. “Dit geldt niet alleen voor bètastudenten, maar juist ook voor studenten uit andere disciplines. Daarom biedt de Amsterdam School of Data Science vanaf komend studiejaar de minor Data Science aan voor alle universitaire bachelorstudenten”.

Statistiek toepassen
Affiniteit met computers en statistiek is een vereiste voor deelname aan het Engelstalige minorprogramma dat een half jaar duurt. “Bij data science gaat het om het ontdekken van verborgen patronen, gebruikmakend van computers, hersenkracht en de stortvloed aan data”, vervolgt Salomon. “Tijdens de minor leren de studenten hoe zij statistiek toepassen op grote datasets, computers programmeren, en data verzamelen, opslaan en ontsluiten. Bovendien leren ze machine learning-algoritmiek gebruiken en data visualiseren, waarbij ze tegelijkertijd oog houden voor de ethische en privacy-aspecten. Aan het einde van de minor kunnen studenten zelfstandig een data science-project uitvoeren.”

Arbeidsmarkt
De vraag op de arbeidsmarkt naar mensen met deskundigheid op het terrein van data science is volgens Evangelos Kanoulas enorm. Kanoulas is programmadirecteur van de masteropleiding Information Studies, een van de masters  die studenten na afronding van de minor kunnen kiezen als vervolgopleiding. “Vrijwel dagelijks worden we door bedrijfsleven en overheid benaderd met de vraag naar talentvolle studenten met kennis van data science.”
De minor staat open voor bachelorstudenten van de UvA en VU, maar ook van andere universiteiten.

Meer informatie en inschrijving

]]>
Thu, 20 Jul 2017 15:16:57 +0200 Amsterdam School of Data Science start minor Data Science http:///item/955900/amsterdam-school-of-data-science-start-minor-data-science.html&field=Foto1&rType=crop&height=165&width=165.jpg
Inschrijving Stuiveling Open Data Award open tot half september http:///item/955786/inschrijving-stuiveling-open-data-award-open-tot-half-september.html Het kabinet stimuleert het gebruik van open data. De Stuiveling Open Data Award onderstreept dit en legt de nadruk op de maatschappelijke en democratische waarde van open data. Deelname aan de Stuiveling Open Data Award staat open voor iedereen die een toepassing heeft gemaakt waarbij open data van publieke organisaties gebruikt wordt. De beste inzendingen presenteren zich op 16 november tijdens het Jaarcongres ECP, waar de jury de winnaar kiest van een prijs van 20.000 euro.

De Stuiveling Open Data Award, vernoemd naar de onlangs overleden voormalig president van de Algemene Rekenkamer Saskia J. Stuiveling, is ingesteld door het ministerie van Binnenlandse Zaken en Koninkrijksrelaties in 2015. Het kabinet stimuleert het gebruik van open data. De award onderstreept het belang van het gebruik van open data, bijvoorbeeld vanwege de economische, maatschappelijke en democratische waarde. De Stuiveling Open Data Award (SODA) biedt een podium voor de inspanningen van overheidsorganisaties en hergebruikers van open data en beloont bijzondere prestaties met een prijs. In het bijzonder is de Stuiveling Open Data Award bedoeld om zichtbaar te maken wat er mogelijk is met open data en het gebruik van open data te bevorderen. De award wordt dit jaar voor de tweede keer uitgereikt.

Voor wie is deze wedstrijd?
De wedstrijd is voor iedereen die een toepassing heeft gemaakt waarbij open data van de Nederlandse overheid gebruikt wordt, zoals een website, app of visualisatie. Het gaat hierbij zowel om bestaande toepassingen als om nieuwe ideeën (minimaal een werkend prototype). Publieke en private organisaties zijn welkom om mee te doen. Zowel bedrijven en startups als overheidsorganisaties en maatschappelijke organisaties maken kans op de award.

De prijs
Tot en met 15 september kunnen deelnemers hun inzending doen via www.soda2017.nl. Deelname staat open voor iedereen die een toepassing heeft gemaakt waarbij open data van publieke organisaties gebruikt wordt, zoals een website, app of visualisatie. Er wordt één award uitgereikt. De winnaar ontvangt een wisselbeker en een geldbedrag van 20.000 euro voor de verdere investering en ontwikkeling van de toepassing, waarbij (her)gebruik van open data voor maatschappelijke, democratische en/of economische meerwaarde voorop staat.

De juryleden
De jury voor de Stuiveling Open Data Award bestaat uit Arno Visser (Algemene Rekenkamer), Chris Sigaloff (Kennisland), Marianne Linde (Geodan) en Erik Huizer (SURFnet, voorzitter). Ook de winnaar van vorig jaar maakt deel uit van de jury: Paul Geurts van Kessel treedt namens Bleeve op als jurylid. De jury selecteert de beste inzendingen die zich vervolgens presenteren op 16 november 2017 tijdens het Jaarcongres ECP in de Fokker Terminal in Den Haag. Daar wordt vervolgens de winnaar gekozen.

De Stuiveling Open Data Award wordt georganiseerd door het Leer- en Expertisepunt Open Overheid (onderdeel van ICTU), in opdracht van het ministerie van Binnenlandse Zaken en Koninkrijksrelaties.

Meer informatie: Stuiveling Open Data Award

]]>
Thu, 20 Jul 2017 13:07:53 +0200 Inschrijving Stuiveling Open Data Award open tot half september http:///item/955786/inschrijving-stuiveling-open-data-award-open-tot-half-september.html&field=Foto1&rType=crop&height=165&width=165.jpg
AI en Analytics versnellen overgang naar digitale werkplek http:///item/954877/ai-en-analytics-versnellen-overgang-naar-digitale-werkplek.html Veertig procent van de organisaties ziet concurrentievoordeel en het verbeteren van bedrijfsprocessen als de belangrijkste doelstellingen van hun digitale transformatiestrategie. Dat blijkt uit het onderzoek van Dimension Data dat de ontwikkeling van bedrijven van een traditionele kantooromgeving naar een digitale werkplek in kaart bracht. Het Digital Workplace Report: Transforming Your Business deed onderzoek naar achthonderd organisaties in vijftien landen verspreid over vijf continenten.

Daarnaast blijkt uit het rapport dat digitale transformatie niet slechts draait om het in gebruik nemen van al langer bestaande technologieën: 62 procent van de onderzoeksrespondenten verwacht binnen twee jaar te beschikken over technologieën als virtuele consultants. Daarnaast verwacht 58 procent daar binnen twee jaar actief in te gaan investeren.
Anno 2017 bestaat de digitale werkplek niet meer alleen uit managers en hun medewerkers, collega’s die samen aan projecten werken, en medewerkers die omgaan met klanten en partners. Er komen steeds meer ‘virtuele medewerkers’ bij, die wellicht niet bestaan in fysieke zin, maar wel een grote rol spelen in de organisatie.

Virtuele assistenten
Hoewel de technologie rondom kunstmatige intelligentie (AI) nog in de kinderschoenen staat, werkt deze al goed genoeg om binnen bedrijven te functioneren als virtuele assistenten. Sommige sectoren, zoals het bankwezen, zetten de technologie zelfs in voor virtuele bankbedienden en consultants. Deze virtuele assistenten zijn bots die zijn geïntegreerd in specifieke applicaties en baseren zich op AI-engines en machine learning om eenvoudige vragen te kunnen beantwoorden.
“Vandaag de dag moet je meer doen dan deze technologieën simpelweg implementeren”, zegt Krista Brown, senior vicepresident Group End-user Computing van Dimension Data. “Organisaties hebben hun kennis en gebruik van analytics uitgebreid en begrijpen nu op welke manier deze technologieën van invloed zijn op hun bedrijfsperformance. Zo gebruikt 64 procent analytics om zijn klantenservice naar een hoger niveau te tillen, en zet 58 procent analytics in om de technologieën op de werkplek te vergelijken.”
Intussen claimt dertig procent van de organisaties al verder gevorderd te zijn in het proces van digitale transformatie, en dat men al resultaten boekt. Andere zijn net pas begonnen met het ontwikkelen van een plan.

Bedrijfscultuur
Brown meent dat bedrijven vanwege hun bedrijfscultuur soms terughoudend zijn met het implementeren van een digitale werkplek. Technologie en bedrijfscultuur staan er namelijk niet om bekend een verandering in de manier van werken aan te moedigen. Maar het nummer 1-obstakel voor het succesvol overstappen op een nieuwe manier van werken vormen problemen met IT, alsmede organisatorische issues.
“De complexiteit van de bestaande IT-infrastructuur kan een enorm obstakel zijn voor het implementeren van nieuwe samenwerkings- en productiviteitstools die een flexibele manier van werken moeten ondersteunen. Succesvolle transformaties zijn alleen mogelijk wanneer de IT-afdeling nauw samenwerkt met de andere afdelingen binnen het bedrijf”, zegt Brown. Deze transformaties ondersteunen een nieuwe manier van bedrijfsvoeren en klantenservice.

Mobiliteit
Robert Allman, group senior vicepresident Customer Experience and Collaboration van Dimension Data, denkt dat een digitale werkplek niet zonder mobiliteit kan. “Bedrijfsmanagers en CIO’s zijn zich bewust van het belang van mobiliteit op de digitale werkplek, met een gelijkmatige mix van bedrijven die door het bedrijf verstrekte apparatuur en eigen apparatuur van de werknemers ondersteunen in de werkomgeving.” Daarnaast passen organisaties nieuwe werkplektechnologieën toe, die zorgen voor een betere klantenservice. 45 procent van de respondenten geeft aan dat deze technologieën hebben geresulteerd in een hogere klanttevredenheid.

Meer informatie: Dimension Data’s Digital Workplace Report

]]>
Wed, 19 Jul 2017 13:21:12 +0200 AI en Analytics versnellen overgang naar digitale werkplek http:///item/954877/ai-en-analytics-versnellen-overgang-naar-digitale-werkplek.html&field=Foto1&rType=crop&height=165&width=165.jpg
Computer Profile: SAP grootste partij in ERP- en CRM-markten http:///item/954362/computer-profile-sap-grootste-partij-in-erp-en-crm-markten.html SAP blijkt uit een marktanalyse van Computer Profile de grootste partij in CRM-oplossingen te zijn bij bedrijfsvestigingen met 50 of meer medewerkers. Meer dan een kwart van de CRM-installaties is van SAP. Op de tweede plaats staat Microsoft, goed voor 18 procent van de CRM-oplossingen. Salesforce sluit de top 3 met 12 procent. Exact en maatwerkoplossingen sluiten de top 5. SAP is ook met haar ERP-oplossingen de grootste partij.

Opvallend is de grote diversiteit aan oplossingen die op het gebied van CRM in gebruik zijn. In totaal worden ruim 200 verschillende toepassingen genoemd. Dit blijkt uit analyse door Computer Profile van circa 6.700 interviews met Nederlandse commerciële en publieke bedrijfsvestigingen, met ten minste 50 medewerkers, over het gebruik van CRM-software.

Marktaandelen CRM
Er zijn duidelijke verschillen in aandelen te zien binnen de verschillende marktsegmenten. SAP is binnen de multinationals duidelijk marktleider met 37 procent binnen dit segment. Ook presteert Salesforce binnen dit segment met 20 procent het beste. Bij middelgrote Nederlandse bedrijven met 50 tot 250 medewerkers heeft Microsoft bijna een even groot aandeel als SAP.

Ontwikkeling CRM
Het aantal locaties dat een CRM-softwaresysteem gebruikt is de afgelopen jaren aanzienlijk gestegen. Momenteel heeft 36 procent van de locaties een CRM-systeem, terwijl dit vier jaar geleden 30 procent was. Uit het onderzoek blijkt tevens dat naarmate een locatie meer medewerkers heeft zij eerder gebruikmaken van een CRM-systeem. De onderstaande figuur geeft weer hoe vaak een CRM-fabrikant voorkomt binnen bedrijven waarvan bekend is dat zij een CRM-systeem hebben. Dit betekent bijvoorbeeld dat bij 20,3 procent van alle locaties binnen de publieke sector (dat aangeeft een CRM-systeem te gebruiken) deze afneemt bij SAP.

Locatie van CRM
Van alle in kaart gebrachte CRM-oplossingen draait bijna 19 procent in de Cloud. Oplossingen die onder de noemer private Cloud vallen, worden meegenomen in de categorie hosted. Met andere woorden, Cloud betreft alleen publieke cloudoplossingen. Het afgelopen jaar is het aantal locaties dat gebruikmaakt van een hosted oplossing met 4 procentpunt gestegen. We zien dus jaar op jaar een groei van locaties die hun CRM-applicatie via een host draaien, inmiddels is dit al 35 procent.

ERP-oplossingen
SAP is ook met haar ERP-oplossingen de grootste partij bij bedrijfsvestigingen met 50 of meer medewerkers. Bijna 40 procent van de ERP-installaties is van SAP. Op de tweede plaats staat Microsoft, goed voor ruim 11 procent van de ERP-oplossingen. Exact staat op de derde plaats.

Marktaandelen ERP
Binnen het segment multinationals is SAP veruit de grootste aandeelhouder in de ERP-markt met bijna 65 procent. Binnen de publieke sector is ongeveer 1 op de 6 oplossingen van Exact. Daarmee verdienen Exact binnen dit segment de derde plaats net achter Oracle. De onderstaande figuur geeft weer hoe vaak een ERP-fabrikant voorkomt binnen bedrijven waarvan bekend is dat zij een ERP-systeem hebben. Dit betekent bijvoorbeeld dat bij 27,6 procent van alle locaties binnen de publieke sector (dat aangeeft een ERP-systeem te gebruiken) deze afneemt bij SAP.

Ontwikkeling ERP
Ruim 70 procent van de locaties heeft een ERP-softwaresysteem. Als er wordt gekeken naar de verschillende industrieën zijn er geen sterk stijgende of dalende lijnen, maar wel is dan te zien dat binnen de gezondheidszorg een toename is van locaties dat aangeeft een ERP-softwaresysteem te gebruiken. Binnen de maakindustrie en de groothandel wordt de hoogste dichtheid gevonden wat betreft het gebruik van ERP-systemen, namelijk 90 procent. Binnen het onderwijs maken de minste locaties gebruik van ERP, namelijk 42 procent. Dit valt uiteraard in de lijn der verwachting. Ook doet de factor ‘bedrijfsgrootte’ weinig aan de penetratie van ERP-systemen; over de gehele lijn is dit gemiddeld ongeveer 70 procent. Bij bedrijven met meer dan 1000 medewerkers is de penetratie met 76 procent hoger dan gemiddeld. Binnen het publiek domein worden er fors minder ERP-systemen gebruikt in vergelijking met de andere sectoren.

Locatie van ERP
De meeste ERP-systemen draaien hosted. Dat houdt in dat het binnen de organisatie draait bij een derde partij. Het aantal organisaties dat hun ERP-oplossing lokaal draait neemt terug, van ruim 34 procent 2 jaar geleden naar de huidige 29 procent. Hosted oplossingen nemen voor het eerst het grootste aandeel in als we puur kijken naar de locatie van de applicatie. Conclusie, lokaal en remote draaiende oplossingen nemen af en Cloud/Hosted oplossingen nemen toe.

Meer informatie: Computer Profile

]]>
Wed, 19 Jul 2017 01:34:33 +0200 Computer Profile: SAP grootste partij in ERP- en CRM-markten http:///item/954362/computer-profile-sap-grootste-partij-in-erp-en-crm-markten.html&field=Foto1&rType=crop&height=165&width=165.jpg
HPE vormt go-to-market alliantie met Microsoft via Cloud28+ http:///item/954360/hpe-vormt-go-to-market-alliantie-met-microsoft-via-cloud.html Hewlett Packard Enterprise kondigt een go-to-market alliantie aan met Microsoft via Cloud28+, de Europese open community voor de stimulering van cloudadoptie. Microsoft wordt aan het door HPE geleide initiatief toegevoegd als voornaamste partner voor Azure Stack-technologie.

Door de toetreding van Microsoft aan het Cloud28+ platform krijgen partners toegang tot nieuwe businessmogelijkheden en tools. Deze moeten bijdragen aan snellere bedrijfsresultaten voor klanten in een sterk hybride IT-ecosysteem. Door middel van Cloud28+, creëren HPE en Microsoft een gezamenlijk Azure Stack ISV onboarding programma. Het programma verbindt softwareleveranciers aan HPE en Microsoft solution en service providers, zodat hun zichtbaarheid op de markt wordt vergroot en zij nieuwe omzetstromen kunnen genereren. Anderzijds halen HPE en de Microsoft solution en service providers voordeel uit lead generation campagnes en salesactiviteiten om de verkoop van Azure Stack te versterken. Klanten beschikken hierdoor over meer mogelijkheden om de juiste mix van partners en oplossingen te vinden op basis van hun specifieke workload, branche of eisen voor datasoevereiniteit.

Het doel van Cloud28+ is om klanten, afhankelijk van waar zij zich bevinden, een gemeenschappelijk platform te bieden met services, oplossingen en expertise, waardoor zij profiteren van een naadloze on- en off-premise ervaring. Cloud28+ is door 451 Research benoemd tot het grootste platform voor clouddiensten en blijft zich sinds de lancering in 2015 ontwikkelen. Momenteel telt Cloud28+ meer dan 500 partners, zoals service providers, solution providers, ISV’s, distributeurs, system integrators, universiteiten en publieke organisaties. Samen bieden zij een catalogus van meer dan 18.000 services. Met een focus op datasoevereiniteit en maatwerk bieden Cloud28+ partners services uit meer dan 300 datacenters overal ter wereld.

Meer partnervoordelen:
• Toegang tot de digital marketingtools van Cloud28+. Partners kunnen hiermee eigen content publiceren, online campagnes voor hun producten lanceren en de resultaten eenvoudig meten. Door gebruik te maken van deze tools besparen partners tijd en geld.
• Een wereldwijde community en een digitaal business platform voor meer zichtbaarheid en nieuwe go-to-market mogelijkheden. Partners kunnen nieuwe samenwerkingen vormen om gezamenlijk een markt te betreden.
• Een kant-en-klaar ecosysteem voor snellere implementatie van HPE ProLiant Azure Stack ISV en producten om sales uit te breiden. Partners profiteren van een snellere time-to-market voor Azure Stack-investeringen, meer ISV-content en trainingen en events van Microsoft en HPE.
• Toegang tot flexibele HPE IT Investment en Asset Management oplossingen die fungeren als brug tussen technologische en financieringsoplossingen. Deze helpen partners en hun klanten bij het bereiken van hun bedrijfsdoelen.

Meer informatie: Cloud28+

]]>
Wed, 19 Jul 2017 01:03:50 +0200 HPE vormt go-to-market alliantie met Microsoft via Cloud28+ http:///item/954360/hpe-vormt-go-to-market-alliantie-met-microsoft-via-cloud.html&field=Foto1&rType=crop&height=165&width=165.jpg
OutSystems en Advanced Programs sluiten partnership http:///item/953907/outsystems-en-advanced-programs-sluiten-partnership.html De combinatie OutSystems en Advanced Programs levert organisaties de mogelijkheid om bestaande IBM Power i applicatie-omgevingen (AS/400) door te ontwikkelen in een hybride vorm. Bestaande functionaliteit kan met hulp van Legacy Application Life Cycle Extension behouden blijven en verder worden doorontwikkeld.

Advanced Programs is 25 jaar geleden opgericht met als doel tegemoet te komen aan de toenemende vraag van technisch specialisten rondom IBM’s AS/400 platform. Advanced Programs is Managed Services aanbieder in de Nederlandse markt voor het onderhouden van IBM’s Power systemen.
Het bedrijf is gespecialiseerd in technisch systeem- en applicatiebeheer in een 7×24 omgeving voor haar klanten.

]]>
Tue, 18 Jul 2017 13:19:49 +0200 OutSystems en Advanced Programs sluiten partnership http:///item/953907/outsystems-en-advanced-programs-sluiten-partnership.html&field=Foto1&rType=crop&height=165&width=165.jpg
Teradata neemt startup StackIQ over http:///item/953906/teradata-neemt-startup-stackiq-over.html Teradata kondigt de overname aan van StackIQ, ontwikkelaar van bare-metal software provisioningplatform. Het bedrijf heeft cloud- en analysesoftware geïmplementeerd op miljoenen servers in datacenters over de hele wereld.

De expertise van StackIQ’s op het gebied van open source software en grote clusterimplementaties zal door de overname gebruikt worden om de implementatie van Teradata Everywhere te vereenvoudigen en te automatiseren. Dit geeft klanten de snelheid en flexibiliteit om Teradata-oplossingen in hybride cloudomgevingen te implementeren, waardoor ze sneller kunnen innoveren en nieuwe analytische applicaties voor hun organisatie kunnen ontwikkelen.

Herdefinitie
Naast technologie wordt ook het ingenieursteam van StackIQ overgenomen. Het team zal zich bij de R&D-organisatie van Teradata aansluiten om de organisatie te helpen bij het sneller automatiseren van software-implementaties in zowel operationele en engineering ecosystemen als die van eindgebruikers.
Volgens Chief Product Officer Oliver Ratzesberger bij Teradata versterkt de toevoeging van de technologie van StackIQ aan IntelliFlex, IntelliBase en IntelliCloud de mogelijkheden en stelt dit Teradata in staat om hoe systemen wereldwijd geïmplementeerd en beheerd worden te herdefiniëren.  

Hybride
Teradata is nu eigenaar van het intellectueel eigendom van StackIQ dat software-implementaties in grote serverclusters (zowel fysiek als virtueel/in de cloud) automatiseert en versnelt. Deze verbeterde automatisering geldt voor alle Teradata Everywhere-implementaties, wat de bouw- en levertijden aanzienlijk verkort voor complexe analytische oplossingen. Verder voegt het ook de mogelijkheid toe om software-only ‘appliances’ te beheren in een hybride cloudinfrastructuur. De snelheid van Teradata’s nieuwe geïntegreerde oplossing maakt het verder mogelijk om snel interne test- of benchmarking-hardware op te leveren, evenals het snel wisselen van technologie om tegemoet te komen aan de veranderende workloads van klanten.

De voorwaarden van de overname zijn niet bekendgemaakt.

]]>
Tue, 18 Jul 2017 13:11:52 +0200 Teradata neemt startup StackIQ over http:///item/953906/teradata-neemt-startup-stackiq-over.html&field=Foto1&rType=crop&height=165&width=165.jpg
SAP HANA in eigen beheer: vier cruciale aandachtspunten http:///item/953054/sap-hana-in-eigen-beheer-vier-cruciale-aandachtspunten.html Een on-premise SAP HANA-installatie geeft maximale controle over de in-memoryomgeving. Maar het vergt wel het nodige beheer, in-house kennis en het maken van de juiste keuzes. Wat zijn de aandachtspunten en vereisten van een on-premise HANA-platform?

1. Kennis over het product
Wie SAP HANA in huis wil halen, moet zich allereerst goed beseffen wat het precies is, wat het niet is, en waar het op draait. Zodat je ten volle beseft wat je in huis haalt en welke mogelijkheden, technische eisen, kennis en vaardigheden daarbij komen kijken.
HANA is geen black box: het is een oplossing met het Linux-besturingssysteem als basis. Sinds de lancering is Suse Linux Enterprise Server 11 het aangewezen Linux-platform, maar sinds enige tijd biedt SAP ook support voor Red Hat Enterprise Linux 6.5.
HANA is naast een in-memorydatabase ook een applicatieserver. Het is echter geen applicatieserver gebaseerd op NetWeaver, zoals een ABAP-stack dat wel is. Wie applicatieontwikkeling in een dergelijk systeem gewend is, moet dus een omslag maken.

HANA host webapplicaties op basis van de XS Engine en gebruikt voor interfaces een frontend-bibliotheek als SAPUI5. Voor het gebruik van de in de HANA-database opgeslagen data en specifieke mogelijkheden van het platform gebruikt het JavaScript-gebaseerde API’s. Interactie met de database gebeurt via reguliere SQL-statements.
XS Engine is een lichtgewicht applicatieserver. Wie van plan is zware applicaties te bouwen, kan het beste een extra applicatieserver naast HANA overwegen.

2. Krachtige hardware en de nodige overcapaciteit
SAP laat voor de HANA-servers sinds kort ‘custom’ hardwaresamenstellingen toe. Dat geeft de nodige vrijheid, maar bedenk dat uiterst krachtige hardware noodzakelijk blijft.
Servers moeten beschikken over ruime hoeveelheden intern geheugen, krachtige (Xeon-) processoren en een mix van ssd-disks en snelle mechanische schijven. Het is niet verstandig hierop te besparen, want typische HANA-toepassingen als big data analytics zijn gebaat bij flinke hoeveelheden verwerkingskracht.

Daarnaast is investering in overcapaciteit gewenst, zodat de infrastructuur piekbelastingen kan opvangen. Zeker in sectoren met grote periodieke verschillen in workload zijn soms flinke investeringen hierin vereist voor een gegarandeerde continuïteit.

3. Kennis en vaardigheden rondom beheer en onderhoud
Wie kiest voor een on-premise HANA-omgeving moet beseffen dat je ook het volledige beheer en onderhoud in eigen huis haalt. Niet alleen van de software, maar ook van de harde infrastructuur. Dat vraagt om systeembeheerders met kennis en ervaring in het algemeen en het beheer van SAP-omgevingen in het bijzonder.
Beheerders moeten bijvoorbeeld kennis hebben van de HANA-specifieke tooling van SAP. Zo biedt SAP tools voor zowel historische als real-time monitoring. Voor het doorvoeren van updates zijn beheerders aangewezen op de SAP HANA database lifecycle manager.

SAP introduceert jaarlijks nieuwe functionaliteiten in HANA. Deze functionele updates moeten in-house uitgevoerd worden. Bovendien kan het zijn dat extra training rondom die nieuwe features wenselijk is.

4. Aandacht voor continuïteit en veiligheid
Degelijke housing van de servers is uiteraard een basisvereiste. Een organisatie zal hiervoor de nodige datacentervoorzieningen paraat moeten hebben, of deze via co-locatie huren. Voor een goede continuïteit is verder een kopie van de omgeving wenselijk, zodat bij storing alle requests direct richting een failover-server gestuurd kunnen worden.

Een goede backup- en disaster recovery-strategie is ook onontbeerlijk. De systeembeheerder kan backups maken via SAP HANA Studio, of via de commandline op besturingssysteemniveau. Hoe dan ook: voor het uitvoeren van vlotte en succesvolle restores is een goed ingerichte backup-omgeving noodzakelijk. Eventueel kan de organisatie gebruikmaken van HANA-gecertificeerde backup-partners.

Ook cybersecurity vereist de nodige aandacht. Organisaties die al een SAP NetWeaver Business Warehouse beheren, kunnen met de bestaande best practices rondom cybersecurity prima de voeten. Wie HANA als standalone applicatie- of datawarehouseplatform implementeert, zal echter forse stappen moeten maken op dit gebied.

Alternatief: private cloud
Een on-premise installatie van SAP HANA geeft van alle mogelijke implementatie-opties de meeste vrijheid rondom bijvoorbeeld specifieke aanpassingen. Daar staan echter wel wat uitdagingen tegenover: het vereist krachtige hardware, solide housing, specialistische kennis en de nodige mankracht.

Voor bedrijven die ondanks deze zaken in de markt zijn voor on-premise HANA, is een private cloud bij een gespecialiseerde HANA-provider als alternatief het overwegen waard. Met name de flexibiliteit is daarbij een pre: het op- en neerschalen is in een dergelijke private cloud eenvoudiger. Dat voorkomt hoge initiële investeringen in eigen hardware.

Extra dienstverlening rondom HANA, bijvoorbeeld op het gebied van backup en beveiliging, is daarbij in sommige gevallen volgens een managed service-model afneembaar. Dat verlaagt de TCO verder. Hoe dan ook geldt het oeroude cliché: bezint eer gij begint.

]]>
Mon, 17 Jul 2017 15:26:43 +0200 SAP HANA in eigen beheer: vier cruciale aandachtspunten http:///item/953054/sap-hana-in-eigen-beheer-vier-cruciale-aandachtspunten.html&field=Foto1&rType=crop&height=165&width=165.jpg
Microsoft zet AI in voor duurzame toekomst van de planeet http:///item/952829/microsoft-zet-ai-in-voor-duurzame-toekomst-van-de-planeet.html Microsoft stelt de mens centraal in AI, is de boodschap van Harry Shum, VP AI & Research Group Microsoft. De missie van Microsoft is om de menselijke vindingrijkheid te versterken met intelligente technologie, die met mensen kan interacteren en redeneren en helpen om fundamentele sociale problemen op te lossen.

In Londen vond een Microsoft-event plaats over het thema ‘de relatie tussen kunstmatige intelligentie (AI), mensen en maatschappij.' Microsoft gaf daarbij veel aandacht voor eigen haar rol en verantwoordelijkheid daarin. Tijdens het event werd besproken welke voortgang gemaakt wordt op het gebied van AI, hoe de technologie voor iedereen toegankelijk komt en hoe Microsoft AI in verschillende toepassingen en producten integreert.

De event werd bezocht door wetenschappers, technologie-experts en -journalisten, die door Microsoft op de hoogte werden gehouden van de stand van zaken. Naast Shum gaven onder andere Eric Horvitz, Technical Fellow en Directeur Microsoft Research Labs, Chris Bishop, Technical Fellow en Laboratory Director bij Microsoft Research Cambridge, en Emma Williams, General Manager Bing presentaties.

Tijdens de event zijn diverse aankondigingen gedaan:
Microsoft Research AI – Deze nieuwe incubator hub binnen Microsoft zal zich vanuit Redmond (VS) volledig toespitsen op de meest ingewikkelde uitdagingen op het gebied van AI.
• AI Design Guide Work – Microsoft maakt AI voor iedereen toegankelijk. Daarbij is het ethische aspect van AI-toepassingen van cruciaal belang. Daarom presenteert Microsoft de Ethical Design Guide for AI: een interne gids met daarin ontwikkelingsrichtlijnen met het oog op ethisch verantwoorde toepassingen van AI-technologie.
AI for Earth Initiative – AI-technologie is toepasbaar in ondenkbaar veel scenario’s. Microsoft maakt met het AI for Earth Initiative AI-tools, educatiemogelijkheden en skills toegankelijk om mensen en organisaties te helpen bij het oplossen van wereldwijde milieuvraagstukken. Microsoft stelt de AI-tools beschikbaar aan mensen en organisaties die werken aan een gezonde en duurzame toekomst van onze planeet.
• Seeing AI – Microsoft introduceert een gratis iOS-app die de wereld om je heen beschrijft. De app is ontwikkeld voor blinden en slechtzienden en maakt gebruik van de kracht van AI om mensen, tekst en objecten in de omgeving te beschrijven. Seeing AI bewijst hoe AI kan bijdragen aan een inclusievere samenleving. De app is vooralsnog alleen verkrijgbaar in Apple’s App Store in de Verenigde Staten.
• Samenwerking met professor Max Welling van de Universiteit van Amsterdam – Microsoft gaat een samenwerking aan met machine reading-expert en professor Max Welling.
• Update Microsoft Cognitive Services – Microsoft presenteert updates van de bestaande Cognitive Services-tools die AI toegankelijk maakt voor iedereen.
   Bing Entity Search API: dit is een nieuwe Microsoft Cognitive Service, nu beschikbaar als gratis preview.
   Project Prague: dit is een software development kit waarmee ontwikkelaars besturing met handgebaren kunnen integreren in hun toepassingen. Zie voor meer informatie en beschikbaarheid de website van het Cognitive Services Lab.
   Presentation Translator: Dit is een PowerPoint-add-in waarmee je ondertiteling toevoegt aan je presentaties. Dat kan in de eigen taal maar ook in andere talen. Toehoorders kunnen de presentatie in hun eigen taal volgen via de Microsoft Translator-app, via de browser http://translate.it of de PowerPoint-slides vertalen met behoud van de opmaak. Presentation Translator is hier te downloaden.

Volgens Shum leven we nu in de Gouden Eeuw van ontwikkelingen op het gebied van kunstmatige intelligentie. “Nu de technologie die AI inzet intelligenter wordt, willen wij er zeker van zijn dat we op verantwoorde wijze verder gaan, om uiteindelijk het meeste voordeel voor onze klanten en de samenleving als geheel op te leveren”.

Meer informatie: Microsoft
Blog van Harry Shum
Microsoft is actief deelnemer in Partnership on AI.

]]>
Mon, 17 Jul 2017 09:23:03 +0200 Microsoft zet AI in voor duurzame toekomst van de planeet http:///item/952829/microsoft-zet-ai-in-voor-duurzame-toekomst-van-de-planeet.html&field=Foto1&rType=crop&height=165&width=165.jpg
5 Ways Businesses Can Cultivate a Data-Driven Culture http:///item/926203/ways-businesses-can-cultivate-a-data-driven-culture.html The pressure on organizations to make accurate and timely business decisions has turned data into an important strategic asset for businesses. In today's dynamic marketplace, a business's ability to use data to identify challenges, spot opportunities, and adapt to change with agility is critical to its survival and long-term success. Therefore, it has become an absolute necessity for businesses to establish an objective, data-driven culture that empowers employees with the capabilities and skills they need to analyse data and use the insights extracted from it to facilitate a faster, more accurate decision-making process. 

Contrary to what many people think, cultivating a data-driven culture is not just a one-time transformation. Instead, it’s more like a journey that requires efforts from employees and direction from both managers and executives. In this article, I am sharing five different ways in which businesses can accelerate their transformation into a data-driven enterprise. 

1. Establish a Clear Vision

Establishing a clear vision is essential for putting data into the DNA of an organization. An executive, preferably the CIO or CDO, should present the vision to the workforce and provide the rationale for this shift in culture and in benefits. This, in turn, will set stage for the work ahead and provide an opportunity to clear misconceptions. 

http://biplatform.nl afbeelding

 2. Ensure Easy and Secure Access to Data

Data can be truly considered an asset when its accuracy is trusted, its provenance is well established, and its complete security is ensured. On the other hand, optimal utilization of data requires governance and openness. To ensure this, you should consider a layered approach to make data available in a manner for which its security, governance and confidentiality is not compromised. 

3. Keep Your Data Clean and Up-to-Date

http://biplatform.nl afbeelding

It’s very hard to analyze and extract something valuable from poorly organized, inaccurate, dated information. Therefore, you should develop clear mechanisms regarding the collection, storage, and analysis of data. Make sure all your data inputs are centralized in a single location for easy integration and regular updates. This way, your employees can gather the most recent information from a single place and make more accurate decisions. 

4. Create Agile Multi-Disciplinary Teams

People, not tools drive the culture of a company. Therefore, in order to create a fact-driven work environment, businesses should invest in the skills of their people. Make sure that each team contains at least one member who’s well-skilled and experienced at data analytics.

http://biplatform.nl afbeelding

5. Develop Reward Mechanisms

Sharing data successes is important to inspire others and develop a healthy, competitive, data-driven culture. To share the results achieved by a team or an individual, you can use different communication tools, such as videos and blogs, organize special gatherings, or share the results on your company portal. Make sure that you choose initiatives that are in line with your company’s long-term strategy. For example, if your objective is to penetrate new markets or gather more information about your target customers, you should acknowledge and reward the initiatives that help you make progress towards these strategic goals. 

Unless communicated across an organization, data remains worthless. To extract the right information and insights from structured and unstructured data, it is important that you focus your efforts on cultivating a data-driven culture that empowers employees with the resources and skills they need to leverage data and obtain the right information at the right time to make more accurate decisions. 

]]>
Sat, 15 Jul 2017 06:13:01 +0200 5 Ways Businesses Can Cultivate a Data-Driven Culture http:///item/926203/ways-businesses-can-cultivate-a-data-driven-culture.html&field=Foto1&rType=crop&height=165&width=165.jpg
Adifo toegetreden tot Info Support International Group http:///item/950384/adifo-toegetreden-tot-info-support-international-group.html Het Belgische bedrijf Adifo is toegetreden tot Info Support International Group. Adifo ontwikkelt strategische software tools voor het automatiseren en perfectioneren van de productontwikkeling, logistieke afhandeling en klantenservice voor producenten van voeding voor mens en dier. Het bedrijf telt 100 medewerkers en is actief in meer dan 60 landen.

Info Support International Group had een minderheidsbelang in het bedrijf vanaf 2009. De gedrevenheid van Adifo, omzetgroei, versterking van de marktpositie, uitbreiding naar Azië en de Verenigde Staten en aanzienlijke investeringen in het productportfolio voor de toekomst waren voor Info Support Groep doorslaggevend om 100 procent van de aandelen in Adifo te verwerven. Met de toetreding van Adifo onderstreept Info Support zijn groeiambities in het leveren van op cloud gebaseerde oplossingen in de agrifood-sector.

Volgens Peter Tsjoen, commercieel manager Adifo is de Info Support Groep een volledig onafhankelijk speler in de feed- en food sector. “Info Support ondersteunt onze strategische richting die gebaseerd is op onze visie om waarde toe te voegen aan de voedingsindustrie door gespecialiseerde sectorkennis. Het bedrijf biedt ons een ijzersterke backbone en een langetermijn-engagement waardoor we onze specialisatie in de feed- en foodsector en onze wil tot innoveren volop kunnen sturen vanuit een gedegen IT-gedreven organisatie.”
Managing director Marco Braakman van Info Support: “Adifo brengt een schat aan expertise en ervaring mee. Door onze kennis en ervaring onderling te delen kunnen we onze gezamenlijke ambities in deze sector waarmaken."

Adifo zal verder gaan als een dochteronderneming van Info Support International Group.

Meer informatie: Info Support

]]>
Fri, 14 Jul 2017 15:01:33 +0200 Adifo toegetreden tot Info Support International Group http:///item/950384/adifo-toegetreden-tot-info-support-international-group.html&field=Foto1&rType=crop&height=165&width=165.jpg
Europese technische commissie voor gegevensbescherming in oprichting http:///item/948511/europese-technische-commissie-voor-gegevensbescherming-in-oprichting.html Er komt een Europese technische commissie (TC) voor cybersecurity en gegevensberscherming. De technische besturen van CEN en CENELEC hebben een voorstel hiertoe onlangs goedgekeurd. CEN en CENELEC zijn Europese normalisatie-instituten.

Ondanks dat cybersecurity en gegevensbescherming de laatste jaren steeds belangrijker worden en steeds meer aandacht krijgen, bestaat er in Europa nog geen TC voor dit onderwerp. Veel gebruikte standaarden voor informatiebeveiliging, zoals ISO 27000, worden op mondiaal niveau ontwikkeld. De nieuwe TC gaat specifieke normen voor de Europese situatie ontwikkelen. Waar mogelijk worden ISO-normen in het geheel, of na aanpassing aan de Europese situatie, overgenomen als Europese normen.

GDPR
Op het gebied van gegevensbescherming heeft de Europese Commissie de General Data Protection Regulation (GDPR) gepubliceerd. Deze richtlijn stelt nieuwe eisen aan organisaties met betrekking tot gegevensbescherming en privacy. De nieuwe TC zal, waar nodig, invulling geven aan de GDPR door standaarden voor gegevensbescherming en privacy te ontwikkelen.

Invloed uitoefenen
Nederland heeft, via NEN, een bepalende invloed in de Europese standaardisatie en dus ook in deze nieuwe TC Cyber Security & Data Protection. In deze positie kan de Nederlandse sector borgen dat Europese standaarden optimaal aansluiten bij Nederlandse producten, kennis, ervaring en technologie.

Meepraten over de inhoud van normen
De Nederlandse input aan de nieuwe TC wordt verzorgd door de NEN-normcommissie ‘Informatiebeveiliging, Cyber security en Privacy’. In deze normcommissie zijn alle partijen vertegenwoordigd die belang hebben bij standaarden voor dit werkgebied.

]]>
Thu, 13 Jul 2017 00:02:00 +0200 Europese technische commissie voor gegevensbescherming in oprichting http:///item/948511/europese-technische-commissie-voor-gegevensbescherming-in-oprichting.html&field=Foto1&rType=crop&height=165&width=165.jpg
Data lineage: de brug naar de GDPR-compliance? http:///item/948512/data-lineage-de-brug-naar-de-gdpr-compliance.html Elke organisatie moet vanaf 25 mei 2018 voldoen aan de richtlijnen van de GDPR voor het verwerken en opslaan van privacygevoelige informatie. Een kernelement hierbij is dat je kunt herleiden waar die informatie is opgeslagen en wordt gebruikt. Een belangrijk middel hiervoor is data lineage of, letterlijk vertaald, dataoorsprong of -herkomst. Dit zou voor veel organisaties wel eens de brug kunnen zijn naar GDRP-compliance.

De invoer van de GDPR heeft grote gevolgen voor de informatiehuishouding van organisaties. Toch had deze nieuwe Europese privacywetgeving niet veel later moeten komen. In het bedrijfsleven wordt sinds enkele jaren namelijk steeds meer geïnvesteerd in technologie voor (big) data en analytics. Bedrijven verzamelen daarnaast steeds meer data, zowel van binnen als buiten de organisatie, met als doel hun processen te verbeteren, nieuwe verdienmodellen bloot te leggen, maar vooral – in veruit de meeste gevallen – om de klantervaring te verbeteren. Hierbij wordt per definitie met privacygevoelige persoonsgegevens gewerkt, waardoor de vraag rijst of deze dataverzamelingstrend niet ontzettend conflicteert met de doelstellingen van de GDPR. Deze ogenschijnlijk tegengestelde belangen kunnen elkaar echter ook versterken.

Gestructureerd werken met data
Ondanks het feit dat de GDPR snel dichterbij komt, blijkt uit onderzoek van Gartner dat meer dan de helft van de bedrijven er nog lang niet klaar voor is. Verder wordt benadrukt dat de wet ook geldt voor organisaties buiten de EU die persoonlijke gegevens van Europese burgers opslaan of verwerken. Dit vergroot de impact nog verder. De vraag is nu hoe al deze bedrijven het beste kunnen omgaan met deze nieuwe situatie. Burgers krijgen namelijk weer de controle terug over wat bedrijven met hun persoonsgegevens kunnen en mogen doen, maar de bedrijven die deze gegevens beheren moeten dit vervolgens faciliteren en alle persoonsgegevens inzichtelijk maken. De belangrijkste beginselen van de GDPR zijn:
Dataminimalisatie – de hoeveelheid persoonsgegevens die wordt opgeslagen moet tot een minimum beperkt worden.
Transparantie – organisaties moeten zowel de regelgevende instanties als de burgers zelf inzicht kunnen geven in waar privacygevoelige gegevens opgeslagen en gebruikt worden.
Integriteit – de beveiliging van en toegang tot persoonsgegevens moet optimaal geregeld zijn en inzichtelijk gemaakt worden.
Opslagbeperking – gegevens moeten waar mogelijk zoveel mogelijk worden geanonimiseerd of worden voorzien van pseudoniemen.
Doelbinding – gegevens mogen alleen worden verzameld voor een beoogd doel en niet zomaar worden opgeslagen.

Met name waar het gaat om transparantie zullen bedrijven die zich recent met business intelligence en analytics zijn gaan bezighouden veel herkennen. Die hebben namelijk ook moeten leren om veel gestructureerder om te gaan met hun data. Waar komen de gegevens vandaan? Waarvoor worden ze gebruikt en op welke plaatsen zijn ze precies opgeslagen? Dit is in feite wat data lineage inzichtelijk maakt. Deze techniek wordt in de betere analytics-platformen ondersteund en creëert een mate van inzicht en controle over data waarmee organisaties duidelijk een voordeel hebben bij het invoeren van de processen en rapportages die nodig zijn om aan de GDPR te kunnen voldoen.

Centrale controle over datagebruik
Data lineage beschrijft de tijdlijn van gegevens. Ofwel: wanneer ontstaat data, hoe en wanneer worden ze gewijzigd en in welke bedrijfsprocessen, systemen en documenten worden ze gebruikt? Dit is echter alleen mogelijk met een centraal inzicht in alle bedrijfsdata en een goede integratie met andere datamanagementdomeinen zoals datakwaliteit, security en business glossary’s. Data lineage maakt het voor organisaties veel gemakkelijker om inzicht te krijgen in de kwaliteit van hun data. Dit helpt ze enorm bij het voldoen aan GDPR-rapportages, maar het is bovendien een belangrijk middel om meer waarde te genereren met die data. Het creëren van een dergelijk centraal inzicht in alle data is voor de meeste grote organisaties veel te kostbaar en tijdrovend. Dat is zeker het geval als ze proberen om al hun gegevens met uitvoerige ETL-processen (extract-transform-load) bij elkaar te brengen in één centrale database. Dit is in de praktijk veel te kostbaar en tijdrovend.

Gelukkig is dit niet noodzakelijk, omdat er ook een alternatieve manier is om gegevens zonder complexe data-integratieprocessen centraal te beheren. Een modern enterprise analytics-platform kan namelijk als een soort centrale datahub fungeren voor alle onderliggende bedrijfsdata. Dit houdt in dat alle gegevens binnen een organisatie centraal beheerd en ontsloten worden via dit platform. Dat is veel sneller en kostenefficiënter te realiseren dan de data uit verschillende databases en systemen fysiek te integreren en biedt dus een veel sneller pad naar een centraal inzicht in alle privacygevoelige data en GDRP-compliance. En daarnaast kun je als organisatie vervolgens profiteren van alle voordelen die een enterprise analytics-platform biedt. Denk bijvoorbeeld aan het optimaliseren van de bedrijfsprocessen, het verbeteren van de dienstverlening aan klanten en het bevorderen van datagedreven besluitvorming. Bedrijven die op dit moment nog worstelen met de vraag waar ze in vredesnaam moeten beginnen om GDPR-compliant te worden, zouden daarom eens moeten kijken hoe een enterprise analytics-platform hierbij kan helpen.

Datahandel en datagraaien
De GDPR maakt in feite een eind aan het klakkeloos verzamelen, opslaan en verhandelen van privacygevoelige gegevens. Bedrijven moeten inzichtelijk maken welke persoonsgegevens precies opgeslagen worden en voor welk doel. En bovendien moet de burger daar zelf toestemming voor geven en moet hij deze op een later moment ook weer kunnen intrekken. Dat is goed nieuws voor de Europese burger, die hiermee weer de controle terug krijgt over waar en door wie zijn persoonlijke gegevens gebruikt worden. Het probleem is echter dat de meeste bedrijven geen centraal inzicht hebben in waar persoonsgegevens precies zijn opgeslagen. Dat kan namelijk in een traditionele situatie al op allerlei verschillende plekken zijn. Denk bijvoorbeeld aan een CRM, e-commerce website, e-mailmarketingprogramma, Business Intelligence software op desktop-pc’s of laptops, Excel-spreadsheets en zelfs een fysieke dossiers. De uitdaging wordt nog veel groter als er met big data-oplossingen als Hadoop wordt gewerkt. Dan wordt het nog veel lastiger om aan regulerende instanties te melden welke data er zijn opgeslagen, waar ze vandaan komen en of ze ook accuraat zijn. De meeste toekomstbestendige oplossing voor deze uitdaging is het algehele beheer, de distributie en het gebruik van data binnen een organisatie te centraliseren in een analytics-framework. Hiermee kunnen organisaties de controle terugpakken over hun data die noodzakelijk is om aan de strenge eisen van de GDRP te voldoen. Een enterprise analytics-platform kan dus een brug zijn naar GDPR-compliance, maar bovendien kun je hiermee het fundament leggen om een datagedreven organisatie te worden.

]]>
Wed, 12 Jul 2017 13:47:38 +0200 Data lineage: de brug naar de GDPR-compliance? http:///item/948512/data-lineage-de-brug-naar-de-gdpr-compliance.html&field=Foto1&rType=crop&height=165&width=165.jpg
NEN organiseert startbijeenkomst oprichting normcommissie IoT http:///item/948473/nen-organiseert-startbijeenkomst-oprichting-normcommissie-iot.html NEN organiseert op vrijdagmiddag 8 september een startbijeenkomst over de oprichting van een normcommissie voor IoT. Een toename van IoT-toepassingen zorgen voor oplossingen die dwars door sectoren en platformen heengaan. Cross-sectorale oplossingen vragen om interoperabiliteit en integratie tussen systemen en platformen die onafhankelijk van elkaar zijn ontwikkeld met gebruik van verschillende technologieën. Standaarden zijn daarom essentieel voor het bereiken van interoperabiliteit tussen diverse bestaande en opkomende technologieën.

De laatste twee jaar worden er steeds meer IoT-standaarden ontwikkeld. Deze standaarden worden niet alleen ontwikkeld bij internationale standaardisatie organisaties maar ook bij consortia en alliances. Een systeembrede end-to-end benadering is nodig om dit te bereiken. Daarvoor is bij ISO en IEC een systemen-integratie groep gestart als ISO/IEC JTC 1/SC41. Deze technische groep gaat leiding geven aan ISO, IEC, JTC1 en andere entiteiten op het gebied van standaardisatie van IoT en gerelateerde technologieën.
Het standaardisatiewerk van deze groep betreft o.a. thema’s zoals: Sensor networks, IoT architectuur, Interoperabiliteit, Wearables, Industrial IoT, IoT Trustworthiness en Real-time IoT.

Nationaal
Om de belangen van Nederlandse organisaties te vertegenwoordigen, start NEN met de oprichting van een normcommissie over IoT. Belanghebbenden kunnen meepraten en zo bijdragen aan de verdere ontwikkeling van IoT standaarden door lid te worden van deze normcommissie.
Deelname kan bijdragen aan:
- Bepaling van de Nederlandse IoT-standaardisatie agenda;
- Uitoefenen van invloed op de inhoud van mondiale IoT-standaarden in het belang van uw organisatie;
- Up-to-date blijven van de meest recente standaardisatie ontwikkelingen wereldwijd.

Meer informatie over de ontwikkeling van internationale IoT-standaarden en lidmaatschap van de ‘Normcommissie IoT’.

]]>
Wed, 12 Jul 2017 12:25:00 +0200 NEN organiseert startbijeenkomst oprichting normcommissie IoT http:///item/948473/nen-organiseert-startbijeenkomst-oprichting-normcommissie-iot.html&field=Foto1&rType=crop&height=165&width=165.jpg
NEN organiseert kick-off Blockchain en Distributed Ledger Technologies http:///item/948472/nen-organiseert-kick-off-blockchain-en-distributed-ledger-technologies.html De ontwikkelingen op het gebied van Blockchain en Distributed Ledger Technologies (DLT) gaan snel. Dit zorgt voor verschillende ideeën en toepassingen op dit gebied. Om daar meer lijn in te brengen, is ISO recentelijk gestart met de wereldwijde standaardisatie van diverse aspecten van Blockchain en DLT. Op 7 september organiseert NEN een kick-off 'Blockchain en Distributed Ledger Technologies'. Het in Delft gevestigde NEN ondersteunt in Nederland normalisatieprocessen.

Standaardisatie wordt als middel ingezet om interoperabiliteit en gegevensuitwisseling tussen gebruikers, applicaties en systemen te bewerkstelligen. In eerste instantie wordt gewerkt aan een gezamenlijke taal. Hierbij valt te denken aan het harmoniseren van verschillende terminologieën die in omloop zijn. Verder werken studiegroepen aan hun aanbevelingen voor standaardisatie ten aanzien van architectuur, veiligheid, privacy, identiteit en smart contracts. De resultaten daarvan worden in november in Tokyo (Japan) gepresenteerd.
Grote landen als de VS, het VK, Duitsland, China en Rusland dragen al actief bij. Ook de Europese Commissie volgt het onderwerp op nauwe voet.

Invloed uitoefenen
Om vanuit Nederland invloed uit te kunnen oefenen op de ISO-normen, richt NEN de normcommissie Blockchain en DLT op. NEN nodigt belanghebbenden uit om deel te nemen in de normcommissie. Door deelname in de normcommissie kunnen partijen invloed uitoefenen op de internationale normen voor Blockchain en DLT, krijgen ze in een vroegtijdig stadium informatie over toekomstige normen en maken zij deel uit van het internationale standaardisatienetwerk rondom Blockchain en DLT.

Kick-off bijeenkomst
Op donderdag 7 september vanaf 13:30 uur vindt de kick-off plaats bij NEN in Delft. Tijdens de eerste bijeenkomst wordt onder andere besproken:
- het belang van standaardisatie door stakeholders geduid;
- het werkprogramma van ISO gepresenteerd;
- de manier waarop we met elkaar samen gaan werken en waarop we input in ISO leveren.
Een gedetailleerd programma volgt nog.

Wilt u de kick-off bijwonen? Meldt u dan kosteloos aan.

]]>
Wed, 12 Jul 2017 12:16:32 +0200 NEN organiseert kick-off Blockchain en Distributed Ledger Technologies http:///item/948472/nen-organiseert-kick-off-blockchain-en-distributed-ledger-technologies.html&field=Foto1&rType=crop&height=165&width=165.jpg
Infor introduceert AI-platform Coleman http:///item/948471/infor-introduceert-ai-platform-coleman.html Infor introduceert Coleman, een Artificial Intelligence-platform voor Infor CloudSuite-applicaties. Het platform werkt op de achtergrond van een applicatie aan het verbeteren van processen door middel van datamining en machine learning. De AI-gedreven aanbevelingen moeten gebruikers helpen om sneller slimme zakelijke beslissingen te nemen.

Coleman fungeert als een slimme AI-partner die het werk van gebruikers aanvult. Het platform gebruikt daarvoor natural language processing (NLP) en beeldherkenning en helpt mensen om technologie efficiënter te gebruiken. Coleman ontwikkelt op basis van gesprekken een relatie met de gebruiker die wordt weergegeven in Infor Ming.le, het sociale samenwerkingsplatform, of in een synthetic conversational user interface. Hierdoor kan de gebruiker efficiënter werken, aangezien uit onderzoek blijkt dat mensen drie tot vier keer zoveel woorden per minuut kunnen spreken en horen dan typen. Door grote hoeveelheden gegevens in Infor CloudSuite te verwerken, automatiseert Coleman zoek- en verzamelfuncties, iets dat 20 procent van iemands werkweek kan opslokken. Hierdoor kan de productiviteit aanzienlijk worden verhoogd.

Volgens CEO Charles Phillips van Infor besteedde Infor diverse jaren aan het automatiseren van processen die vaste regels volgen, zoals boekhoudkundige en productieprocessen. “We maken nu gebruik van machine learning en dankzij toegang tot grote hoeveelheden gegevens kunnen we gebruikers nu ook helpen met minder gestructureerde processen, zoals complexe beslissingen, gesprekken en voorspellingen.”

Optimaliseren
Coleman helpt op vier manieren bij het optimaliseren van menselijk werkpotentieel:
Gesprekken – Interacties zijn efficiënter, natuurlijker en bieden een betere gebruikerservaring.
Augmentation – Fungeert als een partner die de werkzaamheden van iemand aanvult.
Automatisering – Beheert taken met een lage waarde zoals repeterende werkzaamheden, waardoor gebruikers zich kunnen concentreren op nuttiger werk.
Adviseren – Biedt intelligente inzichten om de gebruiker te helpen betere beslissingen te nemen.
De volgende elementen van Coleman zijn per direct beschikbaar: voorspellend voorraadbeheer voor de gezondheidszorg, prijsoptimalisatiebeheer voor de horecasector en forecasting, planning van het assortiment en promotiebeheer voor de retail.

Eerbetoon aan Coleman
De naam Coleman werd gekozen om Katherine Coleman Johnson te eren, een fysicus en wiskundige die met cruciale berekeningen meehielp om de mens naar de maan te krijgen. Al op jonge leeftijd blonk zij uit in wiskunde en wetenschap. Ze overwon de obstakels van segregatie en werd een belangrijk persoon in het ruimtevaartprogramma van de Verenigde Staten.

]]>
Wed, 12 Jul 2017 12:09:51 +0200 Infor introduceert AI-platform Coleman http:///item/948471/infor-introduceert-ai-platform-coleman.html&field=Foto1&rType=crop&height=165&width=165.jpg
Microsoft Azure Stack wordt uitgerold en Development Kit is beschikbaar http:///item/947615/microsoft-azure-stack-wordt-uitgerold-en-development-kit-is-beschikbaar.html Microsoft heeft aangekondigd dat de Azure Stack bij enkele partners besteld kan worden. Tevens heeft het bedrijf de Azure Stack Development Kit beschikbaar gesteld, waarmee ontwikkelaars gratis hun prototypes van applicaties kunnen testen op een single-server Azure Stack. Azure Stack is een uitbreiding van Azure.

In zijn blog van maandag 10 juli schrijft VP Azure Infrastructure and Management Mike Neil van Microsoft dat er tijdens de Technical Previews groot enthousiasme voor Azure Stack is ontstaan bij klanten en partners.
Neil kondigt binnen de ‘One Azure Ecosystem’ opzet de volgende onderdelen aan:
- Geïntegreerde Azure Stack systemen kunnen besteld worden bij leveranciers Dell EMC, HPE en Lenovo. Deze systemen zijn in september leverbaar, na een certificatieproces. Cisco en Huawei volgen later.
- Een Pay-as-you-use software pricing model.
- Beschikbaarheid van de Azure Stack Development Kit. Een gratis single-server optie voor het testen van applicaties, die later op geïntegreerde systemen/multi-serveromgevingen uitgerold kunnen worden.

Microsoft heeft tevens aangegeven op welke hardware de Azure Stack uitgerold kan worden onder Windows Server 2012 R2.

Download hier de Azure Stack Development Kit.
Meer informatie: Blog van Mike Neil.
Meer informatie: Whitepaper Azure Stack.

]]>
Tue, 11 Jul 2017 14:32:17 +0200 Microsoft Azure Stack wordt uitgerold en Development Kit is beschikbaar http:///item/947615/microsoft-azure-stack-wordt-uitgerold-en-development-kit-is-beschikbaar.html&field=Foto1&rType=crop&height=165&width=165.jpg
Inschrijvingen Digital Transformers Award 2017 geopend http:///item/947059/inschrijvingen-digital-transformers-award-geopend.html Digital Transformers reikt op donderdag 5 oktober 2017 voor de derde keer de Digital Transformers Award (DTA) uit. Met de uitreiking in de A’DAM Toren worden de grootste digitale transformers van Nederland in de schijnwerpers gezet. Inschrijven kan tot 1 september.

De belangrijkste beoordelingscriteria voor de award berusten op de aanwezigheid van drie eigenschappen. De ideale digitale transformer heeft een heldere digitale visie met aantoonbare leiderschapskwaliteiten. Hij beschikt over sterke kennis en vaardigheden omtrent digitale mogelijkheden binnen organisaties en heeft een heldere visie op de ontwikkelingen daarin. Ten slotte wordt er gekeken naar de realisatiekracht van de kandidaat, aan de hand van de impact en bereikte resultaten.

Vertaalslag naar succesvolle toekomst
De digitale revolutie stelt nieuwe eisen aan de organisatie van de toekomst. Vooral grotere bedrijven met enige historie hebben moeite met de omschakeling. Om deze fundamentele verandering succesvol te realiseren, is er een groeiende behoefte aan digitale transformers.
Digital Transformers wil de kennis en kunde mobiliseren om Nederlandse bedrijven sneller en effectiever aan de digitale wereld te laten deelnemen. Met de uitreiking van de Digital Transformers Award wordt digitaal talent in Nederland in contact gebracht met bedrijven die een digitale inhaalslag maken. Deelname aan het event is een uitgelezen kans om kennis op te doen, te discussiëren en te netwerken. Iedere ‘change-maker’ die nauw betrokken is bij deze vertaalslag kan zichzelf of een ander nu online aanmelden. De inschrijvingen sluiten 1 september.

Digital Transformers stimuleert de digitale ontwikkeling van bedrijven en biedt inspiratie, inzicht en ontwikkelmogelijkheden. De organisatie bestaat uit drie bedrijven die actief zijn op het gebied van digitalisering en verandering: Lubbers De Jong, Mirabeau en Newpeople.
Meer informatie en aanmelding: Digital Transformers

]]>
Tue, 11 Jul 2017 00:17:30 +0200 Inschrijvingen Digital Transformers Award 2017 geopend http:///item/947059/inschrijvingen-digital-transformers-award-geopend.html&field=Foto1&rType=crop&height=165&width=165.jpg
Bijbenen connected customer grootste uitdaging voor marketeers http:///item/946650/bijbenen-connected-customer-grootste-uitdaging-voor-marketeers.html SAP Hybris heeft in samenwerking met het CMO Council wereldwijd onderzoek gedaan onder senior marketeers. Zij gaven antwoord op de vraag: wat is de grootste uitdaging om de customer experience te optimaliseren? De twee grootste uitdagingen zijn volgens marketeers het bijhouden van de veranderende wensen van connected customers en het volledig benutten van de vergaarde data via alle engagement kanalen.

Naast deze resultaten, completeren drie uitdagingen de topvijf voor senior marketeers: upgraden en transformeren van technologie om de beste customer engagement te realiseren; uitlijnen van resources en cross-functional support binnen de organisatie; effectief meten van de business impact van investeringen in customer experience.

Ondanks dat marketeers te kennen geven dat ze achter de feiten aanlopen, laten zij zich niet tegenhouden door deze uitdagingen. Om de customer experience van connected customers te verbeteren, heeft 77 procent dan ook al stappen gezet op het gebied van realtime contextuele ervaringen voor klanten. Het doel hiervan is om op de wensen van de connected customer in te spelen gedurende de hele customer journey. De overige 23 procent stelt dat zij mijlenver afliggen van de mogelijkheid om contextuele ervaringen realtime aan te bieden.

Connected customers bieden marketeers volgens Mark de Bruijn, Senior Director & Head of EMEA Marketing bij SAP Hybris, een flinke uitdaging. “Zoals het onderzoek aankaart zien we dat marketeers zich bewust zijn van het belang van realtime contextuele ervaringen. Een goede samenwerking tussen de CMO en CIO is hierbij cruciaal, omdat de vergaarde data en de daaruit resulterende marketingacties direct met elkaar moeten corresponderen. Dit voorkomt dat je de veranderende wensen van jouw doelgroep niet kunt bijbenen en achter de feiten aanloopt.”

De resultaten worden uiteengezet in het CMO Review van SAP Hybris over veranderingen in het digitale landschap.

]]>
Mon, 10 Jul 2017 13:38:57 +0200 Bijbenen connected customer grootste uitdaging voor marketeers http:///item/946650/bijbenen-connected-customer-grootste-uitdaging-voor-marketeers.html&field=Foto1&rType=crop&height=165&width=165.jpg
Atos lanceert krachtige Quantum Learning Machine simulator http:///item/946649/atos-lanceert-krachtige-quantum-learning-machine-simulator.html Atos introduceert een systeem dat in staat is om tot 40 quantum bits (Qubits) te simuleren. De Atos Quantum Learning Machine simulator (Atos QLM) wordt aangedreven door een ultra-compacte supercomputer en een universele programmeertaal. Volgens Atos is het de krachtigste quantumsimulator ter wereld.

Atos QLM is beschikbaar in vijf configuraties (30 tot 40 Qubits) om te voorzien in de behoeften van uiteenlopende organisaties. De simulator stelt onderzoekers, studenten en ingenieurs in staat quantumapplicaties en algoritmes te ontwikkelen en testen. De machine is ontworpen door het Atos Quantum Laboratorium, het eerste omvangrijke industriële quantumprogramma in Europa dat in november 2016 is gelanceerd, en staat aan de basis van hoogwaardige innovaties die hebben geresulteerd in allerlei gepatenteerde toepassingen.
 
Quantumfysica
Atos geeft volgens bestuursvoorzitter en CEO Thierry Breton met de lancering van de quantumsimulator opnieuw uitdrukking aan haar ambities leidend te zijn in Europa. “Atos wil klanten vanaf het begin ondersteunen bij wat naar verwachting de volgende technologische disruptie zal zijn. Quantumfysica zal ingrijpende veranderingen tot gevolg hebben, vooral op het gebied van cybersecurity. Dat is op dit moment één van de belangrijkste prioriteiten van organisaties en we bereiden ons zo goed mogelijk voor op de impact die deze ontwikkelingen zullen hebben. De teams van ons Quantum Laboratorium hebben een indrukwekkende vooruitgang geboekt bij het beschikbaar stellen van een simulatieomgeving aan wetenschappers en ingenieurs uit alle delen van de wereld, die hen in staat stelt quantumalgoritmes te ontwikkelen en voorbereid te zijn op ontwikkelingen in onze sector.”
 
Nu de Wet van Moore - die de microprocessor-industrie gedurende 50 jaar heeft gedomineerd en computing in de afgelopen decennia heeft gestructureerd - binnen afzienbare tijd verouderd zal zijn, zal de quantumcomputer, gebaseerd op de principes van de quantummechanica, naar verwachting fysieke beperkingen van bestaande computing doorbreken. Dit opent de weg naar nieuwe mogelijkheden, in het bijzonder op het gebied van intensieve computing.
 
Universele programmeertaal
De teams die werkzaam zijn in het Atos Quantum Laboratorium hebben de universele taal aQasm (Atos Quantum Assembly Language ontwikkeld. aQasm is 100 procent quantum en kan met onmiddellijke ingang worden toegepast op een quantum-simulator, maar ook op quantum-accelerators of fysieke quantumcomputers vanaf het moment dat deze zijn ontwikkeld. Ook is aQasm configurabel en biedt de taal de mogelijkheid om quantumpoorten te programmeren  in klassieke computing) en deze te combineren met andere bestaande quantumpoorten om meer volledige extensies te leveren. Verder is de taal gestandaardiseerd. aQasm is de gemeenschappelijke taal van alle toekomstige ontwikkelingen binnen de Atos Groep op het gebied van quantumcomputing en waarborgt de onderlinge operationaliteit en een soepele overgang naar quantum.
Door deze universele configuratie maakt aQasm maakt de ontwikkeling mogelijk van connectors waarop programma’s van andere quantumsimulatoren draaien.
 
Ultracompacte supercomputer
Atos Quantum-teams hebben een nieuwe ultracompacte supercomputer ontwikkeld die draait op deze universele quantumtaal en de volgende mogelijkheden biedt:
- de mogelijkheid om Qubits in memory te verwerken en processen zo te versnellen
- unieke firmware (micro-software geïntegreerd in de he hardware) die uitwisseling van data optimaliseert, zoals gedefinieerd in het quantummodel dat is ontwikkeld in aQasm.
- hardwarecomponenten om specifieke quantumberekeningen te versnellen en die uiteindelijk kunnen worden vervangen door quantum-accelerators.
Het feit dat de machine dezelfde omvang heeft als een standaardserver betekent dat het eenvoudig op locatie voor uiteenlopende klanten kan worden geïnstalleerd.
 
Revolutie
Atos Quantum werkt nauw samen met de internationaal vooraanstaande Scientific Council, die de wetenschappelijke waarde van haar werkzaamheden heeft bevestigd. De laatste bijeenkomst vond plaats op 31 mei. “Er zijn hoge verwachtingen van nieuwe technologieën als quantumcomputing, maar er is nog veel voor nodig om gebruikers te helpen in het gebruik en het programmeren van quantumcomputers. Door universiteiten, onderzoeksinstituten en grote en kleine bedrijven overal ter wereld toegang te bieden tot haar QLM stelt Atos organisaties in staat te experimenteren met quantumcomputing. Zo kunnen zij zich voorbereiden op deze potentiële revolutie op het gebied van computing. Met deze lancering stelt Atos de markt in staat om te leren hoe quantumcomputing kan worden ingezet”, zegt Earl Joseph, CEO van Hyperion Research (voorheen IDC Research).

Internet of Things
In de komende jaren zal quantumcomputing in staat zijn het hoofd te bieden aan de explosieve hoeveelheid data die door big data en het Internet of Things beschikbaar komt. Dankzij haar innovatieve en uiterst snelle rekencapaciteit, gebaseerd op de supercomputer Bull Sequana, maakt quantumcomputing ook de weg vrij voor nieuwe ontwikkelingen op het terrein van deep learning, algoritmes en kunstmatige intelligentie: van farmaceutische toepassingen tot de ontwikkeling van nieuwe materialen. Om op deze gebieden vooruitgang te boeken, wil Atos partnerships sluiten met onderzoekscentra en universiteiten in alle delen van de wereld.

]]>
Mon, 10 Jul 2017 13:31:44 +0200 Atos lanceert krachtige Quantum Learning Machine simulator http:///item/946649/atos-lanceert-krachtige-quantum-learning-machine-simulator.html&field=Foto1&rType=crop&height=165&width=165.jpg
Securing Competitive Advantage with Machine Learning http:///item/926164/securing-competitive-advantage-with-machine-learning.html Business dynamics are evolving with every passing second. There is no doubt that the competition in today's business world is much more intense than it was a decade ago.

Companies are fighting to hold on to any advantages. Digitalization and the introduction of machine learning into day-to-day business processes have created a prominent structural shift in the last decade. The algorithms have continuously improved and developed.

Every idea that has completely transformed our lives was initially met with criticism. Acceptance is always followed by skepticism, and only when the idea becomes reality does the mainstream truly accept it. At first, data integration, data visualization and data analytics were no different.

Incorporating data structures into business processes to reach a valuable conclusion is not a new practice. The methods, however, have continuously improved. Initially, such data was only available to the government, where they used it to make defense strategies. Ever heard of Enigma?

In the modern day, continuous development and improvement in data structures, along with the introduction of open source cloud-based platforms, has made it possible for everyone to access data. The commercialization of data has minimized public criticism and skepticism. 

Companies now realize that data is knowledge and knowledge is power. Data is probably the most important asset a company owns. Businesses go to great lengths to obtain more information, improve the processes of data analytics and protect that data from potential theft. This is because nearly anything about a business can be revealed by crunching the right data.

It is impossible to reap the maximum benefit from data integration without incorporating the right kind of data structure. The foundation of a data-driven organization is laid on four pillars. It becomes increasingly difficult for any organization to thrive if it lacks any of the following features.

Here are the four key elements of a comprehensive data management system:

  • Hybrid data management
  • Unified governance
  • Data science and machine learning
  • Data analytics and visualization

Hybrid data management refers to the accessibility and repeated usage of the data. The primary step for incorporating a data-driven structure in your organization is to ensure that the data is available. Then you proceed by bringing all the departments within the business on board. The primary data structure unifies all the individual departments in a company and streamlines the flow of information between those departments.

If there is a communication gap between the departments, it will hinder the flow of information. Mismanagement of communication will result in chaos and havoc instead of increasing the efficiency of business operations.

Initially, strict rules and regulations governed data and restricted people from accessing it. The new form of data governance makes data accessible, but it also ensures security and protection. The other two aspects of data management are concerned with data engineering. A spreadsheet full of numbers is of no use if it cannot be tailored to deduce some useful insights about business operations. This requires analytical skills to filter out irrelevant information. There are various visualization technologies that make it possible and easier for people to handle and comprehend data.

]]>
Sun, 09 Jul 2017 06:11:32 +0200 Securing Competitive Advantage with Machine Learning http:///item/926164/securing-competitive-advantage-with-machine-learning.html&field=Foto1&rType=crop&height=165&width=165.jpg
Data Challenge KNVB toont noodzaak vrouwen in bestuursfuncties http:///item/944057/data-challenge-knvb-toont-noodzaak-vrouwen-in-bestuursfuncties.html Om meer vrouwen op het voetbalveld te krijgen moeten verenigingen meer vrouwen in hun bestuur opnemen. Dit is het advies waarmee vier studenten van de Rijksuniversiteit Groningen tijdens de Dutch Data Science Week de Data Challenge bij de KNVB wonnen. De challenge maakte deel uit van de Dutch Data Science Week die van 6 tot 9 juni plaatsvond.

De challenge gaf zo’n veertig deelnemers een unieke kans om met de data van de KNVB te werken. Het doel van de dag was om meer inzicht te krijgen in de omvang en impact van het meiden- en vrouwenvoetbal ten opzichte van het voetbal in zijn geheel. Daarnaast werd de deelnemers gevraagd om op basis van de data een beeld te geven van hoe dit zich in de toekomst zou kunnen ontwikkelen. Aanleiding voor de KNVB om de challenge rond het vrouwenvoetbal te organiseren is het UEFA toernooi Women’s EURO 2017 dat op 16 juli in Nederland plaatsvindt.

Meer vrouwelijke voetballers in het Oosten
De deelnemers werkten in 9 teams samen en kwamen met uiteenlopende inzichten. Zo werd een verband gevonden tussen de kleur van de tenues van vrouwenteams en de resultaten in de competitie en kon geconcludeerd worden dat er in het Oosten relatief meer vrouwen voetballen. Ook toonde een team aan dat de aanwezigheid van vrouwen op het veld een positieve impact had op het aantal escalaties en rode en gele kaarten tijdens wedstrijden.

Tone at the Top
Het winnende team maakt deel uit van de studievereniging Pro Memorie voor Accountancy & Controlling studenten aan de Rijksuniversiteit Groningen. De jury was vooral onder de indruk van de hypothese die de het team gekozen had en de succesvolle theoretische onderbouwing daarvan.
Met het winnende advies ‘Tone at the Top’ gaven de studenten aan dat de toon van hoe een bedrijf wordt bestuurd en in elkaar zit, doorgaans aan de top wordt gezet. “Vanuit onze studie weten we dat vrouwen in de bestuurskamer een belangrijke invloed kunnen hebben op verschillende aspecten zoals duurzaamheid, maar ook de tevredenheid van werknemers”, vertelt Judith van Ekeren. “Vrouwelijke bestuurders hebben in die zin vaak ook een voorbeeldfunctie voor vrouwelijke werknemers. Wij verwachten dat dit bij een vereniging niet anders zal zijn. Dit werd onderbouwd door de data waarin we bijvoorbeeld zagen dat voetbalverenigingen waar meer vrouwen in het bestuur zitten, relatief meer vrouwelijke leden hebben.”

De vier winnaars van de KNVB data challenge wonnen kaarten voor de openingswedstrijd van het Women's EURO op 16 juli in Utrecht.

]]>
Fri, 07 Jul 2017 14:52:39 +0200 Data Challenge KNVB toont noodzaak vrouwen in bestuursfuncties http:///item/944057/data-challenge-knvb-toont-noodzaak-vrouwen-in-bestuursfuncties.html&field=Foto1&rType=crop&height=165&width=165.jpg
Dell Boomi cloud integratieplatform versterkt digitale interactie http:///item/944056/dell-boomi-cloud-integratieplatform-versterkt-digitale-interactie.html Dell Boomi kondigt een nieuwe release aan van het enterprise cloud integratieplatform voor het verplaatsen, beheren, controleren en samenbrengen van data in hybride IT-omgevingen. De nieuwste versie biedt klanten efficiënte mogelijkheden om koppelingen te maken dankzij nieuwe no code application integration accelerators, betere ondersteuning voor DevOps en verbeterde functionaliteit voor data governance en databeveiliging.

Volgens CEO Chris McNabb van Boomi moeten grote organisaties om relevant en concurrerend te blijven, hun klanten, partners en leveranciers soepele digitaal geïntegreerde ervaringen kunnen aanbieden. “Integratieteams staan onder grote druk om systemen snel te kunnen koppelen. Dankzij de nieuwste release van ons platform hebben organisaties nu de beschikking over de meest uitgebreide en solide basis om systemen slimmer, beter en sneller te integreren.”

De release omvat meer dan 150 functies die in de afgelopen maanden zijn toegevoegd aan het integration-Platform-as-a-Sevice (iPaaS) van Boomi. Het gaat onder meer om ‘low and no code’ integration accelerators zoals workflow automation, standaard integratietemplates, ondersteuning voor integratie van toonaangevende PaaS-oplossingen en nieuwe typen EDI-componenten voor B2B-partners.

Meer informatie: Boomi

]]>
Fri, 07 Jul 2017 14:37:45 +0200 Dell Boomi cloud integratieplatform versterkt digitale interactie http:///item/944056/dell-boomi-cloud-integratieplatform-versterkt-digitale-interactie.html&field=Foto1&rType=crop&height=165&width=165.jpg
De Bodemkaart van Nederland beschikbaar als open data http:///item/944055/de-bodemkaart-van-nederland-beschikbaar-als-open-data.html De Bodemkaart van Nederland is vrij beschikbaar als open data bij Publieke Dienstverlening Op de Kaart (PDOK), een centrale voorziening voor het ontsluiten van geodatasets. De Bodemkaart komt uit de Basisregistratie Ondergrond (BRO), een centrale database met publieke gegevens van de Nederlandse bodem en ondergrond. De BRO behoort, net als gegevens over topografie, adressen, gebouwen en personen, tot het stelsel van basisinformatie van Nederland.

Wageningen Environmental Research (Alterra) stelt als partner van de BRO alle bodemgegevens van Nederland als open data beschikbaar voor gebruik. Tot nu toe waren deze bodemgegevens niet vrij toegankelijk voor het publiek. Dankzij financiering van de ministeries van EZ en IenM komt hier nu verandering in. Zowel bedrijven als overheden kunnen zo efficiënter opereren en hun dienstverlening verbeteren.

De Basisregistratie Ondergrond maakt het mogelijk om via PDOK de gegevens gratis op te vragen en te gebruiken om goed onderbouwde keuzes te maken over het gebruik van bodem en ondergrond. Keuzes die faalkosten binnen dossiers als voedselproductie, natuur en biodiversiteit, ruimtelijke inrichting en grootschalige infrastructuur kunnen vermijden. Verder zijn de gegevens van belang voor de Omgevingswet en de ordening van de ondergrond (STRONG). De BRO voldoet aan de Europese richtlijn INSPIRE voor een geïntegreerd milieubeleid.

PDOK
Publieke Dienstverlening Op de Kaart (PDOK) is een centrale voorziening voor het ontsluiten van geodatasets van nationaal belang. Dit zijn actuele en betrouwbare gegevens voor zowel de publieke als private sector. PDOK stelt digitale geo-informatie als dataservices en bestanden beschikbaar. De meeste PDOK diensten zijn gebaseerd op open data en daarom voor iedereen vrij beschikbaar.
Begin juni zijn bij PDOK ook zes datasets in productie genomen met veel waterdata van alle Nederlandse Waterschappen. Daarmee wordt het aanbod van geodata voor Nederland aanzienlijk verrijkt.

Bekijk de Bodemkaart in de PDOK Viewer.

]]>
Fri, 07 Jul 2017 14:32:24 +0200 De Bodemkaart van Nederland beschikbaar als open data http:///item/944055/de-bodemkaart-van-nederland-beschikbaar-als-open-data.html&field=Foto1&rType=crop&height=165&width=165.jpg
Previder organiseert Summerschool tech-sessies http:///item/943090/previder-organiseert-summerschool-tech-sessies.html Previder organiseert tijdens de zomermaanden een serie informatieve tech-sessies voor Independent Software Vendors. De Summerschool tech-sessies vinden plaats op vrijdag van 14 juli tot en met 25 augustus, van 16.00 tot 17.00 uur. Security-experts van Previder, NetApp, Fortinet, Microsoft en NBIP zullen in de webinarserie vertellen over het optimaal inrichten en beveiligen van SaaS-applicaties. Previder is leverancier van cloud- en managed IT-diensten.

Steeds meer ISV’s besteden de hosting van hun SaaS-applicaties uit aan datacenter- en cloudspecialisten door de schaalbaarheid en kostenefficiëntie die het biedt. Deze IaaS-omgevingen vereisen echter net zoveel aandacht om een optimale security en beschikbaarheid te garanderen. Previder komt ISV’s tegemoet bij hun vragen hierover met een zesdelige serie Summerschool techsessies. Tijdens deze bijeenkomsten wordt een gebalanceerde mix van informatie gegeven op zowel technisch als managementniveau. Zo wordt er gesproken over het omgaan met bedreigingen als DDoS-aanvallen, ransomware en hackers, maar ook worden er praktische zaken besproken als DevOps, een serveromgeving opbouwen met IaaS en hoe bedrijven zich kunnen voorbereiden op de nieuwe GDPR-privacywetgeving.

1. Hoe bouw je een SaaS-hostingplatform met Previder IaaS?
Vrijdag 14 juli (16:00-17:00)
Tijdens deze sessie demonstreert Gijs Middelkamp, ontwikkelaar van Previder IaaS, de uitgebreide mogelijkheden van het platform. Verder geeft hij ook een sneak-preview van nieuwe functionaliteiten die binnenkort voor klanten beschikbaar zullen komen.

2. Test en Deploy met DevOps van NetApp
Vrijdag 21 juli (16:00-17:00)
NetApp heeft DevOps in een vroeg stadium omarmd en daarvoor een internationale ontwikkelomgeving met de naam CodeEasy gecreëerd. Hiermee wordt het proces van provisioning development geautomatiseerd voor een wereldwijd team van 2.000 developers.

3. Werking van een Web Application Firewall
Vrijdag 28 juli (16:00-17:00)
Dennis Hagens, Security Specialist van FortiNet, legt in deze sessie uit waarom een standaard firewall tegenwoordig niet meer voldoende is om een webapplicatie optimaal te beveiligen. Met een Web Application Firewall (WAF) is het mogelijk om een extra beveiligingslaag toe te voegen die bovendien zelflerend is.

4. Microsoft Azure
Vrijdag 4 augustus (16:00-17:00)
Herman Keijzer, Partner technical strategist en cloud-architect bij Microsoft, geeft tijdens deze sessie inzicht in de functionaliteiten van Microsoft Azure en welke impact de cloud kan hebben op de business. De cloud van Azure biedt zeer veel mogelijkheden voor het hosten van applicaties, storage, data-analyse en nog veel meer.

5. Hoe je een DDos aanval opzet en afweert
Vrijdag 11 augustus (16:00-17:00)
Pim van Stam is als security-expert werkzaam bij de Nationale Beheersorganisatie Internet Providers (NBIP), dat de Nationale anti-DDoS Wasstraat (NaWas) beheert. Tijdens zijn technische sessie bespreekt hij de wereld van DDoS, hoe ISV’s hun SaaS-applicaties tegen dit soort aanvallen kunnen wapenen en hoe je optimale bescherming realiseert tegen DDoS-aanvallen.

6. Wat moet je weten rondom de GDPR?
Vrijdag 25 augustus (16:00-17:00)
In mei 2018 treedt de nieuwe Europese verordening General Data Protection Regulation (GDPR) in werking, ook wel bekend als de Algemene Verordening Gegevensbescherming (AVG). Dit heeft ingrijpende gevolgen voor bedrijven en organisaties die persoonsgegevens verwerken, waaronder vrijwel alle ISV’s. Jan van der Elst, Channel Excutive Cloud specialist bij Microsoft, vertelt tijdens deze sessie welke impact de GDPR heeft voor ISV’s en de eindgebruikers van hun software.
 
Meer informatie over de Summerschool Tech-sessies en aanmelding.

]]>
Thu, 06 Jul 2017 12:28:26 +0200 Previder organiseert Summerschool tech-sessies http:///item/943090/previder-organiseert-summerschool-tech-sessies.html&field=Foto1&rType=crop&height=165&width=165.jpg
Advanced Programs organiseert Meetup IBM PureData for Analytics User Group http:///item/943051/advanced-programs-organiseert-meetup-ibm-puredata-for-analytics-user-group.html Advanced Programs organiseert een Meetup over IBM PureData for Analytics, ook wel bekend als Netezza. Op 11 juli is iedere IT manager, Business Intelligence specialist en Database administrator welkom.

Op 11 juli vanaf 18.00 uur staan de toekomst en de ontwikkelingen op het gebied van de PureData for Analytics centraal. Sprekers delen kennis en ervaring, bespreken use cases en gaan met elkaar in discussie. Advanced Programs heeft de ambitie om een levendige community te bouwen van enthousiastelingen rond dit platform.

Tijdens de Meetup komen verschillende sprekers aan bod, onder andere Matthias Funke, Product director van IBM. Matthias Funke neemt ons mee in de Roadmap van de PureData. Solution Architect Sander Hovestad van Advanced Programs deelt de Tips & Tricks op het gebied van Performance management. Sander Hovestad heeft jarenlange ervaring op het gebied van BI, DWH en Big Data.

Het programma van de Meetup zit er als volgt uit:
18.00 uur – Inloop met eten
19.00 uur – IBM Product Director Matthias Funke over Roadmap PureData
19.45 uur – Pauze
20.00 uur – Solution Architect Sander Hovestad over Performance management, Tips & Tricks
20.45 uur – Netwerkborrel

U kunt zich hier aanmelden.

Meer informatie: Advanced Programs

]]>
Thu, 06 Jul 2017 11:36:06 +0200 Advanced Programs organiseert Meetup IBM PureData for Analytics User Group http:///item/943051/advanced-programs-organiseert-meetup-ibm-puredata-for-analytics-user-group.html&field=Foto1&rType=crop&height=165&width=165.jpg
Yourhosting en Interxion houden data veilig in Nederland met Azure Stack http:///item/942177/yourhosting-en-interxion-houden-data-veilig-in-nederland-met-azure-stack.html Interxion, leverancier van cloud- en carrier-neutrale datacenterdiensten en hosting- en cloud servicesprovider Yourhosting kondigen een partnership aan. Yourhosting gaat Azure Stack aanbieden vanuit Interxions nieuwste AMS8 datacenter in Amsterdam. Daardoor is de locatie van data gegarandeerd: gebruikers van een cloudconstructie met Azure Stack bij Yourhosting weten zeker dat hun data in Nederland staat en blijft.

Azure Stack brengt Microsofts publieke cloudplatform, en al zijn voordelen naar een eigen, fysieke en veilige datacenteromgeving. Azure Stack behoort tot het topsegment aan Azure-diensten en is net zo schaalbaar en flexibel als public Azure, maar voegt daar grip op de locatie van data aan toe. Daarmee geeft Azure Stack invulling aan de toenemende vraag naar veilige hybride cloudconstructies.
Een hybride cloudconstructie biedt de flexibiliteit en schaalbaarheid van de publieke cloud, met de mogelijkheid om data te verwerken in een Nederlands high-end datacenter. Die mogelijkheid is van belang vanwege de GDPR of andere wet- en regelgeving, security, compliance of soevereiniteit van de data.
Het onderhouden van een hybride constructie kan echter complex en tijds- en kostenintensief zijn, mede omdat er twee platformen onderhouden moeten worden. Azure Stack biedt hiervoor de oplossing, omdat het gebruik maakt van hetzelfde platform als public Azure. Een combinatie van Azure Stack en public Azure biedt daardoor een hybride cloudconstructie in optima forma.

Expertise
Yourhosting is nauw betrokken bij de ontwikkeling van Azure Stack. Het bedrijf maakt onderdeel uit van een selecte groep van drie wereldwijde Microsoft Gold Partners die het platform mogen testen en evalueren. Vorig jaar was Yourhosting naar eigen zeggen de eerste partij ter wereld die een technische demo kon geven. Daarnaast claimt Yourhosting het eerste Nederlandse bedrijf te zijn dat een volledig operationele constructie beschikbaar heeft.

Drijfveer
Valentijn Borstlap, CEO en oprichter van Yourhosting: “We zijn met Interxion in zee gegaan omdat het een Nederlands bedrijf is. Gebruikers van Azure Stack zijn er op die manier niet alleen van verzekerd dat hun data in Nederland staat, maar ook nog onder de Nederlandse wet valt. Daarnaast biedt Interxion ExpressRoute, een directe, private verbinding naar de publieke Microsoft cloud. Hierdoor zijn alle ingrediënten aanwezig voor een goed functionerende hybride cloudconstructie.”
Managing Director Michael van den Assem van Interxion Nederland: “De mogelijkheid om enterprises en IT dienstverleners te kunnen voorzien van de beste oplossingen, die worden gebouwd met vooraanstaande technologie ligt aan de kern van wat ons drijft. Een partnership met Yourhosting sluit naadloos op die drijfveer aan. Samen met deze early adopter verwachten we de digitale transformatie van Nederland een enorme boost te gaan geven.”

Zelf ervaren
Naast een Experience Center op het hoofdkantoor van Yourhosting in Zwolle, is er ook in het Interxion datacenter een Azure Stack Experience Center opgericht. Hier kunnen geïnteresseerde partijen een hybride cloudconstuctie beta-testen.

]]>
Wed, 05 Jul 2017 12:55:27 +0200 Yourhosting en Interxion houden data veilig in Nederland met Azure Stack http:///item/942177/yourhosting-en-interxion-houden-data-veilig-in-nederland-met-azure-stack.html&field=Foto1&rType=crop&height=165&width=165.jpg
Progress neemt Backend-as-a-Service aanbieder Kinvey over http:///item/942176/progress-neemt-backend-as-a-service-aanbieder-kinvey-over.html Progress heeft de overname van Kinvey aangekondigd, een privaatbedrijf uit Boston dat gespecialiseerd is in Backend-as-a-Service (BaaS) technologie. De acquisitie is een belangrijk onderdeel van de strategie van Progress om het beste platform te bieden voor het ontwikkelen en leveren van moderne, cognitieve applicaties. Deze overname volgt op de acquisitie van machine learning en predictive analytics leverancier DataRPM eerder dit jaar.

CEO Yogesh Gupta van Progress ziet Kinvey als pioneer op het gebied van BaaS. “Het bedrijf levert een oplossing waarmee ontwikkelaars een serverloze en compliant cloud backend kunnen gebruiken voor elke native, hybride, web of IoT-applicatie. Door Backend-as-a-Service van Kinvey te koppelen aan onze frontend ontwikkelomgeving, predictive analytics en connectiviteitstechnologieën, doen we iets unieks; we bieden klanten de enige complete open stack voor het ontwikkelen en inzetten van cognitive applicaties.”

Tien miljard API-calls
Kinvey wordt gebruikt door organisaties uit verschillende industrieën om moderne applicaties te ontwikkelen en in te zetten. Schneider Electric, VMware, Bell and Howell en de Thomas Jefferson University maken onder andere gebruik van de oplossing. Kinvey ondersteunt meer dan 31.000 applicaties, gebruikt door meer dan 100 miljoen eindgebruikers, van bedrijfskritische klant- en organisatieapplicaties voor verzekeraars, productie- en mediabedrijven, tot HIPAA-compliant en life-critical applicaties voor de zorg en farmacie. BaaS van Kinvey ondersteunt meer dan 10 miljard API-calls per maand en is als beste gepositioneerd in de categorie ‘huidig aanbod’ in The Forrester Wave: Mobile Development Platforms, Q4 2016.

Integratie
Progress is onlangs uitgeroepen tot een leider in het Gartner Magic Quadrant voor mobile app development platforms. Door Kinvey’s backend platform samen te voegen met de frontend technologieën van Progress, waaronder NativeScript, Kendo UI en Telerik en ook de predictive analytics, rules engine en dataconnectivity technologieën, biedt Progress nu de beste end-to-end oplossing voor het ontwikkelen en leveren van bedrijfskritische applicaties. De kracht van Kinvey in compliance, beveiliging, prestaties, betrouwbaarheid en schaalbaarheid passen bij de focus van Progress op missiekritische bedrijfsapplicaties. De integratie van Kinvey in Progress NativeScript en DataDirect dataconnectivity producten is nu beschikbaar.

Cognitive-first
“Door Kinvey als backend platform en Progress’ frontend tools zoals Kendo UI te gebruiken, hebben we ons bouwbeheerproces getransformeerd van papier naar volledig digitaal”, zegt Bryant King, Chief Information Officer, Holder Construction. “Omdat we van beiden al klant waren, is de combinatie van Kinvey en Progress logisch. Progress levert de juiste technologieën om ons te helpen met het leveren van bedrijfskritische informatie en middelen die nodig zijn om de veranderende markt bij te houden.”
Volgens Denise Lund, research director, Enterprise Mobility bij IDC, voegt de acquisitie van Kinvey een belangrijke kracht toe aan het portfolio van Progress. “Samen met de assets van DataRPM wordt Progress een sterke speler in de markt van intelligentie applicatieontwikkeling.” Oprichter en CEO Sravish Sridhar van Kinvey ziet cognitive-first als de toekomst van nieuwe applicatiebelevingen. “We kijken er naar uit om ons bij Progress te voegen als kerncomponent van hun leidende productportfolio voor het leveren van deze toekomst aan onze klanten.”

Progress heeft Kinvey overgenomen voor een bedrag van 49 miljoen dollar.

Meer informatie: Progress/Kinvey

]]>
Wed, 05 Jul 2017 12:28:46 +0200 Progress neemt Backend-as-a-Service aanbieder Kinvey over http:///item/942176/progress-neemt-backend-as-a-service-aanbieder-kinvey-over.html&field=Foto1&rType=crop&height=165&width=165.jpg
Relay42 door ABN AMRO geselecteerd voor data management oplossing http:///item/941662/relay-door-abn-amro-geselecteerd-voor-data-management-oplossing.html Data management platform (DMP) aanbieder Relay42 is door ABN AMRO geselecteerd voor de implementatie van haar DMP-oplossingen in de IT-infrastructuur van de bank. Dit maakt het voor de bank mogelijk marketing om te zetten in een menselijke dialoog.

Met het data management platform van Relay42 wordt het herkennen van de klant een stuk accurater – zelfs als het device door andere mensen, zoals familieleden, wordt gebruikt. Dit helpt ABN AMRO bij het creëren van individuele customer journeys waarbij de communicatie specifiek op de individuele klant wordt toegesneden.
ABN AMRO benaderde Relay42 in eerste instantie voor een DMP-oplossing die zou bijdragen aan het verder verbeteren van klantgerichte marketing. Na een zes maanden durend tenderproces werd Relay42 gekozen als partner voor dit project. Het onboarding proces, waarbij het DMP werd geïmplementeerd in de IT-infrastructuur van ABN AMRO, nam slechts drie maanden in beslag. Hierna werd het DMP meteen in gebruik genomen door de marketingteams van de bank.

Tomas Salfischberger, CEO en medeoprichter van Relay42: “Als je weet hoeveel verschillende platformen en systemen banken als ABN AMRO dagelijks gebruiken, zou je verwachten dat het onboarding proces van een DMP wel even zou duren – een jaar is niet ongebruikelijk in deze markt. Onze oplossing biedt echter een snelle start voor zelfs de meest complexe ecosystemen. Het snelle onboarding proces is belangrijk omdat succesvolle marketeers efficiënt moeten kunnen werken en instinctief beslissingen nemen. Dit kan alleen maar bereikt worden als de DMP-oplossing daadwerkelijk geïnstalleerd en klaar voor gebruik is. We willen dat onze klanten met maximale agility te werk kunnen gaan en zo snel mogelijk resultaten zien. In dit geval waren we de enigen die een uitrol binnen drie maanden konden aanbieden.”

]]>
Wed, 05 Jul 2017 00:02:00 +0200 Relay42 door ABN AMRO geselecteerd voor data management oplossing http:///item/941662/relay-door-abn-amro-geselecteerd-voor-data-management-oplossing.html&field=Foto1&rType=crop&height=165&width=165.jpg
Webinarserie Qlik Summer School 2017 verdiept analytische vaardigheden http:///item/941513/webinarserie-qlik-summer-school-verdiept-analytische-vaardigheden.html De webinarserie Qlik Summer School 2017 is een op maat te maken programma met trainingswebinars om analytische vaardigheden bij te spijkeren in de rustige zomermaanden. Qlik heeft een aantal verschillende sessies ontwikkeld met innovatieve ideeën en inzichten en inspirerende sprekers.

De webinarserie begint op maandag 17 juli en eindigt op 4 augustus. Iedereen kan een persoonlijk programma samenstellen, binnen een of meerdere van drie routes boordevol informatie. Deze routes zijn: Nieuwste platformupdates binnen het Qlik-productportfolio, Best practices-sessies om uw kennis van analytics, BI en datavisualisatie te verbeteren; Technische know-how over API’s en GeoAnalytics en AR. De webinars beginnen elke dag om 11.00 uur.

U kunt hier uw plaats reserveren.

]]>
Tue, 04 Jul 2017 19:43:26 +0200 Webinarserie Qlik Summer School 2017 verdiept analytische vaardigheden http:///item/941513/webinarserie-qlik-summer-school-verdiept-analytische-vaardigheden.html&field=Foto1&rType=crop&height=165&width=165.jpg
Business Software Event 2017 in teken van maakindustrie http:///item/941389/business-software-event-in-teken-van-maakindustrie.html Het Business Software Event voor de klantenorder- en voorraadgestuurde industrie staat dit jaar in het teken van 'Business Software voor de maakindustrie - uw bedrijfsproces stap voor stap efficiënter ingericht'. Centraal staat de noodzaak van voortgaande ketenintegratie en procesverbetering met behulp van ICT. Ook nieuwe toepassingen, met werken in de cloud, staan in de aandacht.

Het Business Software Event 2017 vindt plaats op 28 september in de nieuwe locatie Midden Nederland Hallen in Barneveld. De focus op inspirerende succesverhalen en aansprekende best practices biedt bezoekers alle gelegenheid voor intensieve interactie.

Strategisch instrument
Van bedrijven uit de industrie wordt steeds meer geëist: meerwaarde bieden door complexere producten te leveren, met steeds meer partijen samenwerken, doorlooptijden verkorten, voorraden verminderen enzovoort. Enerzijds blijven de wensen van klanten toenemen, anderzijds groeit de concurrentie sterk. Voor bedrijven die optimaal willen presteren is goede business software een onmisbaar strategisch instrument. In toenemende mate bestaat deze software uit meerdere schakels die in een keten, zowel intern als extern, moeten kunnen samenwerken. De tijd dat ERP dominant was voor de besturing van de onderneming ligt al weer bijna achter ons. De toekomst is aan de beste combinatie. Dat is van ontwerp via bedrijfsbesturing tot en met de machine waarbinnen we onze producten kunnen maken en afleveren aan onze klanten. Ook de fase na het afleveren met betrekking tot service en onderhoud hoort hier bij.

Kansen
Veel bedrijven zien kansen, maar worstelen met het implementeren van trends zoals digitale transformatie, Smart Industry en de digitale fabriek. De crux is om het stap voor stap aan te pakken. Diverse organisaties hebben dit met succes uitgevoerd en delen hun verhaal op het Business Software Event. Daarnaast zijn er partijen te vinden die de maakindustrie helpen bij bijvoorbeeld integratie in de keten, uitwisseling van order- en factuurberichten, communicatie tussen kantoor en werkvloer, en producten die steeds meer intelligentie bevatten en data uitsturen, ook richting ERP.

Gratis toegankelijk
Het Business Software Event 2017 wordt georganiseerd door onafhankelijk kenniscentrum Mikrocentrum uit Eindhoven. Het event vindt plaats op 28 september a.s. in een nieuwe locatie, Midden Nederland Hallen in Barneveld. Voor eindgebruikers is het event gratis toegankelijk.

Business Software Event
28 september 2017  
Midden Nederland Hallen, Barneveld
09.30 - 17.30 uur

Meer informatie: Business Software Event

]]>
Tue, 04 Jul 2017 16:13:07 +0200 Business Software Event 2017 in teken van maakindustrie http:///item/941389/business-software-event-in-teken-van-maakindustrie.html&field=Foto1&rType=crop&height=165&width=165.jpg
VNSG: softwareleveranciers moeten meebetalen aan boete GDPR http:///item/940465/vnsg-softwareleveranciers-moeten-meebetalen-aan-boete-gdpr.html Van de SAP-gebruikers vindt 86 procent dat softwareleveranciers na invoering van de General Data Protection Regulation moeten meebetalen aan boetes als zij hier direct of indirect debet aan zijn. Dit blijkt uit onderzoek van de Vereniging Nederlandstalige SAP gebruikers, VNSG, onder ruim 100 SAP-gebruikers.

De verantwoordelijkheid van softwareleveranciers voert verder dan meebetalen aan een eventuele boete. Driekwart is van mening dat compliance met de GDPR een gezamenlijke verantwoordelijkheid is van de softwareleverancier en de organisatie. 5 procent vindt dat softwareleveranciers de volledige verantwoordelijkheid dragen, tegenover 20 procent die vindt dat deze verantwoordelijkheid uitsluitend bij de organisatie zelf ligt.

Proactief meedenken
Volgens het bedrijfsleven vervullen softwareleveranciers een belangrijke rol binnen het gehele security-aspect. 53 procent verwacht niet alleen dat de betreffende oplossing goed beveiligd is, maar ook dat de leverancier proactief meedenkt over de securitystrategie van de organisatie. 89 procent ziet het verbeteren van de digitale weerbaarheid ook als een politieke verantwoordelijkheid.

Compliance
Volgens directeur Rob van der Marck van de VNSG is het van belang dat organisaties op het gebied van compliance met de GDPR hun eigen verantwoordelijkheid nemen. “Indien organisaties niet voldoen aan de wetgeving staan hen forse boetes te wachten. Deze kunnen oplopen tot 4 procent van de omzet. Als belangenbehartiger zien we dat de GDPR organisaties bezighoudt. Wij brengen de dialoog op gang tussen de SAP-gebruiker en de softwareleverancier, zodat de verwachtingen op elkaar worden afgestemd. Ook vragen we SAP om samen met ons de SAP-gebruiker zo goed mogelijk voor te bereiden. Door in gesprek te gaan met zowel de gebruiker als de leverancier komen zij dichter bij elkaar te staan. Samen sta je sterker.”

]]>
Mon, 03 Jul 2017 16:25:52 +0200 VNSG: softwareleveranciers moeten meebetalen aan boete GDPR http:///item/940465/vnsg-softwareleveranciers-moeten-meebetalen-aan-boete-gdpr.html&field=Foto1&rType=crop&height=165&width=165.jpg
Capgemini: Nederlanders verdeeld over invloed technologie op veiligheid http:///item/940464/capgemini-nederlanders-verdeeld-over-invloed-technologie-op-veiligheid.html Nederlandse burgers zijn verdeeld over de dilemma’s, uitdagingen en mogelijkheden die de snelle digitalisering van onze maatschappij teweegbrengt voor onze veiligheid, leefbaarheid en privacy. Dit blijkt uit het onderzoek dat Kantar TNS in opdracht van Capgemini heeft uitgevoerd naar openbare orde en veiligheid in een digitale samenleving.

Zo maakt ruim de helft van de burgers (59 procent) zich zorgen over de veiligheid van apparaten die met internet verbonden worden, zoals thermostaten, slimme meters, alarmen en smart TV’s. Daar staat tegenover dat 41 procent van de burgers zich hierover juist weinig of helemaal geen zorgen maakt. Ook over privacy is er geen consensus. Vier op de tien mensen heeft er geen problemen mee dat de overheid privacy-gevoelige maatregelen neemt om onze veiligheid te beschermen, tegenover drie op de tien burgers die zich hierover wel degelijk zorgen maken.

Invloed van technologie
De onderzoeksresultaten zijn onderdeel van het rapport Trends in Veiligheid 2017 waarin actuele trends op het het gebied van openbare orde en veiligheid door experts worden geduid. Het rapport is gisteren aangeboden aan Barbara Visser, voorzitter van de vaste Kamercommissie voor Veiligheid en Justitie van de Tweede Kamer.
Trends in Veiligheid 2017 analyseert de invloed van technologie op organisaties in het veiligheidsdomein, zoals de wijze waarop organisaties samenwerken met burgers, klanten, partners en bestuurders om de veiligheid in de samenleving te vergroten. Dit stelt hoge eisen aan de flexibiliteit en wendbaarheid van organisaties, die echter worstelen met bureaucratische systemen en procedures.

Het rapport geeft voorbeelden van organisaties die wel erin slagen om succesvol samen te werken. Zo werken politie, Openbaar Ministerie, Raad voor de Kinderbescherming, Slachtofferhulp Nederland en de drie reclasseringsorganisaties samen aan de aanpak van veelvoorkomende criminaliteit binnen het programma ZSM (Zo Snel, Slim, Selectief, Simpel, Samen en Samenlevingsgericht Mogelijk) waarin de strafrechtketen als één schakel werkt die snel en slagvaardig recht kan doen aan de positie van het slachtoffer en de berechting van de dader.

Keuzevrijheid centraal
Volgens Erik Hoorweg, vice president bij Capgemini Consulting en verantwoordelijk voor de sector openbare orde en veiligheid, is technologie vaak een drijvende kracht achter de ontwikkeling innovatieve samenwerkingsvormen. “Dit biedt mogelijkheden tot preventief ingrijpen in de publieke ruimte, een betere dienstverlening aan burgers en een efficiëntere inzet van beschikbare medewerkers. Het vraagt echter wel om wendbare organisaties die teruggaan naar de essentie waarvoor ze zijn opgericht. Weg van de bureaucratie, terug naar de leefwereld waarin vertrouwen, kwaliteit, aandacht en keuzevrijheid centraal staan.”

Opvallende uitkomsten uit het rapport
• Maar 7 procent van de ondervraagde burgers vindt dat de Nederlandse overheid en bedrijven voldoende zijn voorbereid op een cyberoorlog. 71 procent vindt het waarschijnlijk dat buitenlandse mogendheden invloed uitoefenen op de Nederlandse overheid.
• Ruim 60 procent van de respondenten vindt het noodzakelijk om de kennis over privacy bij gebruik van apps onder burgers te vergroten.
• Het gebruik van bodycams door de politie wordt door 77 procent van de ondervraagden als positief ervaren. Een ruime meerderheid is ook positief over biometrie in paspoorten (79 procent) en camera’s in de publieke ruimte (74 procent). Over drones heeft het merendeel (nog) geen mening.
    
Meer informatie: onderzoek Trends in Veiligheid 2017

]]>
Mon, 03 Jul 2017 16:20:02 +0200 Capgemini: Nederlanders verdeeld over invloed technologie op veiligheid http:///item/940464/capgemini-nederlanders-verdeeld-over-invloed-technologie-op-veiligheid.html&field=Foto1&rType=crop&height=165&width=165.jpg
What does new GDPR European Union law mean for your business? http:///item/926165/what-does-new-gdpr-european-union-law-mean-for-your-business.html Today’s consumers are more powerful than ever before, and get every bit of information that they can before they make a purchase. The Internet is helping them greatly, and most of the buying is done online. The pace is so rapid that it won’t be long before online purchases are more common than offline ones. What does this mean for businesses? 

You have to unify your marketing and sales channels so that you can understand your consumers better, and can offer them a personalized cross-channel experience. Customer experience is the trick to mastering this. And so, you must come up with ways that allow you to improve and offer a seamless customer experience across all channels, so much so that you outdo your competitors if you want most of the market share. 

Consider the examples of Apple, Amazon, and other giant retailers out there. What are the common elements in their marketing and sales campaign? Following potential leads and consumers over multiple channels and sending them personalized messages. They have advanced analytics systems in place that give them insight, which are then used for delivering a better customer experience than before. 

As of now, current technologies allow businesses to control their clients’ data. But all this is going to change next year when new laws are enforced in the European Union, .referred to as the General Data Protection Regulation (GDPR). A law that gives consumers control over their own data and companies must become aware of these new policies, understand the manner in which they will be affected, and take necessary steps to achieve compliance.

Understanding the New Law

The GDPR law shifts data control in favor of clients, and using that control, they will be able to decide which companies can store and use their personal data. They’ll be able to specify the exact manner in which their data could be used by businesses. 

http://biplatform.nl afbeelding

The GDPR Standards

As a part of becoming compliant, businesses have to meet GDPR standards. 

  • Implement correct data management policies.
  • Understand and know clients’ rights in light of the new law. Accordingly, you should be able to take appropriate action at the request of your client. 

Clients’ Rights 

The GDPR law gives the following rights to all clients.

  • Submit a formal request to access their personal information, which a company has. 
  • Rectify their data and restrict the company from processing it. 
  • Ask a company to completely remove their data. 
  • Withdraw consent for any reason at any time. 
  • Obtain and reuse their data across different platforms for individual purposes. 

Building Trust and Gaining Client Consent are Important 

http://biplatform.nl afbeelding

Organizations should manage their processes efficiently so that they can become compliant. They must understand and mitigate risks, while simultaneously building trust with clients and gaining their consent. This should be a key focus because without client consent, no business is allowed to take any kind of action with personal information for anything other than contractual or legal obligations. When they do get it, they will be able to collect, use, process, and store the data, but only how the clients want them to.

Consequences of Not Complying 

What if businesses decide to ignore all this and not bother with compliance? Data Protection Authorities have several measures to enforce GDPR provisions, ranging from a reprimand to a ban on data processing altogether, and fines up to four percent of the global annual turnover.

And it doesn’t end here; you will lose client trust, and may well end up damaging your reputation. All of this will affect your other potential and new customers as well, and they may decide not to buy from you, meaning you will lose both leads and money. Data breaches for instance cause a permanent 1.8% drop in stock prices due to reputational damage (Oxford Economics and CGI).

So it is absolutely essential to maintain client trust and stay compliant, and this is true irrespective of the industry you operate in. 

The Challenges Involved

Locating Information 

You are compliant to GDPR when you can respond to clients, letting them know what information you have on them. But the problem is that most of you may not even be aware of where you store this data, which may prevent you from responding promptly if clients want their data to be removed. Consider the banking industry for instance, where they usually have files and files of data, dating back to over 10 years ago; the old records wouldn’t even be digital. Thus, you may find it difficult to quickly locate clients’ data.

Managing Data Streams 

Businesses usually have numerous data streams to handle, and when working towards compliance, managing these effectively will be a challenge. Also, since you would need clients’ consent, you may not be able to use any sensitive details in any of your application systems; it all depends on how the clients want you to handle their data. 

What solutions can an organization implement?

Achieving GDPR compliance means that businesses should take several steps at their end. These can be defined as follows at the highest level.

  • Locate and document the processing of personal data, and make it transparent to your consumers. 
  • Ensure that personal data can be accessed, transported, and deleted, so that you can quickly respond to clients’ requests. 
  • Store all personal details in a manner which complies with GDPR.
  • Gain protection from data breaches, and minimize the risks involved. 
  • Monitor and manage data continuously to ensure that GDPR standards are being met. 

Protecting Client’s Data

Protecting clients’ data is crucial if you want to gain their trust. Protection by Design is a recommended approach, because it promotes privacy and compliance through the data lifecycle. The two most common techniques are pseudonymisation and data minimization. 

Pseudonymisation lowers risks by translating data into not-directly personal identifiable information. It remains personal data because you can still combine it with other pieces of data, such as a translation of the pseudonyms. But without this additional information, the data remains anonymous if it would fall into unwanted hands. Data minimization on the other hand is a technique that lowers risks by using only that what is strictly necessary to fulfill the intended purpose. This way datasets remain as small as possible, lowering the chance for unintended use or damage in case of a data breach. When privacy risks are minimized, your clients trust you more and are assured that their data will remain secure throughout the process. 

Implementing the Technical Infrastructure

Your infrastructure should be compliant, controlled, and portable. Collect data only for specific purposes, and give your customers the right to object. The information which you do gather should be stored in a self-controlled environment and subjected to protection regulations. You can also implement a data governance solution to get deeper insight into the entire lifecycle. This will also help you in building a searchable catalogue of all information while developing an access and control point for data related tasks. 

Minimizing the Risks 

  • Review your current processes, and create documentation on personal data your company handles and the methods through which you obtain it. 
  • Bring data protection officers or DPOs on board so that they can help you define personal data and achieve compliance. 
  • Use data stream manager applications to handle all your data streams. Doing so, you will be able to process these streams in real time, allowing you to respond to clients’ requests more quickly.
]]>
Sat, 01 Jul 2017 10:49:41 +0200 What does new GDPR European Union law mean for your business? http:///item/926165/what-does-new-gdpr-european-union-law-mean-for-your-business.html&field=Foto1&rType=crop&height=165&width=165.jpg
Vijf gemeenten zetten data-analyse in tegen georganiseerde criminaliteit http:///item/937982/vijf-gemeenten-zetten-data-analyse-in-tegen-georganiseerde-criminaliteit.html In de aanpak van georganiseerde criminaliteit gaan gemeenten, politie, de Belastingdienst en het Openbaar Ministerie hun krachten bundelen met behulp van data-analyse. Door beschikbare data te combineren en met behulp van moderne technieken deze informatie te analyseren, is het de bedoeling dat meer zicht ontstaat op patronen en structuren van georganiseerde criminaliteit.

Hiertoe is op initiatief van minister Plasterk van Binnenlandse Zaken en Koninkrijksrelaties de ‘City Deal – Zicht op Ondermijning’ ondertekend tijdens een bestuurdersconferentie in Nieuwegein. De City Deal is een samenwerking tussen de gemeenten Amsterdam, Den Haag, Rotterdam, Tilburg en Utrecht, het Centraal Bureau voor de Statistiek (CBS), de Nationale Politie, het OM en de ministeries van Binnenlandse Zaken en Koninkrijksrelaties, Veiligheid en Justitie en Financiën/Belastingdienst. Het komt voort uit het interbestuurlijke programma Agenda Stad. Steden, Rijksoverheid, de Europese Commissie, maatschappelijke partners en het bedrijfsleven werken hiermee samen aan het versterken van groei, leefbaarheid en innovatie in het Nederlandse en Europese stedennetwerk.

Verrijkt met aanvullende data
De integrale aanpak van georganiseerde, ondermijnende criminaliteit waarbij opsporingsdiensten en het OM met het lokaal bestuur gezamenlijk optrekken als één overheid wordt elk jaar intensiever. Met de City Deal verwachten de samenwerkende overheden onderliggende patronen van ondermijnende criminaliteit beter zichtbaar te kunnen maken, omdat ze beter gebruik kunnen maken van verschillende informatiebronnen in combinatie met nieuwe data-analysemethoden. Het gaat dus niet om het opsporen van individuele gevallen, maar het leggen van verbanden. Aan de basis hiervan ligt informatie die al aanwezig is bij het CBS, die vervolgens verrijkt wordt met aanvullende data van overheden en andere betrokken partijen. Dit gebeurt binnen de wettelijke kaders voor privacybescherming.

Regionale problematiek
In de eerdergenoemde vijf gemeenten worden projecten opgestart die aansluiten bij lokale of regionale problematiek. De gekozen thema’s zijn ‘drugscriminaliteit’, ‘integriteit financiële stromen en vastgoedfraude’. De uitkomsten van de data-analyses uit de verschillende projecten zullen worden gebruikt om  te komen tot effectievere (preventie)strategieën en om de aanpak beter te kunnen toespitsen op kwetsbare maatschappelijke sectoren of beleidsterreinen.

Toekomstagenda
Volgens minister Blok die de bestuurdersbijeenkomst opende, is een meer gerichte aanpak aan de hand van meer data en kennis van groot belang om de complexe en taaie problematiek van georganiseerde ondermijnende criminaliteit aan te pakken. Dit past volgens hem ook bij de ambities die de samenwerkende overheidspartijen hebben geformuleerd in de Toekomstagenda Aanpak Ondermijning. Deze Toekomstagenda beschrijft hoe de aanpak van ondermijnende criminaliteit de komende jaren versterkt en verbeterd kan worden en wordt binnenkort naar de Tweede Kamer gestuurd.

Meer informatie: Rijksoverheid

]]>
Fri, 30 Jun 2017 21:33:00 +0200 Vijf gemeenten zetten data-analyse in tegen georganiseerde criminaliteit http:///item/937982/vijf-gemeenten-zetten-data-analyse-in-tegen-georganiseerde-criminaliteit.html&field=Foto1&rType=crop&height=165&width=165.jpg
Machine learning verrijkt Tour de France http:///item/937943/machine-learning-verrijkt-tour-de-france.html Amaury Sport Organisation (A.S.O.), organisator van de Tour de France, en Dimension Data, de officiële technologiepartner van de Tour de France, introduceren machine learning-technologieën bij de Tour de France. Hiermee willen ze wielerfans over de hele wereld een geheel nieuwe Tour-ervaring bieden. De wielerronde begint dit jaar in Düsseldorf op 1 juli en eindigt op 23 juli op de Champs-Élysées in Parijs.

Dit jaar zijn in het data-analyseplatform van Dimension Data, dat is ontwikkeld in samenwerking met A.S.O., machine learning en complexe algoritmes opgenomen. Deze combineren live en historische koersgegevens om nog diepgaandere inzichten te geven in de loop van de koers. Daarnaast bieden  individuele profielen van de renners betere inzichten in de omgeving waarin en de omstandigheden waaronder de renners het best presteren.
Als onderdeel van een nieuwe proef onderzoeken A.S.O. en Dimension Data dit jaar de rol van voorspellende-analysetechnologieën om de waarschijnlijkheid van verschillende koersscenario's te beoordelen, bijvoorbeeld of het peloton ontsnapte renners tijdens bepaalde fases van de koers gaat inhalen.

Scott Gibson, Group Executive - Digital Practice bij Dimension Data: “Naarmate meer technologie wordt ingevoerd in de sport, verandert de kijkervaring en neemt de populariteit ervan toe. Interessant is de manier waarop we A.S.O. helpen om een nieuwe generatie digitaal onderlegde fans aan te trekken. Geavanceerde technologieën, zoals machine learning, bieden nieuwe mogelijkheden om de inzichten te creëren waar deze fans om vragen.”

Tweedeschermbeleving
De kern van de oplossing voor live tracking en data-analyse bestaat uit GPS-transponders die worden bevestigd onder het zadel van elke fiets. De verzamelde data van deze transponders worden gecombineerd met externe data over de routegradiënt en de weersomstandigheden van dat moment. Hiermee zijn inzichten te creëren, zoals de live snelheid en de locatie van individuele renners, de afstand tussen renners en de samenstelling van groepen binnen de koers. Dit jaar creëert en analyseert de oplossing meer dan 3 miljard datapunten tijdens de 21 etappes van de Tour, veel meer dan de 128 miljoen datapunten van vorig jaar.
Christian Prudhomme, directeur van de Tour de France, A.S.O.: “Onze volgers willen dit evenement intensief meebeleven. Ze zijn actiever via social media dan ooit tevoren en willen een live en meeslepende tweedeschermbeleving tijdens de Tour. Technologie stelt ons in staat om een geheel andere ervaring van de wielerronde te creëren.”

Geografische flexibiliteit
De verbeterde Tour de France-oplossing maakt gebruik van een volledig cloudgebaseerd, gevirtualiseerd datacenter dat schaalbaarheid biedt waardoor er minder mensen ter plaatse nodig zijn. De cloud zorgt ook voor geografische flexibiliteit, omdat de oplossing hierdoor overal ter wereld te beheren is. Dit jaar werken de technische teams van Dimension Data samen op vier continenten via hyper connected mobiele samenwerkingshubs die zijn uitgerust met de nieuwste digitale en virtuele werkplektechnologieën.

Enkele hoogtepunten van de Tour de France:
• 198 renners in 22 teams genereren meer dan 150 miljoen geospatiale en omgevingsdatalezingen op de route van 3.540 km.
• De live-tracking website van de Tour de France, racecenter.letour.fr, met in 2016 gemiddeld 2.000 paginaverzoeken per seconde, is dit jaar verbeterd en kan nu 25.000 paginaverzoeken per seconde aan.
• A.S.O. neemt het aantal tv-uitzendingsuren toe van 80 in 2016 tot 105 dit jaar en wordt de wielerronde uitgezonden vanaf de eerste kilometer van elke etappe.
• Cyber security is een topprioriteit voor de Tour de France. Tijdens de koers van 2016 signaleerde het cloudgebaseerde beveiligingssysteem van Dimension Data 1.409.769 verdachte toegangspogingen die werden geblokkeerd.

Meer informatie is te vinden op Dimension Data’s Tour de France-microsite en Dimension Data’s Tour de France-news room.

]]>
Fri, 30 Jun 2017 20:40:15 +0200 Machine learning verrijkt Tour de France http:///item/937943/machine-learning-verrijkt-tour-de-france.html&field=Foto1&rType=crop&height=165&width=165.jpg
Community Data4Media brengt data scientists en engineers bij elkaar http:///item/936830/community-datamedia-brengt-data-scientists-en-engineers-bij-elkaar.html iMMovator, Hogeschool Utrecht en Universiteit Utrecht starten een community rondom Data4Media. De community Data4Media gaat zich richten op de ontwikkeling van kennis en skills op het gebied van data in de media. Zo starten er opleidingen om jong talent op te leiden tot data scientists en data engineers en richt de community zich op het gezamenlijk voorbereiden op de toekomst.
 
De digitale transformatie tekent zich ook af in de creatieve industrie. Om kansen te verzilveren wordt fors geïnvesteerd in een nieuwe community van data scientists en data engineers. Universiteit Utrecht, Hogeschool Utrecht en netwerkorganisatie iMMovator richten gezamenlijk de community Data4Media op en bieden mediagerichte masteropleidingen op universitair en HBO niveau aan. Deze opleidingen moeten voorzien in het grote tekort aan digitaal talent.
 
Invoeren van AI
Het bijzondere aan de nieuwe masters is volgens directeur Ton van Mil van iMMovator dat ze specifiek gericht zijn op de behoefte van de creatieve industrie en media in het bijzonder. “De community richt zich op het identificeren en oplossen van knelpunten die voor de gehele industrie gelden. Zo is duidelijk dat er een toekomstbestendige aanpak moet komen, gebaseerd op privacy by design en het verder invoeren van AI.”
 
Breed gesteund door werkveld
De unieke aanpak borgt de betrokkenheid van de bedrijven. Inmiddels hebben zo’n 25 bedrijven, waaronder Talpa, NTR, VPRO, Endemol, Dasym, BNN-VARA, Transavia, SNS  het belang van een community en opleidingen onderschreven. Hierdoor kunnen toekomstige data scientist en data engineers hun talent inzetten op uitdagende projecten. Vanuit een individueel media bedrijf is het lastig daar continu in te voorzien. Door als industrie de krachten te bundelen moet een levendige community en samenhang in deze talentgroep ontstaan. Voor de kennisinstellingen geeft het goed zicht op de op te pakken fundamentele vraagstukken.

Meer informatie: iMMovator

]]>
Thu, 29 Jun 2017 14:49:34 +0200 Community Data4Media brengt data scientists en engineers bij elkaar http:///item/936830/community-datamedia-brengt-data-scientists-en-engineers-bij-elkaar.html&field=Foto1&rType=crop&height=165&width=165.jpg
Europees bankenconsortium laat IBM blockchainnetwerk voor MKB bouwen http:///item/935933/europees-bankenconsortium-laat-ibm-blockchainnetwerk-voor-mkb-bouwen.html Een consortium van zeven grote Europese banken heeft IBM gekozen om een gezamenlijk blockchainnetwerk te bouwen. Het platform zorgt ervoor dat ondernemers in het MKB hun import- en exportprocessen gemakkelijker, betrouwbaarder en efficiënter kunnen maken. Het Digital Trade Chain consortium verwacht bovendien dat het platform de transparantie van geld- en goederenstromen verhoogt. Het consortium bestaat uit Deutsche Bank, HSBC, KBC, Natixis, Rabobank, Société Générale en Unicredit.

Blockchain is volgens bestuursvoorzitter Wiebe Draijer van Rabobank in essentie goed te gebruiken bij processen en toepassingen waarbij meerdere partijen in een keten samenwerken en veel documenten en contracten uitgewisseld worden. “Dit open platform gaat blockchain daadwerkelijk voor klanten in gebruik brengen.” Om ervoor te zorgen dat het Digital Trade Chain-netwerk er komt en duizenden klanten van de zeven banken kan helpen, heeft het consortium IBM ingeschakeld om te helpen dit systeem in productie te brengen. “IBM verwacht het platform eind dit jaar operationeel te kunnen laten zijn”, aldus Draijer.

IBM Cloud
De Digital Trade Chain toepassing zal bij de meeste banken draaien in de IBM Cloud en is ontworpen om bij een handelstransactie de betrokken partijen met elkaar te verbinden, zowel online als via mobiele apparaten. Ze vereenvoudigt de handelsfinancieringsprocessen door (inter)nationale handelstransacties efficiënt te beheren, op te volgen en te garanderen. Dat biedt volop kansen voor het MKB, waar de kredietverlening doorgaans meer beperkingen heeft dan in andere klantgroepen. Met Digital Trade Chain hebben MKB’ers toegang tot een eenvoudig platform dat een geconsolideerd overzicht van de handelstransacties biedt. Dat bevordert de accountability in transacties, verhoogt de toegang tot kapitaal en helpt risico's te beperken. Zo kan het MKB’ers ondersteunen om handelsrelaties op te starten met nieuwe partners in eigen land of in andere Europese markten.

Sectorprijzen
"We werken met honderden klanten over de hele wereld samen aan heel diverse blockchainprojecten en daaruit is gebleken dat Trade Finance een van de sterkste ‘use cases’ is voor de technologie", zegt Marie Wieck, General Manager, IBM Blockchain. Het Digital Trade Chain-netwerk wordt gebouwd op Hyperledger Fabric v1.0.0, een open source blockchainstructuur en een van de vijf Hyperledger-projecten van de Linux Foundation. Naar verwachting zullen er nog meer banken uit andere landen bijkomen, en ook handelspartners zoals verzenders, expediteurs en kredietverstrekkers.
Het Digital Trade Chain-concept won al twee sectorprijzen: de EFMA-Accenture-award voor 'beste nieuw product of dienst in bankactiviteiten' en de Global Finance-award voor 'vernieuwer in trade finance'.

]]>
Wed, 28 Jun 2017 14:52:19 +0200 Europees bankenconsortium laat IBM blockchainnetwerk voor MKB bouwen http:///item/935933/europees-bankenconsortium-laat-ibm-blockchainnetwerk-voor-mkb-bouwen.html&field=Foto1&rType=crop&height=165&width=165.jpg
InterSystems ESB door ITvisors ingezet bij reserveringsproces van Eurail.com http:///item/935932/intersystems-esb-door-itvisors-ingezet-bij-reserveringsproces-van-eurail-com.html ITvisors breidt haar expertiseportfolio uit met de Enterprise Service Bus van InterSystems. Een van de eerste projecten waar ITvisors het ESB-platform Ensemble heeft ingezet is bij Eurail.com, de organisatie die zich bezig houdt met de online verkoop van Europese treinpassen.

Eurail.com is een gezamenlijk verkoopkanaal van diverse Europese treinmaatschappijen en richt zich op mensen die per trein door geheel Europa willen reizen zonder voor elk traject een afzonderlijk kaartje te moeten kopen. Met de Eurail- of Interrailpas kunnen zij zich binnen 30 Europese landen via het spoor laten vervoeren. De Eurail.com-organisatie in Utrecht richt zich tevens op het maken van treinreserveringen voor haar klanten bij de betrokken Europese spoorwegbedrijven. Dit reserveringsproces verliep tot 2014 via e-mailcorrespondentie met veel handmatige verwerkingsprocessen.

Koppelingen
Een door ITvisors ondersteund onderzoek naar de mogelijkheid om werkprocessen binnen Eurail.com te stroomlijnen, resulteerde in de bouw van een reserveringsportaal in tweeënhalve maand tijd. Daarmee werd de tijdsduur per boeking van gemiddeld een uur teruggebracht tot een kwartier. Om de reizigers nog beter van dienst te kunnen zijn en gelijktijdig de verwerkingsprocessen verder te optimaliseren, heeft Eurail.com aan ITvisors de opdracht gegeven koppelingen tot stand te brengen tussen het eigen IT-systeem met de IT-voorzieningen van de aangesloten spoorwegorganisaties.
Inmiddels is één koppelingsproject voltooid met Trenitalia, de exploitant van treinen in Italië. Een tweede koppeling met een andere spoorwegorganisatie is in de maak. De IT-architecten van ITvisors zijn gecharmeerd van de degelijke InterSystems technologie, waarmee koppelingen tussen verschillende systemen zijn in te richten, inclusief de business rules functionaliteit voor het orkestreren van het berichtenverkeer.

Ideale tool
InterSystems is een ideale tool gebleken om de diversiteit van niet gestandaardiseerde treinreserveringssystemen binnen Europa te ontsluiten. Daarmee kan de technologie een centrale rol vervullen bij de door ITvisors begeleide digitale transformatietrajecten. De bus-architectuur van Intersystems Ensemble zorgt nu voor online integratie met de treinreserveringssystemen van de lokale Europese Treinvervoerders. Dit levert veilige en betrouwbare datastromen op tussen deze systemen en de klanteninteractie self-service portalen.

]]>
Wed, 28 Jun 2017 14:33:48 +0200 InterSystems ESB door ITvisors ingezet bij reserveringsproces van Eurail.com http:///item/935932/intersystems-esb-door-itvisors-ingezet-bij-reserveringsproces-van-eurail-com.html&field=Foto1&rType=crop&height=165&width=165.jpg
Oracle: perceptie van cloudinfrastructuur loopt achter op realiteit http:///item/935931/oracle-perceptie-van-cloudinfrastructuur-loopt-achter-op-realiteit.html Bedrijven omarmen in snel tempo cloudinfrastructuren om zo hun prestatie- en innovatieniveaus te verhogen, blijkt uit een studie van Oracle. Hoewel negatieve percepties rond beveiliging, complexiteit en verlies van controle nog drempels vormen voor adoptie, blijken die in de praktijk gedateerde mythes te zijn. Voor bedrijven die al zijn overgestapt op IaaS, is de praktijk een stuk positiever.

Tweederde van de bedrijven (66 procent) die IaaS al in enige vorm gebruiken, zegt dat dit innovatie vereenvoudigt. Hetzelfde percentage geeft aan dat IaaS heeft gezorgd voor een significante daling van de tijd die nodig is om nieuwe applicaties of diensten in gebruik te nemen. Verder zegt 64 procent dat IaaS voor aanzienlijke verlaging van onderhoudskosten heeft gezorgd. 59 procent denkt dat bedrijven die niet in IaaS investeren, steeds meer moeite zullen hebben om bij te blijven met andere organisaties die er wel in investeren.

Overstap
Het onderzoek laat ook zien dat ervaren gebruikers twee keer zo vaak geloven dat IaaS zorgt voor optimale operationele prestaties in termen van beschikbaarheid, uptime en snelheid, in vergelijking met non-adopters. Hoewel sommigen bang zijn dat de stap naar IaaS complex is, zegt 64 procent van de ervaren IaaS-gebruikers dat de overstap gemakkelijker was dan ze dachten.
De meeste respondenten zijn het erover eens dat IaaS binnen drie jaar een rol gaat spelen binnen hun bedrijf. 44 procent zegt dat de meeste of al hun processen op IaaS zullen draaien. Slechts tien procent verwacht een kleine tot geen rol voor IaaS in de komende drie jaar.

Perceptie
Volgens James Stanbridge, vicepresident IaaS Product Management van Oracle, loopt de perceptie altijd achter op de realiteit als het gaat om cloudadoptie. “De cloud is voor veel bedrijven relatief nieuw en sommige percepties zijn gedateerd en erg hardnekkig. We zien nu nieuwe succes- en tevredenheidsniveaus bij bedrijven die kosten besparen, de complexiteit verminderen en innovatie versnellen dankzij een cloudinfrastructuur. Bedrijven die de overstap nog tegenhouden, zouden hun percepties moeten heroverwegen. Naarmate ze langer wachten, nemen hun concurrenten steeds meer de leiding.”

Over het onderzoek
Oracle werkte samen met Longitude Research en ondervroeg 1.614 IT-professionals in Australië, Duitsland, India, Italië, Maleisië, Saudi-Arabië, Singapore, het Verenigd Koninkrijk en Zuid-Korea. Zij beantwoordden vragen over de status van hun cloudinfrastructuurimplementatie en hoe ze vooruitkijken naar de rol van deze technologie in de toekomst.
Meer informatie is te vinden in het Oracle-rapport ‘You & IaaS: The new generation’.

]]>
Wed, 28 Jun 2017 14:20:50 +0200 Oracle: perceptie van cloudinfrastructuur loopt achter op realiteit http:///item/935931/oracle-perceptie-van-cloudinfrastructuur-loopt-achter-op-realiteit.html&field=Foto1&rType=crop&height=165&width=165.jpg
Pyramid Analytics finalist SIIA CODiE Award voor Best BI Tools & Platforms http:///item/934961/pyramid-analytics-finalist-siia-codie-award-voor-best-bi-tools-en-platforms.html Pyramid Analytics maakt bekend dat BI Office finalist is voor de SIIA CODiE Awards 2017 in de categorie 'Best Business Intelligence Tools & Platforms'. De finalisten vertegenwoordigen de beste producten, technologieën en diensten in software-, informatie- en zakelijke technologie.

Pyramid Analytics legt nadruk op uitgebreide interoperabiliteit en voldoet aan de groeiende behoefte van organisaties aan een sterk gedifferentieerd platform dat flexibele, self-service analytics combineert met gecentraliseerde governance. BI Office onderscheidt zich door implementatiegemak en krachtige mogelijkheden voor gebruikers. Hiermee biedt het de unieke ondersteuning voor zowel gebruikersgedreven als door IT mogelijk gemaakte datamodellen voor private clouds en traditionele servers op locatie.

BI Office
De SIIA CODiE Awards is de belangrijkste prijsuitreiking voor de software- en informatie-industrie die al 30 jaar uitmuntende producten erkent. Er zijn awards in 93 categorieën, gegroepeerd op educatietechnologie en bedrijfstechnologie. BI Office werd gekozen als een van 205 finalisten in de 59 categorieën onder bedrijfstechnologie.
Ken Wasch, President van SIIA, is onder de indruk van het niveau van innovatie en de creativiteit van de producten die dit jaar als finalist van de CODiE Awards geselecteerd zijn. “We zijn trots op deze producten voor de mogelijkheden die ze bieden om de toekomst van het zaken doen te transformeren.”

Signaal
De SIIA CODiE Awards is een door vakgenoten erkende prijsuitreiking in de software-industrie. Bedrijfstechnologieleiders, waaronder senior executives, analisten, media, consultants en beleggers beoordelen toegewezen producten tijdens de eerste beoordelingsronde om de finalisten te bepalen. SIIA-leden stemmen vervolgens op de producten van de finalisten en de scores van beide rondes worden geteld om de winnaars te bepalen. De winnaars worden aangekondigd tijdens de CODiE Award Business Technology Winner Announcement & Celebration, op 25 juli in San Francisco.
“Dat we door onze vakgenoten als finalist zijn gekozen in softwaretechnologie is een signaal dat we blijven innoveren en de industrie leiden met onze Business Intelligence-oplossing,” zegt Omri Kohl, CEO van Pyramid Analytics.

Details over elke finalist zijn hier te lezen.

]]>
Tue, 27 Jun 2017 13:54:23 +0200 Pyramid Analytics finalist SIIA CODiE Award voor Best BI Tools & Platforms http:///item/934961/pyramid-analytics-finalist-siia-codie-award-voor-best-bi-tools-en-platforms.html&field=Foto1&rType=crop&height=165&width=165.jpg
Verbreding dienstenportfolio maakt Finalist totaalpartner IT http:///item/933958/verbreding-dienstenportfolio-maakt-finalist-totaalpartner-it.html IT-leverancier Finalist heeft haar portfolio uitgebreid met Consultancy- en Infrastructuur-diensten. Finalist kiest er bewust voor om haar dienstverlening verder te verbreden zodat opdrachtgevers door één partij ondersteund worden in alle facetten van IT. De toevoeging van de twee diensten versterkt de rol van Finalist als aanbieder van totaaloplossingen in de IT.
 
De nieuwe Consultancy-dienst biedt klanten meer ondersteuning aan het begin van een IT-traject zodat de focus meteen gelegd kan worden op de samenwerking tussen IT-systemen onderling. Zo onderzoekt Finalist de buyer journey bij klanten en wordt er meegedacht over de best passende IT-strategie. Op die manier kan Finalist in samenwerking met de klant nog beter bepalen welke IT-oplossing het beste beantwoordt aan de vraag en behoefte.
Mark de Vos, Directeur Consultancy bij Finalist over deze uitbreiding "Om tot goede oplossingen te komen voor onze klanten zoeken we continu de verbinding tussen business, technologie en design. In combinatie met onze kennis en expertise ondersteunen we zo onze klanten om hun businessdoelstellingen te behalen."
 
Infrastructuur
Met de toevoeging van Infrastructuur-diensten optimaliseert Finalist het werkplekbeheer van organisaties. Hiermee zorgt het bedrijf ervoor dat verschillende oplossingen naadloos samenwerken en hardware en software zorgvuldig op elkaar afgestemd zijn. Dit resulteert uiteindelijk in een optimale gebruikerservaring.
 
Zorgsector
Volgens Unitmanagers Infrastructuur Marc van der Kaa en Chris Stuij bij Finalist draait bij onderwijs- en zorginstellingen alles om het ontzorgen en het delen van kennis. “Dit zijn dan ook belangrijke voorwaarden voor een optimale gebruikerservaring. Door de uitbreiding van ons dienstenportfolio zijn we nu beter in staat om in de behoeften van onze klanten te voorzien."
Finalist richt zich met haar diverse IT-oplossingen voornamelijk op zorg- en onderwijsorganisaties. Zij ontwikkelen en realiseren portals, sociale intranetten, corporate websites, integratie-oplossingen en specifieke maatwerkoplossingen. Denk hierbij aan zorg- en onderwijsspecifieke oplossingen zoals een digitale leer- en werkomgeving en een cliëntenportaal.

]]>
Tue, 27 Jun 2017 00:03:08 +0200 Verbreding dienstenportfolio maakt Finalist totaalpartner IT http:///item/933958/verbreding-dienstenportfolio-maakt-finalist-totaalpartner-it.html&field=Foto1&rType=crop&height=165&width=165.jpg
Red Hat presenteert production-ready open source hyperconverged infrastructuur http:///item/933997/red-hat-presenteert-production-ready-open-source-hyperconverged-infrastructuur.html Red Hat introduceert Red Hat Hyperconverged Infrastructure, een production-ready volledig open source hyperconverged infrastructure (HCI) oplossing. Door innovatieve virtualisatie- en storagetechnologieën te combineren met een stabiel platform wil Red Hat Hyperconverged Infrastructure bedrijven helpen om datacentermogelijkheden te creëren op locaties met beperkte ruimte, zoals nevenvestigingen en andere externe faciliteiten.

Organisaties die over de gehele wereld opereren vanuit verschillende locaties en vestigingen, zoals banken, energie- en retailbedrijven, moeten hun filialen dezelfde infrastructuurdiensten kunnen bieden als vanuit het datacenter. Deze kantoren kampen echter met uitdagingen, zoals beperkte ruimte, minder koelmogelijkheden en minder (of geen) technisch personeel ter plaatse. Organisaties in deze situatie hebben daarom krachtige, schaalbare IT-diensten nodig die geïntegreerd zijn op een enkele server.

Centraal beheer
Red Hat Hyperconverged Infrastructure pakt deze uitdagingen aan door reken- en opslagcapaciteit op een enkele server te integreren. Dit maakt het een geschikte oplossing voor nevenvestigingen en edge computing-scenario’s. Bedrijven kunnen met Red Hat Hyperconverged Infrastructure gedistribueerde infrastructuren centraal beheren, waardoor externe locaties kunnen profiteren van hoogwaardige systemen zonder dat er gespecialiseerde medewerkers ter plaatse nodig zijn.

Production-ready
Red Hat Hyperconverged Infrastructure is naar eigen zeggen de enige production-ready oplossing met een volledig open source-infrastructuurstack, die door een enkele leverancier wordt ontwikkeld, verkocht en ondersteund. De open source- en community-gebaseerde benadering helpt bovendien om vendor lock-in te vermijden. Tegelijkertijd profiteren klanten van een snellere innovatie die uit de open source communities voorkomt. Door een hyperconverged infrastructuuroplossing met software-gedefinieerde componenten te leveren, die allemaal afkomstig zijn van dezelfde leverancier, helpt Red Hat klanten om problemen met het opsporen van fouten en ondersteuning te minimaliseren.

Suite van componenten
Red Hat Hyperconverged Infrastructure gebruikt het veelgebruikte virtualisatieplatform en de software-defined storage van Red Hat voor efficiënter beheer van geïntegreerde computing- en storage-infrastructuren voor een diversiteit aan serverhardware en netwerken. Om dit te bereiken is de Red Hat HCI-oplossing gebouwd met een suite van componenten, die zijn geïntegreerd om een uniforme ervaring te bieden, van installatie tot beheer. Deze componenten zijn:
• Red Hat Virtualization – Het kernel-based Virtual Machine (KVM)-powered enterprise virtualisatieplatform.
• Red Hat Gluster Storage – Schaalbare software-defined storage die op dezelfde hardware als Red Hat Virtualization hosts geïnstalleerd kan worden en daarmee de noodzaak voor andere compute infrastructuren wegneemt en de implementatie vereenvoudigt.
• Red Hat Enterprise Linux – Het enterprise Linux-platform biedt een stabiele en betrouwbare basis.
• Ansible by Red Hat – Implementatie en beheer op basis van een simpel, krachtig en ‘agentloos’ open source IT-automatiseringsraamwerk biedt automatische installatie en configuratie vanuit een centraal punt. 
Red Hat Hyperconverged Infrastructure is per direct beschikbaar.

]]>
Mon, 26 Jun 2017 12:03:54 +0200 Red Hat presenteert production-ready open source hyperconverged infrastructuur http:///item/933997/red-hat-presenteert-production-ready-open-source-hyperconverged-infrastructuur.html&field=Foto1&rType=crop&height=165&width=165.jpg
Ridder Data Systems integreert Qlik Sense in ERP-suite Ridder iQ http:///item/933959/ridder-data-systems-integreert-qlik-sense-in-erp-suite-ridder-iq.html Ridder Data Systems heeft Qlik Sense geïntegreerd in haar ERP-suite Ridder iQ. Door het Qlik-platform te embedden in het ERP-systeem profiteren meer dan 950 klanten in Europa van de voordelen van geavanceerde Business Intelligence en visual analytics vanuit één geïntegreerde omgeving. Ridder Data Systems is ERP-leverancier voor de maakindustrie.

De nieuwe module biedt de maakindustrie tevens de mogelijkheid om ERP-data te combineren met externe databronnen. Hierdoor kunnen zij dagelijks gefundeerde beslissingen nemen om de bedrijfsresultaten te verbeteren. Ridder Data Systems lanceert de nieuwe functionaliteit onder de naam Ridder iQ Analytics powered by Qlik.

Kopen versus bouwen
Ridder Data Systems had al langere tijd de behoefte om diepgaande analysefunctionaliteiten toe te voegen aan haar suite. Dit om klanten nog meer inzicht te geven in de data die in hun ERP-omgeving staat opgeslagen. Voorafgaand aan de keuze voor Qlik heeft Ridder Data Systems twee opties overwogen: zelf de functionaliteit bouwen of een bestaand platform integreren. Uiteindelijk is de tweede optie geselecteerd en heeft Ridder Data Systems voor Qlik gekozen. Enerzijds omdat Qlik Sense naadloos geïntegreerd kon worden in Ridder iQ, anderzijds vanwege de krachtige analyse- en visualisatiefunctionaliteit. Ridder Data Systems heeft voor klanten een aantal standaarddashboards ontwikkeld die zijn toegespitst op de maakindustrie. Daarnaast is er de mogelijkheid voor klanten om zelf nieuwe dashboards te ontwikkelen. De ERP-specialist biedt daarvoor ook diverse klassikale opleidingen.

Sterke analysefunctionaliteiten
De nieuwe functionaliteit wordt dusdanig goed ontvangen dat Ridder Data Systems in de toekomst Qlik Sense ook inzet voor haar zusterbedrijven die vallen onder de Ridder Holding, zoals Ridder Hortimax, Ridder Drive Systems en Ridder Climate Screens.
Kasper van Kekem, Commercieel Directeur bij Ridder Data Systems: “In de ERP-omgeving van onze klanten staat veel waardevolle data opgeslagen. Bedrijven die daar geen inzichten uit kunnen halen, missen kansen. Dat is precies de reden dat wij de sterke analysefunctionaliteiten van Qlik hebben opgenomen in onze eigen software. Daarnaast is het partnership met Qlik een gouden combinatie. Zowel Qlik Sense als Ridder iQ zijn beiden door Gartner aangewezen als leider in het Magic Quadrant. Door deze samenwerking bieden wij onze klanten dus een product van topklasse. Een betere fit konden we niet wensen.”

Verbanden blootleggen
Volgens Sabine Palinckx, Country Manager Benelux bij Qlik laat Ridder Data Systems met deze zet zien dat zij hun klanten willen helpen om het maximale uit hun ERP-omgeving te halen. “Of het nu gaat om klantdata uit finance, CRM, CAD/PDM of machine- en sensordata, met Qlik Sense kunnen bedrijven in de maakindustrie nieuwe verbanden blootleggen en zo tot nieuwe inzichten komen. De echt toegevoegde waarde ontstaat doordat klanten toegang krijgen tot deze functionaliteit vanuit één vertrouwde omgeving zonder externe software en licenties.”

]]>
Mon, 26 Jun 2017 11:52:18 +0200 Ridder Data Systems integreert Qlik Sense in ERP-suite Ridder iQ http:///item/933959/ridder-data-systems-integreert-qlik-sense-in-erp-suite-ridder-iq.html&field=Foto1&rType=crop&height=165&width=165.jpg
Information Builders en Plainwater starten Business Intelligence samenwerking http:///item/933957/information-builders-en-plainwater-starten-business-intelligence-samenwerking.html BI-consultancyorganisatie Plainwater en Information Builders, aanbieder in Business Intelligence, analytics, data-integriteit en integratieoplossingen, starten een samenwerking. Met dit partnership versterken beide bedrijven hun mogelijkheden om effectieve BI-oplossingen op het gebied van integratie, integriteit en intelligentie aan klanten te leveren.

Plainwater is als consultancybedrijf actief op het gebied van BI, datawarehousing en integratie. Het bedrijf ziet in het partnership uitstekende mogelijkheden om BI-oplossingen te voorzien van eerlijke en realistische oplossingen, ongeacht het type datasource van een klant.

Gecombineerde data
Partner Tiemen van der Tuijn bij Plainwater ziet bij steeds meer klanten een groeiende behoefte aan een compleet en betrouwbaar inzicht op basis van gecombineerde data uit alle onderdelen van de organisatie. “Met het Information Builders-platform kunnen we onze klanten snel en gericht helpen. Dat is mogelijk zonder elke keer opnieuw alle onderdelen te hoeven bouwen of het complete systeemlandschap overhoop te halen. Zo stellen we klanten in staat de volgende stap in informatievolwassenheid te zetten. Door de modulaire opbouw van Information Builders kunnen we precies gebruiken wat we nodig hebben om data te visualiseren, te integreren en te beheren. Naast de inhoudelijke voordelen van het Information Builders-platform is van belang dat Plainwater qua instelling en cultuur enorm goed klikt met Information Builders.”

Optimaal profiteren
Volgens Martijn Möllmann, Senior Partner Manager EMEA bij Information Builders verbreedt de toetreding van Plainwater aan het Information Builders Analytics Accelerator-programma de mogelijkheden om oplossingen te leveren aan een scala van nieuwe klanten. “Zij beschikken daarmee over een krachtig kader om optimaal te profiteren van hun informatie-investeringen. Elk bedrijf, ongeacht zijn omvang, moet in staat zijn bestaande data-assets te analyseren, zodat het beter geïnformeerde beslissingen kan nemen. Ons partnerschap stelt de klanten van Plainwater in staat om precies dat te doen, waardoor ze processen kunnen verbeteren en meer zakelijke waarde kunnen leveren.”

]]>
Mon, 26 Jun 2017 11:42:12 +0200 Information Builders en Plainwater starten Business Intelligence samenwerking http:///item/933957/information-builders-en-plainwater-starten-business-intelligence-samenwerking.html&field=Foto1&rType=crop&height=165&width=165.jpg
Centric wint HPE-award voor Hybrid IT Partner of the Year http:///item/930773/centric-wint-hpe-award-voor-hybrid-it-partner-of-the-year.html Centric is door Hewlett Packard Enterprise uitgeroepen tot Hybrid IT Partner of the Year. Centric ontving deze waardering op 20 juni tijdens Reimagine 2017, het HPE-event waar ieder jaar de Business Partner of the Year Awards worden uitgereikt.

HPE heeft Centric benoemd als Hybrid IT-partner op basis van verschillende onafhankelijke criteria en op voorspraak van de medewerkers van HPE. Centric is zeer verheugd met deze benoeming. Paul de Vries, salesmanager bij Centric: "We werken al jaren uitstekend samen met HPE. De award is het resultaat van onze continue investering in de kennis en kunde van onze medewerkers en de goede relatie met de klanten die Centric en HPE gezamenlijk bedienen.”

Platinum-partner
Eerder dit jaar ontving Centric al de status van HPE Platinum Specialist Partner. En in 2016 werd Centric door HPE uitgeroepen tot Transformation Partner of the Year. Hans Hengst, alliance manager bij Centric: “Wij zien de kracht van de cloud en converged infrastructuren en verbeteren daarom continu onze datacenteractiviteiten. Als Platinum-partner blijven we onze klanten de allerhoogste service bieden.”

Hybrid IT
Centric is gespecialiseerd in verschillende cloudoplossingen van HPE. Zo werkt het bedrijf in haar datacenters met de oplossingen van HPE, al dan niet gekoppeld aan cloudomgevingen van andere leveranciers, zoals Microsoft Azure. Op die manier biedt Centric klanten toegang tot hybride cloudoplossingen. “Met een hybride cloudomgeving kunnen onze klanten gefaseerd overgaan naar een private of public cloud, waarbij ook de on-premise omgeving van bedrijven een rol blijven behouden. Zo bieden we hen het beste van twee werelden, samen met partners als HPE”, aldus Paul de Vries.

]]>
Fri, 23 Jun 2017 00:03:00 +0200 Centric wint HPE-award voor Hybrid IT Partner of the Year http:///item/930773/centric-wint-hpe-award-voor-hybrid-it-partner-of-the-year.html&field=Foto1&rType=crop&height=165&width=165.jpg
HAL24K en Tauw winnen prijs Data Challenge 2017 van Rijkswaterstaat http:///item/930624/halk-en-tauw-winnen-prijs-data-challenge-van-rijkswaterstaat.html Data science startup HAL24K en Europees advies- en ingenieursbureau Tauw hebben met hun gezamenlijke inzending de Data Challenge 2017 gewonnen. Deze werd uitgeschreven door Rijkswaterstaat en stond in het teken van Slim Watermanagement.

De prijs bestaat uit 5.000 euro en de mogelijkheid om samen met organiserende partners de ingezonden methode verder uit te werken en door te vertalen naar de praktijk. De challenge is een initiatief van een aantal partners van het programma Slim Watermanagement, waar onder meer Rijkswaterstaat en vier waterschappen in participeren. Deelnemers aan de challenge werden uitgedaagd om een methode te bedenken om zoveel mogelijk maatschappelijk, ecologisch of economisch rendement uit een kuub water te halen. De case betrof het aan- en afvoergebied van het Noordzeekanaal en het Amsterdam-Rijnkanaal. Vanwege het complexe vraagstuk hebben de data science specialisten van HAL24K en waterexperts van Tauw de handen ineengeslagen.

Combinatie van AI en Machine Learning
De winnende oplossing bestaat uit de inzet van zowel Artificial Intelligence als Machine Learning. Met deze moderne methoden op het gebied van data-intelligentie kunnen HAL24K en Tauw het operationeel (flexibel) waterpeilbeheer op grote schaal en met een hoge nauwkeurigheidsgraad vormgeven. Door gebruik te maken van historische data in combinatie met ML en AI, zijn zij in staat waterniveaus te voorspellen en zo te sturen op onder andere energieverbruik en diverse klimaatomstandigheden. De oplossing legt ook een basis voor een optimale verdeling van water tussen de verschillende (peil)gebieden.

Realtime voorspellingen
CEO Jeroen Mol van HAL24K: “We hebben algoritmes ontwikkeld, die kunnen leren van de data uit het verleden. Vervolgens kunnen we op basis daarvan realtime voorspellingen doen. Het is goed om te zien dat zelfs bij watermanagement in Nederland – wat al heel goed gedaan wordt – onze geavanceerde data science een positieve bijdrage kan leveren. Bij ultracomplexe systemen komt ons HAL24K Platform bij uitstek goed tot zijn recht. ”

Totaaloplossing
HAL24K en Tauw onderzochten de waterschade in het beheergebied van Hoogheemraadschap De Stichtse Rijnlanden. Ze gebruikten neerslaggegevens, pompgegevens, streefpeilen en oppervlaktewaterstanden van de afgelopen vijf jaar en bouwden vervolgens de AI- en ML-modellen. De jury was onder de indruk van de totaaloplossing van het vraagstuk en de visualisatie van het model en de onderliggende problematiek.  Het team van HAL24K en Tauw bleek in staat om in een kort tijdsbestek een concreet resultaat te leveren, wat op meerdere beheergebieden toepasbaar is en verder doorontwikkeld kan worden.
Volgens CEO Annemieke Nijhof van Tauw Group: tonen de resultaten de enorme potentie van Machine Learning en Artificial Intelligence. “Ze vormen een uitstekende basis voor legio toepassingen binnen het watermanagement. Hiermee kunnen we beslissingen van beheerders en beleidsmakers beter ondersteunen.”

De Data Challenge 2017 vond plaats in het kader van het programma ‘Slim Watermanagement’ (maatregel in het Deltaprogramma Zoetwater). De organisatie was in handen van Rijkswaterstaat, Waterschap Amstel, Gooi en Vecht, Hoogheemraadschap De Stichtse Rijnlanden, Hoogheemraadschap van Rijnland en Hoogheemraadschap Hollands Noorderkwartier in samenwerking met het Centraal Bureau voor Statistiek (CBS), het KNMI, STOWA, de Unie van Waterschappen en Nelen & Schuurmans.

]]>
Thu, 22 Jun 2017 17:49:54 +0200 HAL24K en Tauw winnen prijs Data Challenge 2017 van Rijkswaterstaat http:///item/930624/halk-en-tauw-winnen-prijs-data-challenge-van-rijkswaterstaat.html&field=Foto1&rType=crop&height=165&width=165.jpg
Onderzoek naar de toekomst van Population Health Management http:///item/917749/onderzoek-naar-de-toekomst-van-population-health-management.html Ziekenhuizen en zorginstellingen gaan steeds bewuster om met patiëntgegevens. Logisch, want het heeft medische én financiële voordelen. Met slimme tools verzamel je op een korte efficiënte manier data, die kan worden gebruikt om klinische resultaten bij te houden. Dit levert weer nieuwe informatie op, bijvoorbeeld over bepaalde bevolkingskenmerken zoals leeftijd, geslacht en etnische achtergrond. En hoe meer informatie je hebt, hoe beter je een behandeling kunt aanpassen op de patiënt.

De Healthcare Information and Management Systems Society (HIMSS) heeft onderzoek gedaan naar dit zogeheten Population Health Management (PHM). In hoeverre maken zorginstanties er nou echt gebruik van en waarom? In dit blogartikel bespreek ik enkele opvallende resultaten uit een survey onder 358 Europese zorg (IT) professionals.

Het gebruik van PHM
Hoewel er in de zorg veel aandacht is voor IT-ontwikkelingen zoals het elektronisch patiëntendossier, zijn zorgprofessionals lang niet altijd op de hoogte van PHM en wat ze ermee kunnen. Er is dus sprake van een kenniskloof tussen softwareleveranciers en potentiële gebruikers. Het is dan ook niet zo gek dat één op de drie zorgprofessionals aangeeft dat er nog geen gebruik wordt gemaakt van PHM binnen hun organisatie. Zorginstanties die wel gebruik maken van PHM leggen de focus op verschillende aspecten, in volgorde van veel naar minder voorkomend:
1. Het managen van chronische ziektes;
2. Preventieve gezondheidszorg;
3. Deelname aan/lid van een klinisch geïntegreerd netwerk;
4. Patiënt centraal zetten in de zorginstelling.

Drijfveren voor het wel of niet gebruiken van PHM
De belangrijkste drijfveren voor het managen van patiëntgegevens zijn het navolgen van de organisatie missie en een betere controle over medische kosten en de zorgkwaliteit en -resultaten. Instanties die nog geen gebruik maken van PHM doen dat vooral omdat ze andere prioriteiten hebben. Een andere redenen om af te zien van PHM is het gebrek aan inzicht in de mogelijkheden en ontbrekende beslissingsbevoegdheid. Hierbij geven de ondervraagden aan dat softwareleveranciers late adoptors’ zouden kunnen overtuigen met een duidelijke waardepropositie en een praktische implementatiestrategie. Zij hebben dus duidelijk behoefte aan een brug over die kenniskloof.

Het gebruik van specialistische PHM oplossingen
Het merendeel van de zorginstanties in dit onderzoek maakt geen gebruik van ingekochte oplossingen voor het structureren van patiëntgegevens. Een reden hiervoor zou het gebrek aan softwareproducten voor PHM kunnen zijn. Organisaties die wel kiezen voor een specialistische oplossing doen dat vooral met het oog op business intelligence, analyses en rapportages. Dit komt overeen met de belangrijkste drijfveer om PHM toe te passen: meer controle over de kosten, kwaliteit en resultaten van zorg. Andere redenen om softwareproducten in te kopen zijn de oplossingen voor zorgmanagement, data warehousing en patiëntbetrokkenheid.

De toekomst van PHM
De mogelijkheden van PHM worden nog lang niet volledig benut. Wat zijn de onderdelen die de meeste mogelijkheden hebben om PHM tot een succes te maken?
• Elektronische patiëntendossiers
• Patiëntenregisters
• Telehealth
• Remote patiëntmonitoring

Eén ding is zeker: de zorg kan niet meer om PHM heen. Zowel zorg-  als IT-professionals zien dat PHM de sleutel is tot succes in de toekomst. Uit het onderzoek kunnen we wel concluderen dat PHM nog in de kinderschoenen staat en dat de hype nog verwerkelijkt moet worden in de dagelijkse zorgpraktijk.

David Majster is Marketing Manager bij InterSystems Benelux.

]]>
Wed, 21 Jun 2017 12:49:43 +0200 Onderzoek naar de toekomst van Population Health Management http:///item/917749/onderzoek-naar-de-toekomst-van-population-health-management.html&field=Foto1&rType=crop&height=165&width=165.jpg
M-Files integreert de kunstmatige intelligentie-techniek van ABBYY voor de verdere ... http:///item/929354/m-files-integreert-de-kunstmatige-intelligentie-techniek-van-abbyy-voor-de-verdere-automatisering-van-het-informatiebeheer.html M-Files Corporation, een leverancier van geavanceerde oplossingen voor informatiebeheer, waarmee organisaties het beheer van documenten en andere informatie sterk kunnen verbeteren, heeft vandaag een partnerschap aangekondigd met ABBYY, een wereldwijde leverancier van technieken voor de intelligente extractie, optische tekenherkenning, innovatieve taalondersteuning en kunstmatige intelligentie.

M-Files integreert de ABBYY-techniek in zijn intelligente informatiebeheersplatform voor de verdere vereenvoudiging en verbetering van de manier waarop informatie kan worden geclassificeerd en georganiseerd. Het resultaat is een meer intelligente en gestroomlijnde informatie-omgeving die zorgt voor een consistente classificatie van informatie met slimme koppelingen naar andere relevante gegevens, inhoud en processen, zodat een totaalbeeld ontstaat van de gestructureerde gegevens en de ongestructureerde inhoud van de verschillende bedrijfssystemen.

Dit wordt mogelijk gemaakt met ABBYY-technologie die gebruik maakt van kunstmatige intelligentie en Natural Language Processing (NLP) om de tekst in context te begrijpen. Op basis van algoritmes die de betekenis van woorden analyseren en hun onderlinge relaties bepalen, kunnen zelfs complexe en ongestructureerde documenten nauwkeurig worden geclassificeerd.

"Ons partnerschap met ABBYY voegt belangrijke technologie voor kunstmatige intelligentie toe aan ons centrale platform voor de verdere verbetering en automatisering van de manier waarop onze klanten informatie en de daaraan gerelateerde processen beheren," zei Mika Javanainen, vice president product management bij M-Files Corporation. "Door de ondersteuning van het automatisch classificeren van bestanden met metadata, accelereert de ABBYY-techniek de op metadata gebaseerde M-Files-architectuur, waardoor gebruikers worden verschoond van repeterende taken en informatie overal in de organisatie gemakkelijker te vinden is."

"In deze snel veranderende wereld gaat het om de juiste informatie bij de juiste persoon op het juiste moment te krijgen. Het merendeel van de belangrijke bedrijfsinformatie is echter niet gestructureerd, waardoor de machinale verwerking en automatisering van informatie wordt belemmerd," zei Sven Diedrich, Director Business Unit Technology Licensing bij ABBYY Europe. "Ons partnerschap met M-Files zal bedrijven helpen bij het beheer van deze waardevolle ongestructureerde informatie. Met behulp van een eenvoudige automatische classificering ter bepaling van de context en de relevantie, worden gegevens snel omgezet in bruikbare informatie."

Over M-Files Corporation
M-Files Enterprise Information Management (EIM) oplossingen elimineren informatie-silo's en geven snel en eenvoudig toegang tot de juiste informatie die is opgeslagen in belangrijke bedrijfssystemen en apparatuur. M-Files bereikt een hogere gebruikersacceptatie en daarmee een hoger rendement, dankzij een unieke, intuïtieve benadering van EIM en Enterprise Content Management (ECM), waarbij informatie wordt beheerd op basis van "wat" het is in plaats van "waar" het is opgeslagen. Met flexibele implementatie-opties: on-premise, cloud of hybride, plaatst M-Files de kracht van EIM in de handen van de gebruiker, waardoor deze minder IT-ondersteuning nodig heeft en zelf naar behoefte informatie kan opvragen en beheren. Het EIM-systeem van M-Files wordt door vele organisaties gebruikt als een platform voor het beheer van hun frontoffice en backoffice activiteiten. Dit verbetert de productiviteit en de kwaliteit, en er wordt voldaan aan industriële regels en standaarden, waaronder voor bedrijven zoals SAS, Elekta en NBC Universal. 

Over ABBYY
Action information - ABBYY is een leverancier van technologieën en oplossingen die bedrijven helpen bij de verwerking van informatie. Het bedrijf zet de standaard voor de vastlegging van content en innovatieve, op taal gebaseerde technologieën voor een integrale oplossing gedurende de levenscyclus van informatie. ABBYY producten worden gebruikt voor het optimaliseren van bedrijfsprocessen, verkleinen van risico's, versnellen van de besluitvorming en het vergroten van de omzet. De technologieën van ABBYY worden in licentie gebruikt door zowel internationale bedrijven als kleine en middelgrote bedrijven en particulieren. 

]]>
Wed, 21 Jun 2017 10:00:27 +0200 M-Files integreert de kunstmatige intelligentie-techniek van ABBYY voor de verdere automatisering van het informatiebeheer http:///item/929354/m-files-integreert-de-kunstmatige-intelligentie-techniek-van-abbyy-voor-de-verdere-automatisering-van-het-informatiebeheer.html&field=Foto1&rType=crop&height=165&width=165.jpg
1 http:///item/929396/gdpr-data-portability-and-data-management.html GDPR brings with it a host of responsibilities and liabilities, some of which can be mitigated using good data management practices. Many companies (what the law calls “controllers”) will be tempted to use manual processes to handle GDPR requests. I’ll talk about those manual processes first, and then discuss why companies might be better served with data management solutions to handle those scenarios.

What follows is in no way comprehensive. Of the many issues raised by GDPR, I’ll focus on three, the first of which will be in this blog post.

This blog post is for people who are already familiar with the GDPR, the EU’s General Data Protection Regulation. If you’re not familiar with it, you’ll want to read up on it soon – it’s fully in force as of May 25, 2018 (now just slightly less than a year away!) and it will affect companies across the globe.

The Right to Data Portability

The regulation “requires controllers to provide personal data to the data subject in a commonly used format and to transfer that data to another controller if the data subject so requests.” (This specific language comes from a very clear and helpful series of blog posts by the International Association of Privacy Professionals.)

Imagine that Jean Valjean tells your company that he wants to receive all of the data that you have about him in a format that can be consumed by another company. (This is true of employees as well as customers, by the way.)

Getting it done manually

To do this manually, a data steward could go into your CRM application, search by name for Jean Valjean – he’s customer number 24601, of course – extract any data that she finds there, and put it into a spreadsheet. So far, so good.

But customer data can reside in dozens of systems, perhaps hundreds – website databases, customer support databases, marketing automation tools, customer forums, and so on. These systems can have different variations of the customer, too, with Jean Valjean appearing with the handle jvaljean in your website and listed as the credit card for Jean J. Valjean in your order processing system.

Many different people will need to go to each of these systems, look for all possible variations of Jean Valjean, and extract the data needed for transfer.

Even then, you’re not done. You need to take all of the necessary data from all of those systems and put them into a format that can be transferred to another company. It seems likely that there will be a suitable Excel or CSV file format that will work – but someone now has to massage all of that data and manually put it into that format. This is error-prone, tedious, miserable work: exactly the kind of thing that’s better done by a computer than a person.

Using data management technology

Master data management (MDM) technology is specifically designed to solve this kind of problem. By defining rules that connect data from different systems together, MDM can provide a single view of every customer or employee (along with any other business entities that might interest you). If a data steward figures out one time that Jean Valjean from the CRM application is jvaljean on Twitter, she can permanently make that connection, making it easy to retrieve all of his information from that point forward.

With an MDM system in place, you can see data about every customer or employee in one place. If they ask you to give this data to them in a spreadsheet, you can verify that the information you have is correct, export to that format, and send it to them. The amount of manual effort is minimized, and so is the number of errors that you might otherwise make.

You may want to store the data in the cloud (i.e., in a data center that’s physically located somewhere other than where you’re conducting business) or on-premises (i.e., in a data center physically located where your company does business), depending on the requirements for keeping the data in specific countries.

Bonus

There are many, many benefits to having a single view of your customers and employees, ranging from improved customer service to better targeted marketing and churn avoidance. The same technology, data, and processes needed to comply with GDPR can help you businesses meet other needs, too – and forward-looking companies will use the data management capabilities they had to put in for GDPR to help them achieve those goals they want to achieve.

Jake Freivald is the Vice President of Product Marketing for Information Builders. In this position, Jake is responsible for strategic and product-level messaging, content creation for digital marketing, and related requirements for press and analyst relations. He graduated from Cornell University with a Bachelor of Science in Electrical Engineering in 1991. 

]]>
Wed, 21 Jun 2017 09:33:09 +0200 1 http:///item/929396/gdpr-data-portability-and-data-management.html&field=Foto1&rType=crop&height=165&width=165.jpg
Eneco Data Challenge gewonnen door Coders Co. met RAX tijdens Data Science Week 2017 http:///item/928872/eneco-data-challenge-gewonnen-door-coders-co-met-rax-tijdens-data-science-week.html Coders Co., het Amsterdamse vooraanstaande data scientists team, heeft op 6 juni 2017 de Eneco Predictive Maintenance Challange gewonnen tijdens de Data Science Week 2017.

Het winnende team van Coders Co, aangevuld met Konrad Banachewicz van TNG Quant Consultancy, programmeerde met zijn RAX-technologie een datamodel om te voorspellen welke straatverlichting stuk gaat. Inclusief visualisatie, aangevuld met automatische planning van de efficiëntste route langs de palen voor de onderhoudsmonteur. Daarmee geeft het model antwoord op vragen van Eneco:

  • Waar moeten we beginnen lampen te vervangen in straatlantaarns?
  • Waar is de komende 2 maanden onderhoud nodig?

Praktische toepasbaarheid en zakelijke relevantie scoren
De jury was onder de indruk van de eenvoud, direct praktische toepasbaarheid en vooral de zakelijke toegevoegde waarde van Coders Co’s datamodel.

“Terwijl de andere teams zich concentreerden op zuiverheid van het model, hebben wij vooral gekeken naar praktische bruikbaarheid en direct toegevoegde waarde.

In plaats van geavanceerde algoritmes te gebruiken, zoals neurale netwerken, hebben we voor simpele lineaire regressie gekozen om de kenmerken van de lampen te vinden die het beste de vervangingsdatum voorspellen. Deze bleken

de levensduur zoals opgegeven door de fabrikant en de geografische locatie. Dit simpele model hebben we ‘verpakt’ in een visualisatie van te vervangen lampen op een kaart. Plus een algoritme dat de postcodegebieden toont met lampen die als eerste aan een onderhoudsbeurt toe zijn.
Verder hebben we een idee voor een routeplanner voor de onderhoudsmonteur gepresenteerd. Deze aanpak is kenmerkend voor onze werkwijze. Wij kraken data met passie, maar niet alleen om het kraken. We streven altijd naar maximaal zakelijk rendement”, vertelt Gosia Wrzesinska, teamlid en CEO van Coders Co.

Twee prijzen in twee maanden
Met de Eneco Challenge wint Coders Co een tweede prijs in twee maanden. In mei won het team al de Gfk Insights Challenge tijdens de WHAT datathon. Daar heeft het team binnen 16 uur het winkelgedrag (customer journeys) over verschillende online shops uit duizenden clickstreams wederom met RAX vertaald naar een interactief dashboard.

]]>
Tue, 20 Jun 2017 19:33:21 +0200 Eneco Data Challenge gewonnen door Coders Co. met RAX tijdens Data Science Week 2017 http:///item/928872/eneco-data-challenge-gewonnen-door-coders-co-met-rax-tijdens-data-science-week.html&field=Foto1&rType=crop&height=165&width=165.jpg
Using Data Quality as a Service to Create the 'Golden Record' http:///item/917750/using-data-quality-as-a-service-to-create-the-golden-record.html In the first of our 3-part 'Golden Record' series, we will focus on email validation, to help you ensure you're really reaching your audience.

'Golden Records' are the Gold Standard of Customer Information
One of our clients refers to accurate customer information as 'Golden Records' and for good reason. Did you know that most expert sources say that it costs an average of five times more to win a customer then to retain one? Given that statistic, and with costs continually rising, it can save a business a lot of money if they retain more customers.

To do this, communicating and interacting with your customers on a timely basis is the key to the success, and to the effectiveness of marketing campaigns. The bottom line is that organizations need to validate the accuracy of all key customer information – including email, phone, IP and physical addresses to ensure they connect with customers regularly, to reduce churn, improve service and heighten the customer experience.

Trillium announced a solution to meet all of these essential customer information validation requirements, Trillium Precise. It leverages world-wide postal and geocoding for data cleansing and enrichment of customer contact information to ensure the accuracy of customer records. Let’s look at each critical area of customer information, starting with email.

Email Validation is the First Step to Creating 'Golden Records'
All of Trillium Precise services are Data-as-a-Service (DaaS) solutions, which can be delivered on-premise or in the Cloud. The email validation service not only allows organizations to avoid the time and effort of emailing to inactive or incorrect individuals, they can also increase the effectiveness of marketing and customer contact management systems.

Look around, whether you are at the store, at a restaurant, or at the gym, you can’t help but notice that everyone is on their mobile phone and people are constantly checking their email. Did you know over two billion people throughout the world use email and the number keeps growing?

Business reliance upon email contact can be taken for granted, but can you rely on email addresses alone to get the right message to the right person at the right time? Unfortunately not!

An email address alone does not provide much information. Is the email valid? What more can we discover about an individual that would help us ensure we deliver the right message? By utilizing Trillium Precise, you can verify the emails your company owns are accurate and contactable, anywhere in the world, and get better insights about your customers.

Does your organization want to know if the email on record matches to the registered name on file? Of course! Trillium Precise can provide that information as well. Companies need to be able to rely on their data and be able to email their customers with confidence. Your organization would not want to market the wrong product or offer to an incorrect or inappropriate individual or business.

Email Personalization is Possible with Name Matching
In addition, you probably at some point have received a personalized email that states your name. These messages are more likely to grab your attention and make you feel more important than receiving a generic email. There is something special about getting an email that not only has your name but is relevant to you. With Trillium Precise, you can utilize our name match feature within your emails to provide that personal touch.

Again, it’s vital to organizations to keep contact data clean and trustworthy, including email addresses. Trillium Precise not only can indicate if an email address is active, but also checks the validity of the email. In addition, by utilizing Trillium Precise, your core customer and sales contact information will be supported by Trillium’s leading data quality technology – that’s how you create a 'Golden Record'!

Jo-Anne Zullo is Product Manager for Enrichment at Trillium Software, a Syncsort Company.

Trillium Software wordt in Nederland vertegenwoordigd en gedistribueerd door IntoDQ.

]]>
Mon, 19 Jun 2017 12:48:51 +0200 Using Data Quality as a Service to Create the 'Golden Record' http:///item/917750/using-data-quality-as-a-service-to-create-the-golden-record.html&field=Foto1&rType=crop&height=165&width=165.jpg
IoT en predictive intelligence in de praktijk - KLM en Marktplaats http:///item/927057/iot-en-predictive-intelligence-in-de-praktijk-klm-en-marktplaats.html Met ontwikkelingen in data science, AI, big data en IoT, onstaan er nieuwe manieren waarop data ingezet kan worden om bedrijfsprestaties op verschillende fronten te verbeteren. Zo kunnen klanten beter bediend worden op basis van hun online gedrag en interesses, maar ook de efficientie van bedrijfsprocessen aangepakt worden. Tijdens Emerce Tech Live! werden succesverhalen gedeeld over te toepassing van deze veelbelovende technologieën.

KLM legt steeds meer de nadruk op ‘artificial intelligence’

Zo sprak Rogier van Beugen, Director Innovation & Venturing bij KLM over hoe zij IoT en het generen van data toepassen om de diversiteit aan processen in kaart te brengen en deze te gebruiken. Een voorbeeld is de KLM app, die aan de hand van de locatie en geschatte bestemming van de consument het mogelijk maakt met de klant te communiceren en een eventuele aanbevelingen te doen. Mocht er bijvoorbeeld een file op de weg zijn naar het vliegveld, dan kan KLM de consument hiervan op de hoogte stellen en eventueel adviseren om een ander vervoersmiddel te kiezen zodat de vlucht gehaald kan worden.

Diversiteit aan relevante en waardevolle databronnen
Naast de app gebruikt KLM sensoren om data te vergaren van onder andere de vliegtuigen, de apparatuur op Schiphol, en het vrachttransport om zowel intern als extern transparantie te creëren. Zo helpen sensoren en trackers de locatie van koffers bij te houden en kan er gegarandeerd worden dat er veilig wordt omgegaan met de bagage. Hetzelfde geldt voor het vrachtvervoer, waar bijvoorbeeld de temperatuur van een pakket kan worden bijgehouden en de kwaliteit van de desbetreffende producten kunnen worden geoptimaliseerd.

Verder gebruikt KLM intern ook sensoren op apparatuur op Schiphol, zoals op de gemotoriseerde voertuigen om zo de meest efficiënte routes en manier van werken voor werknemers te bepalen en onderhoud van de voertuigen efficiënter te kunnen aansturen. Het onderhoud van de vliegtuigmotoren kan met vergelijkbare sensoren nauwkeuriger voorspeld worden. Deze sensoren genereren al bijna 2,5 miljard TB aan data in één jaar, voor alleen landelijke vluchten in de Verenigde Staten. Deze enorme hoeveelheid data kan voor veel meer doeleinden gebruikt worden, zoals het bepalen van betere methodes voor opstijgen en vliegsnelheden.

http://biplatform.nl afbeelding

“We need to let data drive our decisions”
Met de instelling hun beslissingen meer te laten leiden door data-inzichten, probeert KLM steeds meer data te gebruiken bij haar besluitvorming. Het grootste probleem zit tot nu toe in het beheer van deze enorme hoeveelheid data. De grootste uitdagingen zijn voornamelijk de architectuur en de verschillende front-ends. Om dit te realiseren worden de dagelijkse hoeveelheid data en de bijhorende analyses gedaan en bijgehouden door een big data-team van 30 man sterk en wordt er samengewerkt met verschillende universiteiten om deze afdeling naar een nog hoger niveau te tillen.

De comeback van Marktplaats door predictive intelligence en employee empowerment

Met 350.000 nieuwe advertenties die dagelijks geplaatst worden, is Marktplaats het grootste handelsplatform van Nederland. Sinds de oprichting van het platform 18 jaar geleden is er veel veranderd in de wereld van e-commerce. Zo wordt tegenwoordig 80% van alle bezoeken op Marktplaats gedaan vanaf een smartphone of tablet. Toch heeft Marktplaats in haar 18-jarig bestaan zelf weinig geïnnoveerd, tot op heden. Marktplaats heeft sinds kort namelijk een nieuw groot doel voor ogen:

Artikelen (ver)kopen binnen 5 minuten, mét een glimlach.

Jeroen Jonker Roelants, Head of Product bij Marktplaats, vertelde tijdens Emerce Tech Live! over de eerste gemaakte stappen.

Autonome teams op basis van de customer journey
Dit ambitieuze doel, intern het Big Hairy Audacious Goal genoemd, heeft voor grote veranderingen gezorgd binnen Marktplaats. Jeroen Jonker Roelants, Head of Product bij Marktplaats, gaf namelijk toe dat het bedrijf zich te weinig op de consument richtte. “De medewerkers van Marktplaats waren erg naar binnen gericht. We waren meer met onze eigen organisatie bezig dan met ons product en onze klanten.” Dit kwam voort uit de organisatiestructuur van Marktplaats, waar voornamelijk in silos werd gewerkt en afdelingen elkaar vaker in de weg zaten dan elkaar ondersteunden. Sinds 1 januari 2016 werden daarom nieuwe, volledig autonome teams opgedeeld volgens de customer journey van de klant op Marktplaats.nl. Binnen deze teams zitten medewerkers van alle verschillende traditionele afdelingen, van business development en marketing tot customer service. Als gevolg hiervan kregen de customer journey teams een veel beter inzicht in de behoeften van hun klanten. Dit heeft onder andere geleid tot de nieuwe chatfunctie tussen kopers en verkopers, waarvan de adoptie al 80% is en de tijd tussen kopen en verkopen met uren omlaag is gegaan.

Predictive intelligence voor een gepersonaliseerde ervaring
Daarnaast werd over de verschillende customer journey teams een predictive intelligence team geplaatst. Marktplaats wilde namelijk afstappen van het ‘one size fits all’ model en elke bezoeker een gepersonaliseerde ervaring kunnen geven door het gebruik van de grote hoeveelheid data die het bedrijf in de loop der jaren verzameld had. Dit predictive intelligence team, bestaande uit onder andere data scientists en data engineers, kreeg de opdracht uit deze data waardevolle bevindingen te halen en nieuwe data actief in te zetten om een betere service te kunnen bieden. Zo krijgen gebruikers van de Marktplaats app tegenwoordig steeds relevantere productsuggesties door het intelligenter gebruik van hun gebruikersdata. Als gevolg van deze verbeteringen keren gebruikers vaker terug naar Marktplaats en stijgt het aantal leads en transacties. Bovendien draagt het dataonderzoek van het predictive intelligence team bij aan de verdere kennisvergaring van de customer journey teams.

Het verhaal van Marktplaats laat zien dat zelfs de grootste spelers op het gebied van naamsbekendheid en aantal klanten niet achter kunnen blijven en dat het gebruik van data zeer waardevol is voor zowel de klant als het bedrijf. Echter, om dit mogelijk te maken moeten de mensen binnen de organisatie er open voor staan, wat in sommige gevallen vraagt om een nieuwe manier van werken. Door de volledige interne herstructurering en de adoptie van predictive intelligenceis Marktplaats al goed op weg, maar voor het bereiken van haar doel er is nog veel werk aan de winkel.

]]>
Mon, 19 Jun 2017 05:12:15 +0200 IoT en predictive intelligence in de praktijk - KLM en Marktplaats http:///item/927057/iot-en-predictive-intelligence-in-de-praktijk-klm-en-marktplaats.html&field=Foto1&rType=crop&height=165&width=165.jpg
How to Start Incorporating Machine Learning in Enterprises http:///item/926163/how-to-start-incorporating-machine-learning-in-enterprises.html The world is long past the Industrial Revolution, and now we are experiencing an era of Digital Revolution. Machine Learning, Artificial Intelligence, and Big Data Analysis are the reality of today’s world.

I recently had a chance to talk to Ciaran Dynes, Senior Vice President of Products at Talend and Justin Mullen, Managing Director at Datalytyx. Talend is a software integration vendor that provides Big Data solutions to enterprises, and Datalytyx is a leading provider of big data engineering, data analytics, and cloud solutions, enabling faster, more effective, and more profitable decision-making throughout an enterprise.

The Evolution of Big Data Operations

To understand more about the evolution of big data operations, I asked Justin Mullen about the challenges his company faced five years ago and why they were looking for modern integration platforms. He responded with, “We faced similar challenges to what our customers were facing. Before Big Data analytics, it was what I call ‘Difficult Data analytics.’ There was a lot of manual aggregation and crunching of data from largely on premise systems. And then the biggest challenge that we probably faced was centralizing and trusting the data before applying the different analytical algorithms available to analyze the raw data and visualize the results in meaningful ways for the business to understand.”

http://biplatform.nl afbeelding

He further added that, “Our clients not only wanted this analysis once, but they wanted continuous refreshes of updates on KPI performance across months and years. With manual data engineering practices, it was very difficult for us to meet the requirements of our clients, and that is when we decided we needed a robust and trustworthy data management platform that solves these challenges.”

The Automation and Data Science 

Most of the economists and social scientists are concerned about the automation that is taking over the manufacturing and commercial processes. If the digitalization and automation continues to grow at the same pace it is currently happening, there is a high probability of machines partly replacing humans in the workforce. We are seeing some examples of the phenomena in our world today, but it is predicted to be far more prominent in the future.

However, Dynes says, “Data scientists are providing solutions to intricate and complex problems confronted by various sectors today. They are utilizing useful information from data analysis to understand and fix things. Data science is an input and the output is yielded in the form of automation. Machines automate, but humans provide the necessary input to get the desired output.”

This creates a balance in the demand for human and machine services. Both, automation and data science go parallel. One process is incomplete without the other. Raw data is worth nothing if it cannot be manipulated to produce meaningful results and similarly, machine learning cannot happen without sufficient and relevant data.

Start Incorporating Big Data and Machine Learning Solutions into Business Models

Dynes says, “Enterprises are realizing the importance of data, and are incorporating Big Data and Machine Learning solutions into their business models.” He further adds that, “We see automation happening all around us. It is evident in the ecommerce and manufacturing sectors, and has vast applications in the mobile banking and finance.”

http://biplatform.nl afbeelding

When I asked him about his opinion regarding the transformation in the demand of machine learning processes and platforms, he added that, “The demand has always been there. Data analysis was equally useful five years ago as it is now. The only difference is that five years ago there was entrepreneurial monopoly and data was stored secretively. Whoever had the data, had the power, and there were only a few prominent market players who had the access to data.”

Justin has worked with different companies. Some of his most prominent clients were Calor Gas, Jaeger and Wejo. When talking about the challenges those companies faced before implementing advanced analytics or machine learning he said, “The biggest challenges most of my clients face was the accumulation of the essential data at one place so that the complex algorithms can be run simultaneously but the results can be viewed in one place for better analysis. The data plumbing and data pipelines were critical to enable data insights to become continuous rather than one-off.”

The Reasons for Rapid Digitalization 

Dynes says, “We are experiencing rapid digitalization because of two major reasons. The technology has evolved at an exponential rate in the last couple of years and secondly, organization culture has evolved massively.” He adds, “With the advent of open source technologies and cloud platforms, data is now more accessible. More people have now access to information, and they are using this information to their benefits.”

In addition to the advancements and developments in the technology, “the new generation entering the workforce is also tech dependent. They rely heavily on the technology for their everyday mundane tasks. They are more open to transparent communication. Therefore, it is easier to gather data from this generation, because they are ready to talk about their opinions and preferences. They are ready to ask and answer impossible questions,” says Dynes. 

Integrating a New World with the Old World

When talking about the challenges that companies face while opting for Big Data analytics solutions Mullen adds, “The challenges currently faced by industry while employing machine learning are twofold. The first challenge they face is related to data collection, data ingestion, data curation (quality) and then data aggregation. The second challenge is to combat the lack of human skills in data-engineering, advanced analytics, and machine learning”

Dynes says, “You need to integrate a new world with the old world. The old world relied heavily on data collection while the new world focuses mainly on the data solutions. There are limited solutions in the industry today that deliver on both these requirements at once right now.”

http://biplatform.nl afbeelding

He concludes by saying that, “The importance of data engineering cannot be neglected, and machine learning is like Pandora’s Box. Its applications are widely seen in many sectors, and once you establish yourself as a quality provider, businesses will come to you for your services. Which is a good thing.”

]]>
Sun, 18 Jun 2017 05:23:18 +0200 How to Start Incorporating Machine Learning in Enterprises http:///item/926163/how-to-start-incorporating-machine-learning-in-enterprises.html&field=Foto1&rType=crop&height=165&width=165.jpg
Securing Data with Transparent Data Encryption http:///item/917831/securing-data-with-transparent-data-encryption.html Securing sensitive data is a critical concern for organizations of all types and sizes. Credit card numbers, medical and health records, and other personal information must be stored and secured in such a way that only authorized personnel is able to access the information. In this blog post you will get an overview of the possibilities, availability, pros and cons, and evolution of Transparent Data Encryption (TDE). I hope this answers (most of) your questions.

What is TDE?
Transparent Data Encryption (TDE) protects your data at rest by performing real-time I/O encryption and decryption of SQL Server database data and log files. One of the biggest benefits of TDE is that the SQL Server engine handles all of the encryption and decryption work.

TDE uses the AES and 3DES encryption algorithms, and the encryption and decryption operations run on background threads by SQL Server. No application changes are required to take advantage of TDE. Backups of databases protected by TDE are also encrypted.

TDE does not prevent admins from seeing data. To protect data from users who access the database, you need cell-level encryption. TDE will also not protect you against SQL injection attacks. TDE encrypts the data stored on disk at the page and log level. The data that’s sent across the wire to the client connections isn’t encrypted. If you want to encrypt the link between SQL Server and the client systems, then you need to use Secure Sockets Layer (SSL). Another way to encrypt data at all levels (also in memory and on your network is by using the “Always Encrypted” starting from SQLServer 2016 (Column level).

Is there a difference with using BitLocker?
BitLocker Drive Encryption is a data protection feature available in Windows Server 2008 R2 and in some editions of Windows 7. Having BitLocker integrated with the operating system, addresses the threats of data theft or exposure from lost, stolen, or inappropriately decommissioned computers. BitLocker helps mitigate unauthorized data access by enhancing file and system protections.

Differences
• If you use TDE, backups will also be encrypted, as will any copy you restore to test/QA/dev. This means that you will need to make sure that the encryption key is available on the environment you restore the database.
• Bit locker encrypts everything (on the volume), TDE only encrypts the database files that you select. If you are encrypting and decrypting less stuff, it should be faster. It also gives more flexibility to only encrypt 1 or 2 of the most important databases on a server while sharing the same volume(s) with other DB’s.
• BitLocker doesn’t fully satisfy the Payment Card Industry Data Security Standard (PCI DSS) requirement (specifically, 3.4 and 3.5.2) for data encryption at rest, TDE does fulfill that requirement.

TDE availibility
TDE is available in the following versions/editions
• SQL Server 2008/2008R2 (Datacenter and Enterprise Edition)
• SQL Server 2012 (Enterprise Edition)
• SQL Server 2014 (Enterprise Edition)
• SQL Server 2016 (Enterprise Edition)

How to set up TDE up?
“Traditional” Encryption Key Hierarchy
1. Create a master key using the CREATE MASTER KEY T-SQL statement.
2. Create a certificate using the CREATE CERTIFICATE command.
3. Use the CREATE DATABASE ENCRYPTION KEY statement to encrypt the Database Encryption Key (DEK).
4. Use the ALTERDATABASE SET ENCRYPTION ON statement to actually encrypt the user database with the DEK. As soon as you use TDE for a user database, TempDB is automatically encrypted as well.

Extensible Key Management (EKM) with “Azure Key Vault” (AKV)
Note: EKM is only available on Enterprise Edition!
1. Create an Azure Key Vault (AKV + AAD application)
All detailed steps can be found here.
In short the list is:
a. Install Azure Powershell.
b. Create an Azure Active Directory (AAD).
c. Register an application with this ADD, this gives you a Service Principal account (spName) that has access to your Key Vault. A sample application is available from the Microsoft Download Center. After the application is added you can find the ClientId on the Configure Tab.
d. Create the Key Vault: Use the New-AzureRmKeyVault cmdlet to create a key vault. This cmdlet has three mandatory parameters: a resource group name, a key vault name, and the geographic.
e. Add a key or secret to the key vault.

2. Configure AKV Integration (Mostly Powershell)
a. Install the SQL Server IaaS Extension on your Azure VM, which can be done by Powershell, should be visible in the Administration of your VM > Extensions.
b. Create an asymmetric key (the DMK) and store it in the hardware portion of the key vault.
c. Install a small piece of connector software on each SQL server, allowing it to interface with the AKK. Download this.
d. Run SQL scripts on each SQL instance to create a cryptographic provider, create credentials, and connect to the AKV.
e. Run some SQL scripts on each database to create DEKs and enable TDE.

3. AKV Pricing
Azure Key Vault, like most cloud applications has a fee to use this service. Both storage and operation which have their specific price.

A graphical overview of the difference between both:

Kohera1.png


Is there a performance impact?
Yes, some performance overhead is involved in using TDE. The encryption and decryption process do require additional CPU cycles. The overhead for using TDE ranges from about 3 percent to 10 percent, depending on the type of workload. SQL Server instances with low I/O and low CPU usage will have the least performance impact. Servers with high CPU usage will have the most performance impact.

Can I do backup compression on TDE databases?
Before SQL Server 2016, you had to choose between TDE or backup compression (although the option is available, and you can put it on, it’s not really compressed when using TDE). Since SQL Server 2016 you can have both!

Egon Vandenrijdt is Senior SQL Developer bij Kohera in de Azure Architecture and Data Technology Group.


]]>
Fri, 16 Jun 2017 13:09:49 +0200 Securing Data with Transparent Data Encryption http:///item/917831/securing-data-with-transparent-data-encryption.html&field=Foto1&rType=crop&height=165&width=165.jpg
QNH lanceert GDPR Scan http:///item/924939/qnh-lanceert-gdpr-scan.html Alle organisaties binnen de Europese Unie moeten ervoor zorgen dat ze in mei 2018 voldoen aan de General Data Protection Regulation (GDPR). De eisen binnen de nieuwe wetgeving hebben onder andere een grote impact op IT-systemen, dataopslag en de manier waarop medewerkers met data omgaan. Omdat de GDPR aandacht vereist van álle bedrijfsonderdelen, heeft IT-dienstverlener en -kennispartner QNH Consulting een GDPR Scan ontwikkeld.

Middels de GDPR Scan wordt een inventarisatie van de huidige situatie gemaakt, onder meer door het verzamelen en analyseren van documenten en het doen van interviews met onder andere IT-, HR- en lijnmanagers. Indien nodig vinden er ook diepte-interviews plaats met specialisten die inhoudelijke kennis bezitten, zoals juristen en recruiters. De analyse gaat in op thema’s als toestemming tot data-opslag, ‘right to be forgotten’, toegang tot eigen data, registratieplicht en ‘privacy by design’. De uitkomst van de GDPR Scan laat zien waar de organisatie reeds compliant is en waar niet. Hiermee wordt het voor organisaties makkelijker de nog uit te voeren stappen voor mei 2018 te bepalen.

]]>
Fri, 16 Jun 2017 10:06:36 +0200 QNH lanceert GDPR Scan http:///item/924939/qnh-lanceert-gdpr-scan.html&field=Foto1&rType=crop&height=165&width=165.jpg
Notilyze introduceert Data Science as a Service met SAS cloud-platform http:///item/924530/notilyze-introduceert-data-science-as-a-service-met-sas-cloud-platform.html Startup Notilyze is een samenwerking aangegaan met SAS voor het leveren van data science-diensten via het cloud-plaform SAS Viya. Met een managed analytical services-model waarin analytics-software en het leveren van resultaten op pay-as-you-go of abonnementsbasis kan worden afgenomen, bieden SAS en Notilyze een laagdrempelige en schaalbare manier om tot waardevolle inzichten te komen. Zo kunnen ondernemers inspelen op de kansen die de data-economie en het Internet of Things bieden, zonder dat zij zelf een data scientist in dienst hoeven te nemen.  

“Vooral middelgrote bedrijven zien kansen met hun data, maar weten niet waar ze moeten beginnen en hebben de kennis en middelen niet in huis. Ook zijn de kosten om dit wel te realiseren relatief hoog”, zegt Colin Nugteren, CEO en oprichter van Notilyze. “Samen met SAS bieden we deze organisaties een state-of-the-art platform in een betrouwbare cloud-omgeving waar hun data wordt geanalyseerd. De klant geeft aan welke vragen er zijn, wij selecteren de juiste data en voeren vervolgens de analyses uit om tot antwoorden te komen. Klanten kunnen de uitkomsten raadplegen via dashboards en real-time webservices, zodat deze altijd en overal toegankelijk zijn.”

Ervaren data scientists
Met de nieuwe propositie spelen SAS en Notilyze in op de stijgende behoefte aan full-service analytics. Organisaties hoeven niet langer tijd en energie te steken in de implementatie en het beheer van een software-omgeving. Ook is het niet noodzakelijk een data scientist te werven. Notilyze biedt een krachtig analytics-platform en de nieuwste technologie op bijvoorbeeld het gebied van machine learning.

Doordat Notilyze alleen werkt met ervaren data scientists kunnen klanten niet alleen rekenen
op antwoorden op hun vragen, maar profiteren zij ook van andere innovatieve inzichten en algoritmes. Het analytics-platform van Notilyze is gebaseerd op SAS Viya, een schaalbare en open cloud-omgeving waarin alle stappen van het analytische proces zijn geïntegreerd. Bovendien komt het tegemoet aan de eisen voor dataprivacy die door de GDPR aan organisaties worden gesteld.

“Met Notilyze verlagen we de drempel voor ondernemers om aan de slag te gaan met analytics”, zegt Frank van der Woude, Managing Director van SAS Nederland. “Het is zonde om je data niet te benutten simpelweg omdat je de expertise niet in huis hebt. Door deze dienst bovendien op abonnementsbasis aan te bieden kunnen ondernemers gedurende het proces bepalen of deze werkwijze voldoende toegevoegde waarde heeft, zonder dat zij vooraf een grote investering hoeven te doen.”

]]>
Fri, 16 Jun 2017 05:21:39 +0200 Notilyze introduceert Data Science as a Service met SAS cloud-platform http:///item/924530/notilyze-introduceert-data-science-as-a-service-met-sas-cloud-platform.html&field=Foto1&rType=crop&height=165&width=165.jpg
Data Science is een bestaande discipline in nieuw jasje http:///item/923335/data-science-is-een-bestaande-discipline-in-nieuw-jasje.html Meer dan de helft van de developers vindt dat Data Science een bestaande discipline is, maar in een nieuw jasje gestoken. Dit blijkt uit onderzoek van recruitmentbureau Huxley IT. In dit onderzoek hebben 102 developers antwoord gegeven op de stelling ‘Data Science is niets nieuws, maar wordt op een nieuwe manier gepresenteerd’. 53 procent geeft aan het eens te zijn met deze stelling, waarvan 9 procent aangeeft het hier zelfs sterk mee eens te zijn. Een kwart van de developers geeft daarentegen aan dat Data Science wel degelijk een nieuwe discipline is.

Data Science is een trend in IT

Verder blijkt uit het onderzoek onder developers dat we van Data Science nog veel gaan horen. Zo geeft 78 procent van de developers aan dat Data Science blijvend is in de IT. Slechts twee procent van de developers ziet Data Science als hype in plaats van een trend.

Op de vraag welke IT-trend het meest relevant is voor de carrière van developers, kwam Big Data met 36 procent naar voren als de nummer 1. Op de tweede plek staat Cloud (26%). Ondanks alle ontwikkelingen rondom Security en Internet of Things (IoT), blijkt dat deze IT-trends als minder relevant worden beschouwd. Beide trends worden slechts door 10 procent van de developers als meest relevant aangemerkt. Robotisation krijgt van 6 procent van de developers deze erkenning.

Joël Bennett, Manager Huxley IT, geeft zijn visie op de resultaten: “Data Science is een relatief nieuwe term, maar het analyseren van data doen we al jaren. Het lijkt er echter op dat met de intrede van de term Data Science de industrie pas echt op zijn kop is gezet. Door de inzet van Data Science kunnen bedrijven bedrijfsprocessen slimmer aanpakken en veel kosten besparen. Data Science zal zich alleen nog maar verder ontwikkelen, zo worden er steeds nieuwe manieren gevonden om data te analyseren en in te zetten. Het is duidelijk dat deze trend onomkeerbaar is en we hier het laatste nog niet van gezien hebben.” 

]]>
Thu, 15 Jun 2017 06:00:49 +0200 Data Science is een bestaande discipline in nieuw jasje http:///item/923335/data-science-is-een-bestaande-discipline-in-nieuw-jasje.html&field=Foto1&rType=crop&height=165&width=165.jpg
Talend introduceert multi-cloud big data-integratieoplossing http:///item/923373/talend-introduceert-multi-cloud-big-data-integratieoplossing.html Talend, leider in cloud- en big data-integratiesoftware, kondigt een nieuwe versie van Talend Data Fabric aan. Deze versie is geoptimaliseerd voor het managen van cloud en multi-cloud IT-omgevingen. Met Talend Summer ’17 is informatie naadloos uitwisselbaar tussen Amazon Web Services (AWS), Cloudera Altus, Google Cloud Platform, Microsoft Azure en Snowflake-platformen. Bedrijven kunnen daarmee snel data integreren, opschonen en analyseren ter bevordering van hun innovatie en concurrentiepositie.

Tijdens het optimaliseren van cloud-strategieën merken veel bedrijven dat het inzetten van verschillende cloud providers cruciaal is om op bedrijfsbrede schaal toegevoegde waarde te creëren. Volgens IDC maakt ruim 50 procent van alle IT-organisaties gebruik van meerdere cloud-platformen. Nog eens 20 procent is van plan om dit binnen twaalf maanden te gaan doen.1

“Bedrijven stappen in hoog tempo over naar de cloud en gebruiken verschillende cloud-platformen om in alle mogelijke bedrijfsbehoeften te voorzien”, aldus Ashley Stirrup, CMO bij Talend. “Met het oog op deze ontwikkeling moeten CIO’s hun IT-infrastructuur flexibel maken voor optimaal resultaat. Talend Data Fabric stelt bedrijven in staat om data-pipelines voor alle belangrijke cloud-platformen te ontwikkelen. Deze sluiten altijd aan op de laatste innovaties op gebied van cloud computing en open source.”

De Summer ’17-release van Talend Data Fabric biedt gebruikers toegang tot een rijke en snelgroeiende bibliotheek van cloud-componenten die door Talend in eigen beheer zijn ontwikkeld. Zij kunnen daarnaast gebruikmaken van intuïtieve visuele tools voor de ontwikkeling van big data-workflows die in vrijwel elke cloud inzetbaar zijn. De nieuwe versie van Talend Data Fabric breidt de al omvangrijke ondersteuning voor AWS verder uit en biedt nieuwe mogelijkheden voor Cloudera Altus, Google Cloud, Microsoft Azure en Snowflake. De Summer ’17-release biedt onder meer de volgende voordelen:

• Snelle ontwikkeling van multi-cloud data-pipelines: Talend Summer ‘17 biedt nieuwe connectors voor Azure, Cloudera en Google Cloud ter ondersteuning van big data-, NoSQL-, cloud data warehousing-, en messaging-toepassingen. De nieuwe versie van Talend Data Fabric vertegenwoordigt daarnaast een brancheprimeur door de ondersteuning voor Cloudera Altus. Deze PaaS-oplossing helpt organisaties met het vereenvoudigen van het implementeren van intelligente data-pipelines voor Cloudera. Hierdoor is minder operationele ondersteuning nodig.
Snelle migratie naar de cloud: Talend Summer ’17 maakt snelle migratie van gegevens op locatie naar de cloud mogelijk. Organisaties kunnen daarnaast eenvoudig data warehouses inrichten in de cloud, rijkere analysemogelijkheden gebruiken en sneller inzichten verkrijgen. Talend levert met de nieuwe release ook de snelste bulk loader-connector af voor Snowflake. Deze versnelt de gegevensoverdracht tussen locaties. Met tools voor datakwaliteit, visuele gegevensextractie, datatransformatie en het laden van gegevens, maakt Talend het mogelijk om data on-premises en in de cloud sneller naar Snowflake te migreren.
‘Build once, use everywhere’: Talend Summer ’17 biedt de flexibiliteit en portabiliteit die nodig is om programmeerwerk voor één platform ook op andere cloud-platformen te hergebruiken. Bedrijven kunnen zo snel nieuwe innovaties op het gebied van cloud-diensten inzetten en hun huidige programmeerwerk toekomstbestendig maken. Tevens kunnen ze data op nieuwe manieren combineren om sneller te innoveren en kosten terug te dringen.
Datakwaliteit door machine learning op big data-niveau: Door exponentiële gegevensgroei moeten organisaties nieuwe manieren vinden om data op grote schaal op te schonen en te combineren, met zo min mogelijk tussenkomst van mensen. Talend Summer ’17 maakt gebruik van door Apache Spark ondersteunde algoritmes voor machine learning voor het automatiseren, opschonen en combineren van gegevens. Dit verbetert de schaalbaarheid, prestaties en nauwkeurigheid. De algoritmes leren van de beslissingen door data-curators, waardoor ze steeds accuratere resultaten afleveren. Deze nieuwe algoritmen en mogelijkheden voor machine learning zijn ontwikkeld voor een naadloze samenwerking met de intuïtieve Data Stewardship-app van Talend, die bijdraagt aan voortdurende verbetering van datakwaliteit.

Bedrijven in alle sectoren wereldwijd maken gebruik van de producten van Talend en partners om echt datagestuurde oplossingen te ontwikkelen.

“Talend en Snowflake werken al jarenlang samen en daar profiteren onze gezamenlijke klanten voortdurend van”, zegt Walter Aldana, Vice President Alliances bij Snowflake. “Met de laatste connector voor Snowflake kunnen organisaties hun data nog efficiënter overzetten naar Snowflake. De architectuur van Talend maakt gebruik van Snowflake-mogelijkheden voor het gelijktijdig laden van data. Dit biedt onze klanten de mogelijkheid om eenvoudig diverse typen data te laden, zodat ze sneller op cloud gebaseerde datawarehouses kunnen inrichten.”

Prijzen en beschikbaarheid                                                               

Talend Summer ’17 is met ingang van 29 juni 2017 via updates beschikbaar voor alle Talend Data Fabric-abonnementhouders. Gebruikers van Talend Integration Cloud worden automatisch opgewaardeerd naar de nieuwe versie. Organisaties die een licentie willen aanschaffen voor Talend Data Fabric of Talend Integration Cloud, kunnen voor prijs- en pakketinformatie terecht bij een verkoopmedewerker van Talend via sales@talend.com.

]]>
Wed, 14 Jun 2017 16:10:13 +0200 Talend introduceert multi-cloud big data-integratieoplossing http:///item/923373/talend-introduceert-multi-cloud-big-data-integratieoplossing.html&field=Foto1&rType=crop&height=165&width=165.jpg
“Slechts een op vier bedrijven in de Benelux begrijpt impact van GDPR voor eigen organisatie” http:///item/923260/a-slechts-een-op-vier-bedrijven-in-de-benelux-begrijpt-impact-van-gdpr-voor-eigen-organisatiea.html Sophos heeft vandaag de onderzoeksgegevens bekendgemaakt van de impact die GDPR zal hebben op bedrijven in het Verenigd Koninkrijk, Frankrijk en de Benelux. In het onderzoek van Vanson Bourne werden 625 IT-besluitvormers in vier landen geïnterviewd en is gebleken dat Frankrijk en de Benelux vooroplopen wat betreft het conformeren van hun bedrijfsvoering met GDPR maar dat er nog steeds veel moet gebeuren.

De meest zorgwekkende cijfers geven aan dat 54 procent van de bedrijven niet goed begrijpt wat de aan GDPR gekoppelde boetes inhouden. Bedrijven die GDPR niet naleven, krijgen te maken met zware boetes van tot wel € 20 miljoen of 4 procent van de totale wereldwijde omzet. Bijna één op de vijf (17 procent) van alle geïnterviewde bedrijven gaf toe dat ze in geval van een boete hun bedrijf zouden moeten sluiten. Dit cijfer stijgt naar 54 procent voor kleine bedrijven met minder dan 50 medewerkers. Het sluiten van bedrijven zou niet het enige effect zijn: 39 procent van de IT-besluitvormers gaf aan dat boetes ook zouden leiden tot ontslagen binnen hun bedrijf.

Ondanks die bezorgdheid beschouwt slechts 6 procent van de bedrijven in het VK GDPR als een topprioriteit, in tegenstelling tot Frankrijk (30 procent) en de Benelux (25 procent). Nog zorgwekkender is dat 20 procent van de bedrijven in het VK de GDPR als een lage prioriteit beschouwt, een veel hoger cijfer in vergelijking met Frankrijk (8 procent) en de Benelux (11 procent).

Is Europa klaar voor GDPR? 
Bijna één op de vijf bedrijven claimde al aan de regelgeving te voldoen in Frankrijk (19 procent) en de Benelux (18 procent), maar wederom staat het VK op de laatste plaats: slechts 8 procent geeft er momenteel aan dat zij voldoen aan GDPR.

“Het conformeren aan GDPR is een langdurig proces en als de regelgevende instanties vanaf mei 2018 laten zien dat ze bereid zijn om de maximale boete op te leggen, zullen bedrijven het betreuren dat ze niet voorbereid zijn,” aldus John Shaw, VP Product Management, Sophos. “55 procent van de bedrijven is er niet volledig gerust op dat ze op de deadline aan de regelgeving kunnen voldoen, waardoor ze een risico lopen op grote boetes. Met nog slechts een jaar te gaan, moeten de topprioriteiten qua IT-beveiliging voor bedrijven liggen bij het verminderen van de grootste oorzaken van gegevenslekken – het hacken van endpoint-computers en het verlies van apparaten (mobiele telefoons en laptops) – en het implementeren van GDPR-compliance.”

Bedrijven in heel Europa brengen hun bedrijfsvoering langzaam in overeenstemming met GDPR, waarbij 42 procent denkt dat ze dit in mei zeker geregeld hebben, maar er is nog veel te doen:

  • Slechts 42 procent heeft een functionaris Gegevensbescherming aangesteld, een veel kleiner aantal dan verwacht; 
  • Momenteel heeft slechts de helft van de organisaties maatregelen ingevoerd om te garanderen dat de persoon van wie gegevens worden verzameld, toestemming geeft voor gegevensverzameling; 
  • 44 procent heeft procedures in het leven geroepen voor het verwijderen van persoonsgegevens in geval van een verzoek om “the right to be forgotten” of als een persoon bezwaar maakt tegen het verwerken van zijn/haar gegevens;
  • Minder dan de helft (45 procent) is in staat om binnen de 72 uur na ontdekking een gegevenslek te melden.

Wie is verantwoordelijk? 
In 70 procent van de bedrijven is het IT-team of het IT-beveiligingsteam verantwoordelijk voor het naleven van GDPR. Opvallend: het onderzoek geeft aan dat slechts 4 procent van de juridische teams en 13 procent van de directeuren of het senior management verantwoordelijk is voor de implementatie. Dit legt veel druk op de IT-teams, waarbij veel IT-besluitvormers het gebrek aan bewustzijn bij belangrijke besluitvormers aangeven als reden waarom bepaalde protocollen niet zijn ingevoerd, zoals het kunnen melden van een gegevenslek binnen de 72 uur na de ontdekking – een essentieel aspect van GDPR-compliance.

Het goede nieuws is dat 65 procent van de organisaties een beleid voor gegevensbescherming heeft ingevoerd en dat 98% van de organisaties een formeel plan voor werknemers heeft of dit momenteel implementeert, waarin het beleid voor gegevensbescherming wordt beschreven, alsook wat er van werknemers wordt verwacht wanneer ze omgaan met persoonsgegevens. Dit laat zien dat organisaties vooruitgang boeken inzake gegevensbeveiliging op de werkplek en dat ze werknemers aanmoedigen om de zaak serieus te nemen.

Verwarring over Brexit en GDPR 
Ondanks de Brexit zal Brittannië nog steeds volledig moeten voldoen aan GDPR. Uit het onderzoek is echter gebleken dat veel bedrijven in het VK denken dat de brexit mogelijk inhoudt dat ze hieraan niet langer hoeven te voldoen, waarbij 26 procent van de organisaties in het VK toegeeft sinds de Brexit minder goed te weten wat er nodig is om aan de verordening te voldoen, of te denken dat ze hieraan niet hoeven te voldoen. Deze totaal onjuiste theorie zal er mogelijk voor zorgen dat veel bedrijven de deadline missen en te maken krijgen met zware boetes.

Het Brexit-effect stopt niet in het VK. 66 procent van de bedrijven in Frankrijk en de Benelux geeft toe dat ze zich in meer of mindere mate zorgen maken over gegevensbescherming nu het VK uit Europa is gestapt. Het is duidelijk dat de Brexit zorgt voor onzekerheid en verwarring aan beide kanten van het Kanaal, maar ondanks de Brexit moeten bedrijven aan beide zijden van het Kanaal nog steeds voldoen aan de GDPR tegen de deadline van mei 2018.

]]>
Wed, 14 Jun 2017 13:53:50 +0200 “Slechts een op vier bedrijven in de Benelux begrijpt impact van GDPR voor eigen organisatie” http:///item/923260/a-slechts-een-op-vier-bedrijven-in-de-benelux-begrijpt-impact-van-gdpr-voor-eigen-organisatiea.html&field=Foto1&rType=crop&height=165&width=165.jpg
MarkLogic enterprise NoSQL database nu ook beschikbaar op Microsoft Azure http:///item/923259/marklogic-enterprise-nosql-database-nu-ook-beschikbaar-op-microsoft-azure.html MarkLogic Corporation, leverancier van een operationele en transactionele Enterprise NoSQL database, kondigt aan dat het MarkLogic enterprise NoSQL databaseplatform nu ook op Microsoft Azure beschikbaar is.

In de snel veranderende datagedrevenwereld van vandaag hebben bedrijven behoefte aan een flexibel databaseplatform dat ze snel en veilig naar de cloud kunnen verplaatsen om innovatie te stimuleren. Het MarkLogic enterprise NoSQL databaseplatform op Microsoft Azure geeft klanten de flexibiliteit die ze nodig hebben om een 360-graden beeld van hun gegevens in de cloud te creëren, of die nu op Microsofts gecertificeerde cloud-platform staan of in een hybride cloud. Hierdoor kunnen ze naadloos toepassingen ontwikkelen en implementeren, digitale transformatieprojecten starten of tijdelijke cloud-implementaties doen. Met het MarkLogic-platform op Microsoft Azure kunnen klanten bovendien gemakkelijk en zonder downtime apps en projecten op- en afschalen. Bovendien werkt dit met een optimale implementatie- en transactieconsistentie, wat voor klanten een maximale operationele efficiëntie oplevert.

“Er vinden ongekende veranderingen in de markt plaats. Zo moeten bedrijven hun databaseplatform naar de cloud kunnen verplaatsen voor de potentiële financiële en operationele voordelen die ze nodig hebben om effectief te kunnen concurreren,” zegt Joe Pasqua, executive vice president of products bij MarkLogic. “Maar wanneer bedrijven naar de cloud migreren, ontdekken ze vaak dat relationele databaseoplossingen niet flexibel genoeg zijn om de complexe gegevenstypen te integreren die nodig zijn voor bedrijfskritische applicaties en projecten. Dit kost ze veel waardevolle tijd en geld.”

“Onze klanten weten ook dat ze in een tijdperk van constante datalekken niet kunnen besparen op security,” voegt Pasqua toe. “Dat is een van de belangrijkste redenen waarom we voor Microsoft Azure hebben gekozen. Microsoft Azure is de meest vertrouwde, compliant cloud service provider. Daarnaast is erg belangrijk dat ze een breed scala van wereldwijde beveiligingscertificeringen hebben. Dit, gecombineerd met de toonaangevende gegevensbeveiligingsfuncties van MarkLogic waaronder geavanceerde encryptie met element level security, verzekert onze gezamenlijke klanten ervan dat hun gegevens niet alleen uitermate beschikbaar, consistent en beheersbaar zijn, maar bovendien veilig.”

“We zijn verheugd dat MarkLogic zijn NoSQL-databaseplatform beschikbaar maakt op de Microsoft Azure Marketplace,” zegt Nicole Herskowitz, senior director van productmarketing Azure bij Microsoft Corp. “In de hedendaagse on-demand economie waar data-agility en digitale innovatie van het grootste belang zijn, kunnen klanten nu profiteren van het platform van MarkLogic om ze te helpen hun digitale transformatiestrategieën in de cloud te versnellen.”

Op dit moment vertrouwen meer dan duizend organisaties wereldwijd op MarkLogic, van Fortune 500 bedrijven tot overheidsinstanties, om zakelijke resultaten en bedrijfskritische applicaties te realiseren door middel van een actiegerichte 360-​​graden weergave van hun gegevens.

]]>
Wed, 14 Jun 2017 13:45:21 +0200 MarkLogic enterprise NoSQL database nu ook beschikbaar op Microsoft Azure http:///item/923259/marklogic-enterprise-nosql-database-nu-ook-beschikbaar-op-microsoft-azure.html&field=Foto1&rType=crop&height=165&width=165.jpg