Nieuws Nieuws http://biplatform.nl http:///item/25/nieuws.html Fri, 23 Jun 2017 09:41:30 +0100 FeedCreator 1.7.2-ppt (info@mypapit.net) Centric wint HPE-award voor Hybrid IT Partner of the Year http:///item/930773/centric-wint-hpe-award-voor-hybrid-it-partner-of-the-year.html Centric is door Hewlett Packard Enterprise uitgeroepen tot Hybrid IT Partner of the Year. Centric ontving deze waardering op 20 juni tijdens Reimagine 2017, het HPE-event waar ieder jaar de Business Partner of the Year Awards worden uitgereikt.

HPE heeft Centric benoemd als Hybrid IT-partner op basis van verschillende onafhankelijke criteria en op voorspraak van de medewerkers van HPE. Centric is zeer verheugd met deze benoeming. Paul de Vries, salesmanager bij Centric: "We werken al jaren uitstekend samen met HPE. De award is het resultaat van onze continue investering in de kennis en kunde van onze medewerkers en de goede relatie met de klanten die Centric en HPE gezamenlijk bedienen.”

Platinum-partner
Eerder dit jaar ontving Centric al de status van HPE Platinum Specialist Partner. En in 2016 werd Centric door HPE uitgeroepen tot Transformation Partner of the Year. Hans Hengst, alliance manager bij Centric: “Wij zien de kracht van de cloud en converged infrastructuren en verbeteren daarom continu onze datacenteractiviteiten. Als Platinum-partner blijven we onze klanten de allerhoogste service bieden.”

Hybrid IT
Centric is gespecialiseerd in verschillende cloudoplossingen van HPE. Zo werkt het bedrijf in haar datacenters met de oplossingen van HPE, al dan niet gekoppeld aan cloudomgevingen van andere leveranciers, zoals Microsoft Azure. Op die manier biedt Centric klanten toegang tot hybride cloudoplossingen. “Met een hybride cloudomgeving kunnen onze klanten gefaseerd overgaan naar een private of public cloud, waarbij ook de on-premise omgeving van bedrijven een rol blijven behouden. Zo bieden we hen het beste van twee werelden, samen met partners als HPE”, aldus Paul de Vries.

]]>
Fri, 23 Jun 2017 00:03:00 +0200 Centric wint HPE-award voor Hybrid IT Partner of the Year http:///item/930773/centric-wint-hpe-award-voor-hybrid-it-partner-of-the-year.html&field=Foto1&rType=crop&height=165&width=165.jpg
HAL24K en Tauw winnen prijs Data Challenge 2017 van Rijkswaterstaat http:///item/930624/halk-en-tauw-winnen-prijs-data-challenge-van-rijkswaterstaat.html Data science startup HAL24K en Europees advies- en ingenieursbureau Tauw hebben met hun gezamenlijke inzending de Data Challenge 2017 gewonnen. Deze werd uitgeschreven door Rijkswaterstaat en stond in het teken van Slim Watermanagement.

De prijs bestaat uit 5.000 euro en de mogelijkheid om samen met organiserende partners de ingezonden methode verder uit te werken en door te vertalen naar de praktijk. De challenge is een initiatief van een aantal partners van het programma Slim Watermanagement, waar onder meer Rijkswaterstaat en vier waterschappen in participeren. Deelnemers aan de challenge werden uitgedaagd om een methode te bedenken om zoveel mogelijk maatschappelijk, ecologisch of economisch rendement uit een kuub water te halen. De case betrof het aan- en afvoergebied van het Noordzeekanaal en het Amsterdam-Rijnkanaal. Vanwege het complexe vraagstuk hebben de data science specialisten van HAL24K en waterexperts van Tauw de handen ineengeslagen.

Combinatie van AI en Machine Learning
De winnende oplossing bestaat uit de inzet van zowel Artificial Intelligence als Machine Learning. Met deze moderne methoden op het gebied van data-intelligentie kunnen HAL24K en Tauw het operationeel (flexibel) waterpeilbeheer op grote schaal en met een hoge nauwkeurigheidsgraad vormgeven. Door gebruik te maken van historische data in combinatie met ML en AI, zijn zij in staat waterniveaus te voorspellen en zo te sturen op onder andere energieverbruik en diverse klimaatomstandigheden. De oplossing legt ook een basis voor een optimale verdeling van water tussen de verschillende (peil)gebieden.

Realtime voorspellingen
CEO Jeroen Mol van HAL24K: “We hebben algoritmes ontwikkeld, die kunnen leren van de data uit het verleden. Vervolgens kunnen we op basis daarvan realtime voorspellingen doen. Het is goed om te zien dat zelfs bij watermanagement in Nederland – wat al heel goed gedaan wordt – onze geavanceerde data science een positieve bijdrage kan leveren. Bij ultracomplexe systemen komt ons HAL24K Platform bij uitstek goed tot zijn recht. ”

Totaaloplossing
HAL24K en Tauw onderzochten de waterschade in het beheergebied van Hoogheemraadschap De Stichtse Rijnlanden. Ze gebruikten neerslaggegevens, pompgegevens, streefpeilen en oppervlaktewaterstanden van de afgelopen vijf jaar en bouwden vervolgens de AI- en ML-modellen. De jury was onder de indruk van de totaaloplossing van het vraagstuk en de visualisatie van het model en de onderliggende problematiek.  Het team van HAL24K en Tauw bleek in staat om in een kort tijdsbestek een concreet resultaat te leveren, wat op meerdere beheergebieden toepasbaar is en verder doorontwikkeld kan worden.
Volgens CEO Annemieke Nijhof van Tauw Group: tonen de resultaten de enorme potentie van Machine Learning en Artificial Intelligence. “Ze vormen een uitstekende basis voor legio toepassingen binnen het watermanagement. Hiermee kunnen we beslissingen van beheerders en beleidsmakers beter ondersteunen.”

De Data Challenge 2017 vond plaats in het kader van het programma ‘Slim Watermanagement’ (maatregel in het Deltaprogramma Zoetwater). De organisatie was in handen van Rijkswaterstaat, Waterschap Amstel, Gooi en Vecht, Hoogheemraadschap De Stichtse Rijnlanden, Hoogheemraadschap van Rijnland en Hoogheemraadschap Hollands Noorderkwartier in samenwerking met het Centraal Bureau voor Statistiek (CBS), het KNMI, STOWA, de Unie van Waterschappen en Nelen & Schuurmans.

]]>
Thu, 22 Jun 2017 17:49:54 +0200 HAL24K en Tauw winnen prijs Data Challenge 2017 van Rijkswaterstaat http:///item/930624/halk-en-tauw-winnen-prijs-data-challenge-van-rijkswaterstaat.html&field=Foto1&rType=crop&height=165&width=165.jpg
Onderzoek naar de toekomst van Population Health Management http:///item/917749/onderzoek-naar-de-toekomst-van-population-health-management.html Ziekenhuizen en zorginstellingen gaan steeds bewuster om met patiëntgegevens. Logisch, want het heeft medische én financiële voordelen. Met slimme tools verzamel je op een korte efficiënte manier data, die kan worden gebruikt om klinische resultaten bij te houden. Dit levert weer nieuwe informatie op, bijvoorbeeld over bepaalde bevolkingskenmerken zoals leeftijd, geslacht en etnische achtergrond. En hoe meer informatie je hebt, hoe beter je een behandeling kunt aanpassen op de patiënt.

De Healthcare Information and Management Systems Society (HIMSS) heeft onderzoek gedaan naar dit zogeheten Population Health Management (PHM). In hoeverre maken zorginstanties er nou echt gebruik van en waarom? In dit blogartikel bespreek ik enkele opvallende resultaten uit een survey onder 358 Europese zorg (IT) professionals.

Het gebruik van PHM
Hoewel er in de zorg veel aandacht is voor IT-ontwikkelingen zoals het elektronisch patiëntendossier, zijn zorgprofessionals lang niet altijd op de hoogte van PHM en wat ze ermee kunnen. Er is dus sprake van een kenniskloof tussen softwareleveranciers en potentiële gebruikers. Het is dan ook niet zo gek dat één op de drie zorgprofessionals aangeeft dat er nog geen gebruik wordt gemaakt van PHM binnen hun organisatie. Zorginstanties die wel gebruik maken van PHM leggen de focus op verschillende aspecten, in volgorde van veel naar minder voorkomend:
1. Het managen van chronische ziektes;
2. Preventieve gezondheidszorg;
3. Deelname aan/lid van een klinisch geïntegreerd netwerk;
4. Patiënt centraal zetten in de zorginstelling.

Drijfveren voor het wel of niet gebruiken van PHM
De belangrijkste drijfveren voor het managen van patiëntgegevens zijn het navolgen van de organisatie missie en een betere controle over medische kosten en de zorgkwaliteit en -resultaten. Instanties die nog geen gebruik maken van PHM doen dat vooral omdat ze andere prioriteiten hebben. Een andere redenen om af te zien van PHM is het gebrek aan inzicht in de mogelijkheden en ontbrekende beslissingsbevoegdheid. Hierbij geven de ondervraagden aan dat softwareleveranciers late adoptors’ zouden kunnen overtuigen met een duidelijke waardepropositie en een praktische implementatiestrategie. Zij hebben dus duidelijk behoefte aan een brug over die kenniskloof.

Het gebruik van specialistische PHM oplossingen
Het merendeel van de zorginstanties in dit onderzoek maakt geen gebruik van ingekochte oplossingen voor het structureren van patiëntgegevens. Een reden hiervoor zou het gebrek aan softwareproducten voor PHM kunnen zijn. Organisaties die wel kiezen voor een specialistische oplossing doen dat vooral met het oog op business intelligence, analyses en rapportages. Dit komt overeen met de belangrijkste drijfveer om PHM toe te passen: meer controle over de kosten, kwaliteit en resultaten van zorg. Andere redenen om softwareproducten in te kopen zijn de oplossingen voor zorgmanagement, data warehousing en patiëntbetrokkenheid.

De toekomst van PHM
De mogelijkheden van PHM worden nog lang niet volledig benut. Wat zijn de onderdelen die de meeste mogelijkheden hebben om PHM tot een succes te maken?
• Elektronische patiëntendossiers
• Patiëntenregisters
• Telehealth
• Remote patiëntmonitoring

Eén ding is zeker: de zorg kan niet meer om PHM heen. Zowel zorg-  als IT-professionals zien dat PHM de sleutel is tot succes in de toekomst. Uit het onderzoek kunnen we wel concluderen dat PHM nog in de kinderschoenen staat en dat de hype nog verwerkelijkt moet worden in de dagelijkse zorgpraktijk.

David Majster is Marketing Manager bij InterSystems Benelux.

]]>
Wed, 21 Jun 2017 12:49:43 +0200 Onderzoek naar de toekomst van Population Health Management http:///item/917749/onderzoek-naar-de-toekomst-van-population-health-management.html&field=Foto1&rType=crop&height=165&width=165.jpg
M-Files integreert de kunstmatige intelligentie-techniek van ABBYY voor de verdere ... http:///item/929354/m-files-integreert-de-kunstmatige-intelligentie-techniek-van-abbyy-voor-de-verdere-automatisering-van-het-informatiebeheer.html M-Files Corporation, een leverancier van geavanceerde oplossingen voor informatiebeheer, waarmee organisaties het beheer van documenten en andere informatie sterk kunnen verbeteren, heeft vandaag een partnerschap aangekondigd met ABBYY, een wereldwijde leverancier van technieken voor de intelligente extractie, optische tekenherkenning, innovatieve taalondersteuning en kunstmatige intelligentie.

M-Files integreert de ABBYY-techniek in zijn intelligente informatiebeheersplatform voor de verdere vereenvoudiging en verbetering van de manier waarop informatie kan worden geclassificeerd en georganiseerd. Het resultaat is een meer intelligente en gestroomlijnde informatie-omgeving die zorgt voor een consistente classificatie van informatie met slimme koppelingen naar andere relevante gegevens, inhoud en processen, zodat een totaalbeeld ontstaat van de gestructureerde gegevens en de ongestructureerde inhoud van de verschillende bedrijfssystemen.

Dit wordt mogelijk gemaakt met ABBYY-technologie die gebruik maakt van kunstmatige intelligentie en Natural Language Processing (NLP) om de tekst in context te begrijpen. Op basis van algoritmes die de betekenis van woorden analyseren en hun onderlinge relaties bepalen, kunnen zelfs complexe en ongestructureerde documenten nauwkeurig worden geclassificeerd.

"Ons partnerschap met ABBYY voegt belangrijke technologie voor kunstmatige intelligentie toe aan ons centrale platform voor de verdere verbetering en automatisering van de manier waarop onze klanten informatie en de daaraan gerelateerde processen beheren," zei Mika Javanainen, vice president product management bij M-Files Corporation. "Door de ondersteuning van het automatisch classificeren van bestanden met metadata, accelereert de ABBYY-techniek de op metadata gebaseerde M-Files-architectuur, waardoor gebruikers worden verschoond van repeterende taken en informatie overal in de organisatie gemakkelijker te vinden is."

"In deze snel veranderende wereld gaat het om de juiste informatie bij de juiste persoon op het juiste moment te krijgen. Het merendeel van de belangrijke bedrijfsinformatie is echter niet gestructureerd, waardoor de machinale verwerking en automatisering van informatie wordt belemmerd," zei Sven Diedrich, Director Business Unit Technology Licensing bij ABBYY Europe. "Ons partnerschap met M-Files zal bedrijven helpen bij het beheer van deze waardevolle ongestructureerde informatie. Met behulp van een eenvoudige automatische classificering ter bepaling van de context en de relevantie, worden gegevens snel omgezet in bruikbare informatie."

Over M-Files Corporation
M-Files Enterprise Information Management (EIM) oplossingen elimineren informatie-silo's en geven snel en eenvoudig toegang tot de juiste informatie die is opgeslagen in belangrijke bedrijfssystemen en apparatuur. M-Files bereikt een hogere gebruikersacceptatie en daarmee een hoger rendement, dankzij een unieke, intuïtieve benadering van EIM en Enterprise Content Management (ECM), waarbij informatie wordt beheerd op basis van "wat" het is in plaats van "waar" het is opgeslagen. Met flexibele implementatie-opties: on-premise, cloud of hybride, plaatst M-Files de kracht van EIM in de handen van de gebruiker, waardoor deze minder IT-ondersteuning nodig heeft en zelf naar behoefte informatie kan opvragen en beheren. Het EIM-systeem van M-Files wordt door vele organisaties gebruikt als een platform voor het beheer van hun frontoffice en backoffice activiteiten. Dit verbetert de productiviteit en de kwaliteit, en er wordt voldaan aan industriële regels en standaarden, waaronder voor bedrijven zoals SAS, Elekta en NBC Universal. 

Over ABBYY
Action information - ABBYY is een leverancier van technologieën en oplossingen die bedrijven helpen bij de verwerking van informatie. Het bedrijf zet de standaard voor de vastlegging van content en innovatieve, op taal gebaseerde technologieën voor een integrale oplossing gedurende de levenscyclus van informatie. ABBYY producten worden gebruikt voor het optimaliseren van bedrijfsprocessen, verkleinen van risico's, versnellen van de besluitvorming en het vergroten van de omzet. De technologieën van ABBYY worden in licentie gebruikt door zowel internationale bedrijven als kleine en middelgrote bedrijven en particulieren. 

]]>
Wed, 21 Jun 2017 10:00:27 +0200 M-Files integreert de kunstmatige intelligentie-techniek van ABBYY voor de verdere automatisering van het informatiebeheer http:///item/929354/m-files-integreert-de-kunstmatige-intelligentie-techniek-van-abbyy-voor-de-verdere-automatisering-van-het-informatiebeheer.html&field=Foto1&rType=crop&height=165&width=165.jpg
1 http:///item/929396/gdpr-data-portability-and-data-management.html GDPR brings with it a host of responsibilities and liabilities, some of which can be mitigated using good data management practices. Many companies (what the law calls “controllers”) will be tempted to use manual processes to handle GDPR requests. I’ll talk about those manual processes first, and then discuss why companies might be better served with data management solutions to handle those scenarios.

What follows is in no way comprehensive. Of the many issues raised by GDPR, I’ll focus on three, the first of which will be in this blog post.

This blog post is for people who are already familiar with the GDPR, the EU’s General Data Protection Regulation. If you’re not familiar with it, you’ll want to read up on it soon – it’s fully in force as of May 25, 2018 (now just slightly less than a year away!) and it will affect companies across the globe.

The Right to Data Portability

The regulation “requires controllers to provide personal data to the data subject in a commonly used format and to transfer that data to another controller if the data subject so requests.” (This specific language comes from a very clear and helpful series of blog posts by the International Association of Privacy Professionals.)

Imagine that Jean Valjean tells your company that he wants to receive all of the data that you have about him in a format that can be consumed by another company. (This is true of employees as well as customers, by the way.)

Getting it done manually

To do this manually, a data steward could go into your CRM application, search by name for Jean Valjean – he’s customer number 24601, of course – extract any data that she finds there, and put it into a spreadsheet. So far, so good.

But customer data can reside in dozens of systems, perhaps hundreds – website databases, customer support databases, marketing automation tools, customer forums, and so on. These systems can have different variations of the customer, too, with Jean Valjean appearing with the handle jvaljean in your website and listed as the credit card for Jean J. Valjean in your order processing system.

Many different people will need to go to each of these systems, look for all possible variations of Jean Valjean, and extract the data needed for transfer.

Even then, you’re not done. You need to take all of the necessary data from all of those systems and put them into a format that can be transferred to another company. It seems likely that there will be a suitable Excel or CSV file format that will work – but someone now has to massage all of that data and manually put it into that format. This is error-prone, tedious, miserable work: exactly the kind of thing that’s better done by a computer than a person.

Using data management technology

Master data management (MDM) technology is specifically designed to solve this kind of problem. By defining rules that connect data from different systems together, MDM can provide a single view of every customer or employee (along with any other business entities that might interest you). If a data steward figures out one time that Jean Valjean from the CRM application is jvaljean on Twitter, she can permanently make that connection, making it easy to retrieve all of his information from that point forward.

With an MDM system in place, you can see data about every customer or employee in one place. If they ask you to give this data to them in a spreadsheet, you can verify that the information you have is correct, export to that format, and send it to them. The amount of manual effort is minimized, and so is the number of errors that you might otherwise make.

You may want to store the data in the cloud (i.e., in a data center that’s physically located somewhere other than where you’re conducting business) or on-premises (i.e., in a data center physically located where your company does business), depending on the requirements for keeping the data in specific countries.

Bonus

There are many, many benefits to having a single view of your customers and employees, ranging from improved customer service to better targeted marketing and churn avoidance. The same technology, data, and processes needed to comply with GDPR can help you businesses meet other needs, too – and forward-looking companies will use the data management capabilities they had to put in for GDPR to help them achieve those goals they want to achieve.

Jake Freivald is the Vice President of Product Marketing for Information Builders. In this position, Jake is responsible for strategic and product-level messaging, content creation for digital marketing, and related requirements for press and analyst relations. He graduated from Cornell University with a Bachelor of Science in Electrical Engineering in 1991. 

]]>
Wed, 21 Jun 2017 09:33:09 +0200 1 http:///item/929396/gdpr-data-portability-and-data-management.html&field=Foto1&rType=crop&height=165&width=165.jpg
Eneco Data Challenge gewonnen door Coders Co. met RAX tijdens Data Science Week 2017 http:///item/928872/eneco-data-challenge-gewonnen-door-coders-co-met-rax-tijdens-data-science-week.html Coders Co., het Amsterdamse vooraanstaande data scientists team, heeft op 6 juni 2017 de Eneco Predictive Maintenance Challange gewonnen tijdens de Data Science Week 2017.

Het winnende team van Coders Co, aangevuld met Konrad Banachewicz van TNG Quant Consultancy, programmeerde met zijn RAX-technologie een datamodel om te voorspellen welke straatverlichting stuk gaat. Inclusief visualisatie, aangevuld met automatische planning van de efficiëntste route langs de palen voor de onderhoudsmonteur. Daarmee geeft het model antwoord op vragen van Eneco:

  • Waar moeten we beginnen lampen te vervangen in straatlantaarns?
  • Waar is de komende 2 maanden onderhoud nodig?

Praktische toepasbaarheid en zakelijke relevantie scoren
De jury was onder de indruk van de eenvoud, direct praktische toepasbaarheid en vooral de zakelijke toegevoegde waarde van Coders Co’s datamodel.

“Terwijl de andere teams zich concentreerden op zuiverheid van het model, hebben wij vooral gekeken naar praktische bruikbaarheid en direct toegevoegde waarde.

In plaats van geavanceerde algoritmes te gebruiken, zoals neurale netwerken, hebben we voor simpele lineaire regressie gekozen om de kenmerken van de lampen te vinden die het beste de vervangingsdatum voorspellen. Deze bleken

de levensduur zoals opgegeven door de fabrikant en de geografische locatie. Dit simpele model hebben we ‘verpakt’ in een visualisatie van te vervangen lampen op een kaart. Plus een algoritme dat de postcodegebieden toont met lampen die als eerste aan een onderhoudsbeurt toe zijn.
Verder hebben we een idee voor een routeplanner voor de onderhoudsmonteur gepresenteerd. Deze aanpak is kenmerkend voor onze werkwijze. Wij kraken data met passie, maar niet alleen om het kraken. We streven altijd naar maximaal zakelijk rendement”, vertelt Gosia Wrzesinska, teamlid en CEO van Coders Co.

Twee prijzen in twee maanden
Met de Eneco Challenge wint Coders Co een tweede prijs in twee maanden. In mei won het team al de Gfk Insights Challenge tijdens de WHAT datathon. Daar heeft het team binnen 16 uur het winkelgedrag (customer journeys) over verschillende online shops uit duizenden clickstreams wederom met RAX vertaald naar een interactief dashboard.

]]>
Tue, 20 Jun 2017 19:33:21 +0200 Eneco Data Challenge gewonnen door Coders Co. met RAX tijdens Data Science Week 2017 http:///item/928872/eneco-data-challenge-gewonnen-door-coders-co-met-rax-tijdens-data-science-week.html&field=Foto1&rType=crop&height=165&width=165.jpg
Using Data Quality as a Service to Create the 'Golden Record' http:///item/917750/using-data-quality-as-a-service-to-create-the-golden-record.html In the first of our 3-part 'Golden Record' series, we will focus on email validation, to help you ensure you're really reaching your audience.

'Golden Records' are the Gold Standard of Customer Information
One of our clients refers to accurate customer information as 'Golden Records' and for good reason. Did you know that most expert sources say that it costs an average of five times more to win a customer then to retain one? Given that statistic, and with costs continually rising, it can save a business a lot of money if they retain more customers.

To do this, communicating and interacting with your customers on a timely basis is the key to the success, and to the effectiveness of marketing campaigns. The bottom line is that organizations need to validate the accuracy of all key customer information – including email, phone, IP and physical addresses to ensure they connect with customers regularly, to reduce churn, improve service and heighten the customer experience.

Trillium announced a solution to meet all of these essential customer information validation requirements, Trillium Precise. It leverages world-wide postal and geocoding for data cleansing and enrichment of customer contact information to ensure the accuracy of customer records. Let’s look at each critical area of customer information, starting with email.

Email Validation is the First Step to Creating 'Golden Records'
All of Trillium Precise services are Data-as-a-Service (DaaS) solutions, which can be delivered on-premise or in the Cloud. The email validation service not only allows organizations to avoid the time and effort of emailing to inactive or incorrect individuals, they can also increase the effectiveness of marketing and customer contact management systems.

Look around, whether you are at the store, at a restaurant, or at the gym, you can’t help but notice that everyone is on their mobile phone and people are constantly checking their email. Did you know over two billion people throughout the world use email and the number keeps growing?

Business reliance upon email contact can be taken for granted, but can you rely on email addresses alone to get the right message to the right person at the right time? Unfortunately not!

An email address alone does not provide much information. Is the email valid? What more can we discover about an individual that would help us ensure we deliver the right message? By utilizing Trillium Precise, you can verify the emails your company owns are accurate and contactable, anywhere in the world, and get better insights about your customers.

Does your organization want to know if the email on record matches to the registered name on file? Of course! Trillium Precise can provide that information as well. Companies need to be able to rely on their data and be able to email their customers with confidence. Your organization would not want to market the wrong product or offer to an incorrect or inappropriate individual or business.

Email Personalization is Possible with Name Matching
In addition, you probably at some point have received a personalized email that states your name. These messages are more likely to grab your attention and make you feel more important than receiving a generic email. There is something special about getting an email that not only has your name but is relevant to you. With Trillium Precise, you can utilize our name match feature within your emails to provide that personal touch.

Again, it’s vital to organizations to keep contact data clean and trustworthy, including email addresses. Trillium Precise not only can indicate if an email address is active, but also checks the validity of the email. In addition, by utilizing Trillium Precise, your core customer and sales contact information will be supported by Trillium’s leading data quality technology – that’s how you create a 'Golden Record'!

Jo-Anne Zullo is Product Manager for Enrichment at Trillium Software, a Syncsort Company.

Trillium Software wordt in Nederland vertegenwoordigd en gedistribueerd door IntoDQ.

]]>
Mon, 19 Jun 2017 12:48:51 +0200 Using Data Quality as a Service to Create the 'Golden Record' http:///item/917750/using-data-quality-as-a-service-to-create-the-golden-record.html&field=Foto1&rType=crop&height=165&width=165.jpg
IoT en predictive intelligence in de praktijk - KLM en Marktplaats http:///item/927057/iot-en-predictive-intelligence-in-de-praktijk-klm-en-marktplaats.html Met ontwikkelingen in data science, AI, big data en IoT, onstaan er nieuwe manieren waarop data ingezet kan worden om bedrijfsprestaties op verschillende fronten te verbeteren. Zo kunnen klanten beter bediend worden op basis van hun online gedrag en interesses, maar ook de efficientie van bedrijfsprocessen aangepakt worden. Tijdens Emerce Tech Live! werden succesverhalen gedeeld over te toepassing van deze veelbelovende technologieën.

KLM legt steeds meer de nadruk op ‘artificial intelligence’

Zo sprak Rogier van Beugen, Director Innovation & Venturing bij KLM over hoe zij IoT en het generen van data toepassen om de diversiteit aan processen in kaart te brengen en deze te gebruiken. Een voorbeeld is de KLM app, die aan de hand van de locatie en geschatte bestemming van de consument het mogelijk maakt met de klant te communiceren en een eventuele aanbevelingen te doen. Mocht er bijvoorbeeld een file op de weg zijn naar het vliegveld, dan kan KLM de consument hiervan op de hoogte stellen en eventueel adviseren om een ander vervoersmiddel te kiezen zodat de vlucht gehaald kan worden.

Diversiteit aan relevante en waardevolle databronnen
Naast de app gebruikt KLM sensoren om data te vergaren van onder andere de vliegtuigen, de apparatuur op Schiphol, en het vrachttransport om zowel intern als extern transparantie te creëren. Zo helpen sensoren en trackers de locatie van koffers bij te houden en kan er gegarandeerd worden dat er veilig wordt omgegaan met de bagage. Hetzelfde geldt voor het vrachtvervoer, waar bijvoorbeeld de temperatuur van een pakket kan worden bijgehouden en de kwaliteit van de desbetreffende producten kunnen worden geoptimaliseerd.

Verder gebruikt KLM intern ook sensoren op apparatuur op Schiphol, zoals op de gemotoriseerde voertuigen om zo de meest efficiënte routes en manier van werken voor werknemers te bepalen en onderhoud van de voertuigen efficiënter te kunnen aansturen. Het onderhoud van de vliegtuigmotoren kan met vergelijkbare sensoren nauwkeuriger voorspeld worden. Deze sensoren genereren al bijna 2,5 miljard TB aan data in één jaar, voor alleen landelijke vluchten in de Verenigde Staten. Deze enorme hoeveelheid data kan voor veel meer doeleinden gebruikt worden, zoals het bepalen van betere methodes voor opstijgen en vliegsnelheden.

http://biplatform.nl afbeelding

“We need to let data drive our decisions”
Met de instelling hun beslissingen meer te laten leiden door data-inzichten, probeert KLM steeds meer data te gebruiken bij haar besluitvorming. Het grootste probleem zit tot nu toe in het beheer van deze enorme hoeveelheid data. De grootste uitdagingen zijn voornamelijk de architectuur en de verschillende front-ends. Om dit te realiseren worden de dagelijkse hoeveelheid data en de bijhorende analyses gedaan en bijgehouden door een big data-team van 30 man sterk en wordt er samengewerkt met verschillende universiteiten om deze afdeling naar een nog hoger niveau te tillen.

De comeback van Marktplaats door predictive intelligence en employee empowerment

Met 350.000 nieuwe advertenties die dagelijks geplaatst worden, is Marktplaats het grootste handelsplatform van Nederland. Sinds de oprichting van het platform 18 jaar geleden is er veel veranderd in de wereld van e-commerce. Zo wordt tegenwoordig 80% van alle bezoeken op Marktplaats gedaan vanaf een smartphone of tablet. Toch heeft Marktplaats in haar 18-jarig bestaan zelf weinig geïnnoveerd, tot op heden. Marktplaats heeft sinds kort namelijk een nieuw groot doel voor ogen:

Artikelen (ver)kopen binnen 5 minuten, mét een glimlach.

Jeroen Jonker Roelants, Head of Product bij Marktplaats, vertelde tijdens Emerce Tech Live! over de eerste gemaakte stappen.

Autonome teams op basis van de customer journey
Dit ambitieuze doel, intern het Big Hairy Audacious Goal genoemd, heeft voor grote veranderingen gezorgd binnen Marktplaats. Jeroen Jonker Roelants, Head of Product bij Marktplaats, gaf namelijk toe dat het bedrijf zich te weinig op de consument richtte. “De medewerkers van Marktplaats waren erg naar binnen gericht. We waren meer met onze eigen organisatie bezig dan met ons product en onze klanten.” Dit kwam voort uit de organisatiestructuur van Marktplaats, waar voornamelijk in silos werd gewerkt en afdelingen elkaar vaker in de weg zaten dan elkaar ondersteunden. Sinds 1 januari 2016 werden daarom nieuwe, volledig autonome teams opgedeeld volgens de customer journey van de klant op Marktplaats.nl. Binnen deze teams zitten medewerkers van alle verschillende traditionele afdelingen, van business development en marketing tot customer service. Als gevolg hiervan kregen de customer journey teams een veel beter inzicht in de behoeften van hun klanten. Dit heeft onder andere geleid tot de nieuwe chatfunctie tussen kopers en verkopers, waarvan de adoptie al 80% is en de tijd tussen kopen en verkopen met uren omlaag is gegaan.

Predictive intelligence voor een gepersonaliseerde ervaring
Daarnaast werd over de verschillende customer journey teams een predictive intelligence team geplaatst. Marktplaats wilde namelijk afstappen van het ‘one size fits all’ model en elke bezoeker een gepersonaliseerde ervaring kunnen geven door het gebruik van de grote hoeveelheid data die het bedrijf in de loop der jaren verzameld had. Dit predictive intelligence team, bestaande uit onder andere data scientists en data engineers, kreeg de opdracht uit deze data waardevolle bevindingen te halen en nieuwe data actief in te zetten om een betere service te kunnen bieden. Zo krijgen gebruikers van de Marktplaats app tegenwoordig steeds relevantere productsuggesties door het intelligenter gebruik van hun gebruikersdata. Als gevolg van deze verbeteringen keren gebruikers vaker terug naar Marktplaats en stijgt het aantal leads en transacties. Bovendien draagt het dataonderzoek van het predictive intelligence team bij aan de verdere kennisvergaring van de customer journey teams.

Het verhaal van Marktplaats laat zien dat zelfs de grootste spelers op het gebied van naamsbekendheid en aantal klanten niet achter kunnen blijven en dat het gebruik van data zeer waardevol is voor zowel de klant als het bedrijf. Echter, om dit mogelijk te maken moeten de mensen binnen de organisatie er open voor staan, wat in sommige gevallen vraagt om een nieuwe manier van werken. Door de volledige interne herstructurering en de adoptie van predictive intelligenceis Marktplaats al goed op weg, maar voor het bereiken van haar doel er is nog veel werk aan de winkel.

]]>
Mon, 19 Jun 2017 05:12:15 +0200 IoT en predictive intelligence in de praktijk - KLM en Marktplaats http:///item/927057/iot-en-predictive-intelligence-in-de-praktijk-klm-en-marktplaats.html&field=Foto1&rType=crop&height=165&width=165.jpg
How to Start Incorporating Machine Learning in Enterprises http:///item/926163/how-to-start-incorporating-machine-learning-in-enterprises.html The world is long past the Industrial Revolution, and now we are experiencing an era of Digital Revolution. Machine Learning, Artificial Intelligence, and Big Data Analysis are the reality of today’s world.

I recently had a chance to talk to Ciaran Dynes, Senior Vice President of Products at Talend and Justin Mullen, Managing Director at Datalytyx. Talend is a software integration vendor that provides Big Data solutions to enterprises, and Datalytyx is a leading provider of big data engineering, data analytics, and cloud solutions, enabling faster, more effective, and more profitable decision-making throughout an enterprise.

The Evolution of Big Data Operations

To understand more about the evolution of big data operations, I asked Justin Mullen about the challenges his company faced five years ago and why they were looking for modern integration platforms. He responded with, “We faced similar challenges to what our customers were facing. Before Big Data analytics, it was what I call ‘Difficult Data analytics.’ There was a lot of manual aggregation and crunching of data from largely on premise systems. And then the biggest challenge that we probably faced was centralizing and trusting the data before applying the different analytical algorithms available to analyze the raw data and visualize the results in meaningful ways for the business to understand.”

http://biplatform.nl afbeelding

He further added that, “Our clients not only wanted this analysis once, but they wanted continuous refreshes of updates on KPI performance across months and years. With manual data engineering practices, it was very difficult for us to meet the requirements of our clients, and that is when we decided we needed a robust and trustworthy data management platform that solves these challenges.”

The Automation and Data Science 

Most of the economists and social scientists are concerned about the automation that is taking over the manufacturing and commercial processes. If the digitalization and automation continues to grow at the same pace it is currently happening, there is a high probability of machines partly replacing humans in the workforce. We are seeing some examples of the phenomena in our world today, but it is predicted to be far more prominent in the future.

However, Dynes says, “Data scientists are providing solutions to intricate and complex problems confronted by various sectors today. They are utilizing useful information from data analysis to understand and fix things. Data science is an input and the output is yielded in the form of automation. Machines automate, but humans provide the necessary input to get the desired output.”

This creates a balance in the demand for human and machine services. Both, automation and data science go parallel. One process is incomplete without the other. Raw data is worth nothing if it cannot be manipulated to produce meaningful results and similarly, machine learning cannot happen without sufficient and relevant data.

Start Incorporating Big Data and Machine Learning Solutions into Business Models

Dynes says, “Enterprises are realizing the importance of data, and are incorporating Big Data and Machine Learning solutions into their business models.” He further adds that, “We see automation happening all around us. It is evident in the ecommerce and manufacturing sectors, and has vast applications in the mobile banking and finance.”

http://biplatform.nl afbeelding

When I asked him about his opinion regarding the transformation in the demand of machine learning processes and platforms, he added that, “The demand has always been there. Data analysis was equally useful five years ago as it is now. The only difference is that five years ago there was entrepreneurial monopoly and data was stored secretively. Whoever had the data, had the power, and there were only a few prominent market players who had the access to data.”

Justin has worked with different companies. Some of his most prominent clients were Calor Gas, Jaeger and Wejo. When talking about the challenges those companies faced before implementing advanced analytics or machine learning he said, “The biggest challenges most of my clients face was the accumulation of the essential data at one place so that the complex algorithms can be run simultaneously but the results can be viewed in one place for better analysis. The data plumbing and data pipelines were critical to enable data insights to become continuous rather than one-off.”

The Reasons for Rapid Digitalization 

Dynes says, “We are experiencing rapid digitalization because of two major reasons. The technology has evolved at an exponential rate in the last couple of years and secondly, organization culture has evolved massively.” He adds, “With the advent of open source technologies and cloud platforms, data is now more accessible. More people have now access to information, and they are using this information to their benefits.”

In addition to the advancements and developments in the technology, “the new generation entering the workforce is also tech dependent. They rely heavily on the technology for their everyday mundane tasks. They are more open to transparent communication. Therefore, it is easier to gather data from this generation, because they are ready to talk about their opinions and preferences. They are ready to ask and answer impossible questions,” says Dynes. 

Integrating a New World with the Old World

When talking about the challenges that companies face while opting for Big Data analytics solutions Mullen adds, “The challenges currently faced by industry while employing machine learning are twofold. The first challenge they face is related to data collection, data ingestion, data curation (quality) and then data aggregation. The second challenge is to combat the lack of human skills in data-engineering, advanced analytics, and machine learning”

Dynes says, “You need to integrate a new world with the old world. The old world relied heavily on data collection while the new world focuses mainly on the data solutions. There are limited solutions in the industry today that deliver on both these requirements at once right now.”

http://biplatform.nl afbeelding

He concludes by saying that, “The importance of data engineering cannot be neglected, and machine learning is like Pandora’s Box. Its applications are widely seen in many sectors, and once you establish yourself as a quality provider, businesses will come to you for your services. Which is a good thing.”

]]>
Sun, 18 Jun 2017 05:23:18 +0200 How to Start Incorporating Machine Learning in Enterprises http:///item/926163/how-to-start-incorporating-machine-learning-in-enterprises.html&field=Foto1&rType=crop&height=165&width=165.jpg
Securing Data with Transparent Data Encryption http:///item/917831/securing-data-with-transparent-data-encryption.html Securing sensitive data is a critical concern for organizations of all types and sizes. Credit card numbers, medical and health records, and other personal information must be stored and secured in such a way that only authorized personnel is able to access the information. In this blog post you will get an overview of the possibilities, availability, pros and cons, and evolution of Transparent Data Encryption (TDE). I hope this answers (most of) your questions.

What is TDE?
Transparent Data Encryption (TDE) protects your data at rest by performing real-time I/O encryption and decryption of SQL Server database data and log files. One of the biggest benefits of TDE is that the SQL Server engine handles all of the encryption and decryption work.

TDE uses the AES and 3DES encryption algorithms, and the encryption and decryption operations run on background threads by SQL Server. No application changes are required to take advantage of TDE. Backups of databases protected by TDE are also encrypted.

TDE does not prevent admins from seeing data. To protect data from users who access the database, you need cell-level encryption. TDE will also not protect you against SQL injection attacks. TDE encrypts the data stored on disk at the page and log level. The data that’s sent across the wire to the client connections isn’t encrypted. If you want to encrypt the link between SQL Server and the client systems, then you need to use Secure Sockets Layer (SSL). Another way to encrypt data at all levels (also in memory and on your network is by using the “Always Encrypted” starting from SQLServer 2016 (Column level).

Is there a difference with using BitLocker?
BitLocker Drive Encryption is a data protection feature available in Windows Server 2008 R2 and in some editions of Windows 7. Having BitLocker integrated with the operating system, addresses the threats of data theft or exposure from lost, stolen, or inappropriately decommissioned computers. BitLocker helps mitigate unauthorized data access by enhancing file and system protections.

Differences
• If you use TDE, backups will also be encrypted, as will any copy you restore to test/QA/dev. This means that you will need to make sure that the encryption key is available on the environment you restore the database.
• Bit locker encrypts everything (on the volume), TDE only encrypts the database files that you select. If you are encrypting and decrypting less stuff, it should be faster. It also gives more flexibility to only encrypt 1 or 2 of the most important databases on a server while sharing the same volume(s) with other DB’s.
• BitLocker doesn’t fully satisfy the Payment Card Industry Data Security Standard (PCI DSS) requirement (specifically, 3.4 and 3.5.2) for data encryption at rest, TDE does fulfill that requirement.

TDE availibility
TDE is available in the following versions/editions
• SQL Server 2008/2008R2 (Datacenter and Enterprise Edition)
• SQL Server 2012 (Enterprise Edition)
• SQL Server 2014 (Enterprise Edition)
• SQL Server 2016 (Enterprise Edition)

How to set up TDE up?
“Traditional” Encryption Key Hierarchy
1. Create a master key using the CREATE MASTER KEY T-SQL statement.
2. Create a certificate using the CREATE CERTIFICATE command.
3. Use the CREATE DATABASE ENCRYPTION KEY statement to encrypt the Database Encryption Key (DEK).
4. Use the ALTERDATABASE SET ENCRYPTION ON statement to actually encrypt the user database with the DEK. As soon as you use TDE for a user database, TempDB is automatically encrypted as well.

Extensible Key Management (EKM) with “Azure Key Vault” (AKV)
Note: EKM is only available on Enterprise Edition!
1. Create an Azure Key Vault (AKV + AAD application)
All detailed steps can be found here.
In short the list is:
a. Install Azure Powershell.
b. Create an Azure Active Directory (AAD).
c. Register an application with this ADD, this gives you a Service Principal account (spName) that has access to your Key Vault. A sample application is available from the Microsoft Download Center. After the application is added you can find the ClientId on the Configure Tab.
d. Create the Key Vault: Use the New-AzureRmKeyVault cmdlet to create a key vault. This cmdlet has three mandatory parameters: a resource group name, a key vault name, and the geographic.
e. Add a key or secret to the key vault.

2. Configure AKV Integration (Mostly Powershell)
a. Install the SQL Server IaaS Extension on your Azure VM, which can be done by Powershell, should be visible in the Administration of your VM > Extensions.
b. Create an asymmetric key (the DMK) and store it in the hardware portion of the key vault.
c. Install a small piece of connector software on each SQL server, allowing it to interface with the AKK. Download this.
d. Run SQL scripts on each SQL instance to create a cryptographic provider, create credentials, and connect to the AKV.
e. Run some SQL scripts on each database to create DEKs and enable TDE.

3. AKV Pricing
Azure Key Vault, like most cloud applications has a fee to use this service. Both storage and operation which have their specific price.

A graphical overview of the difference between both:

Kohera1.png


Is there a performance impact?
Yes, some performance overhead is involved in using TDE. The encryption and decryption process do require additional CPU cycles. The overhead for using TDE ranges from about 3 percent to 10 percent, depending on the type of workload. SQL Server instances with low I/O and low CPU usage will have the least performance impact. Servers with high CPU usage will have the most performance impact.

Can I do backup compression on TDE databases?
Before SQL Server 2016, you had to choose between TDE or backup compression (although the option is available, and you can put it on, it’s not really compressed when using TDE). Since SQL Server 2016 you can have both!

Egon Vandenrijdt is Senior SQL Developer bij Kohera in de Azure Architecture and Data Technology Group.


]]>
Fri, 16 Jun 2017 13:09:49 +0200 Securing Data with Transparent Data Encryption http:///item/917831/securing-data-with-transparent-data-encryption.html&field=Foto1&rType=crop&height=165&width=165.jpg
QNH lanceert GDPR Scan http:///item/924939/qnh-lanceert-gdpr-scan.html Alle organisaties binnen de Europese Unie moeten ervoor zorgen dat ze in mei 2018 voldoen aan de General Data Protection Regulation (GDPR). De eisen binnen de nieuwe wetgeving hebben onder andere een grote impact op IT-systemen, dataopslag en de manier waarop medewerkers met data omgaan. Omdat de GDPR aandacht vereist van álle bedrijfsonderdelen, heeft IT-dienstverlener en -kennispartner QNH Consulting een GDPR Scan ontwikkeld.

Middels de GDPR Scan wordt een inventarisatie van de huidige situatie gemaakt, onder meer door het verzamelen en analyseren van documenten en het doen van interviews met onder andere IT-, HR- en lijnmanagers. Indien nodig vinden er ook diepte-interviews plaats met specialisten die inhoudelijke kennis bezitten, zoals juristen en recruiters. De analyse gaat in op thema’s als toestemming tot data-opslag, ‘right to be forgotten’, toegang tot eigen data, registratieplicht en ‘privacy by design’. De uitkomst van de GDPR Scan laat zien waar de organisatie reeds compliant is en waar niet. Hiermee wordt het voor organisaties makkelijker de nog uit te voeren stappen voor mei 2018 te bepalen.

]]>
Fri, 16 Jun 2017 10:06:36 +0200 QNH lanceert GDPR Scan http:///item/924939/qnh-lanceert-gdpr-scan.html&field=Foto1&rType=crop&height=165&width=165.jpg
Notilyze introduceert Data Science as a Service met SAS cloud-platform http:///item/924530/notilyze-introduceert-data-science-as-a-service-met-sas-cloud-platform.html Startup Notilyze is een samenwerking aangegaan met SAS voor het leveren van data science-diensten via het cloud-plaform SAS Viya. Met een managed analytical services-model waarin analytics-software en het leveren van resultaten op pay-as-you-go of abonnementsbasis kan worden afgenomen, bieden SAS en Notilyze een laagdrempelige en schaalbare manier om tot waardevolle inzichten te komen. Zo kunnen ondernemers inspelen op de kansen die de data-economie en het Internet of Things bieden, zonder dat zij zelf een data scientist in dienst hoeven te nemen.  

“Vooral middelgrote bedrijven zien kansen met hun data, maar weten niet waar ze moeten beginnen en hebben de kennis en middelen niet in huis. Ook zijn de kosten om dit wel te realiseren relatief hoog”, zegt Colin Nugteren, CEO en oprichter van Notilyze. “Samen met SAS bieden we deze organisaties een state-of-the-art platform in een betrouwbare cloud-omgeving waar hun data wordt geanalyseerd. De klant geeft aan welke vragen er zijn, wij selecteren de juiste data en voeren vervolgens de analyses uit om tot antwoorden te komen. Klanten kunnen de uitkomsten raadplegen via dashboards en real-time webservices, zodat deze altijd en overal toegankelijk zijn.”

Ervaren data scientists
Met de nieuwe propositie spelen SAS en Notilyze in op de stijgende behoefte aan full-service analytics. Organisaties hoeven niet langer tijd en energie te steken in de implementatie en het beheer van een software-omgeving. Ook is het niet noodzakelijk een data scientist te werven. Notilyze biedt een krachtig analytics-platform en de nieuwste technologie op bijvoorbeeld het gebied van machine learning.

Doordat Notilyze alleen werkt met ervaren data scientists kunnen klanten niet alleen rekenen
op antwoorden op hun vragen, maar profiteren zij ook van andere innovatieve inzichten en algoritmes. Het analytics-platform van Notilyze is gebaseerd op SAS Viya, een schaalbare en open cloud-omgeving waarin alle stappen van het analytische proces zijn geïntegreerd. Bovendien komt het tegemoet aan de eisen voor dataprivacy die door de GDPR aan organisaties worden gesteld.

“Met Notilyze verlagen we de drempel voor ondernemers om aan de slag te gaan met analytics”, zegt Frank van der Woude, Managing Director van SAS Nederland. “Het is zonde om je data niet te benutten simpelweg omdat je de expertise niet in huis hebt. Door deze dienst bovendien op abonnementsbasis aan te bieden kunnen ondernemers gedurende het proces bepalen of deze werkwijze voldoende toegevoegde waarde heeft, zonder dat zij vooraf een grote investering hoeven te doen.”

]]>
Fri, 16 Jun 2017 05:21:39 +0200 Notilyze introduceert Data Science as a Service met SAS cloud-platform http:///item/924530/notilyze-introduceert-data-science-as-a-service-met-sas-cloud-platform.html&field=Foto1&rType=crop&height=165&width=165.jpg
Data Science is een bestaande discipline in nieuw jasje http:///item/923335/data-science-is-een-bestaande-discipline-in-nieuw-jasje.html Meer dan de helft van de developers vindt dat Data Science een bestaande discipline is, maar in een nieuw jasje gestoken. Dit blijkt uit onderzoek van recruitmentbureau Huxley IT. In dit onderzoek hebben 102 developers antwoord gegeven op de stelling ‘Data Science is niets nieuws, maar wordt op een nieuwe manier gepresenteerd’. 53 procent geeft aan het eens te zijn met deze stelling, waarvan 9 procent aangeeft het hier zelfs sterk mee eens te zijn. Een kwart van de developers geeft daarentegen aan dat Data Science wel degelijk een nieuwe discipline is.

Data Science is een trend in IT

Verder blijkt uit het onderzoek onder developers dat we van Data Science nog veel gaan horen. Zo geeft 78 procent van de developers aan dat Data Science blijvend is in de IT. Slechts twee procent van de developers ziet Data Science als hype in plaats van een trend.

Op de vraag welke IT-trend het meest relevant is voor de carrière van developers, kwam Big Data met 36 procent naar voren als de nummer 1. Op de tweede plek staat Cloud (26%). Ondanks alle ontwikkelingen rondom Security en Internet of Things (IoT), blijkt dat deze IT-trends als minder relevant worden beschouwd. Beide trends worden slechts door 10 procent van de developers als meest relevant aangemerkt. Robotisation krijgt van 6 procent van de developers deze erkenning.

Joël Bennett, Manager Huxley IT, geeft zijn visie op de resultaten: “Data Science is een relatief nieuwe term, maar het analyseren van data doen we al jaren. Het lijkt er echter op dat met de intrede van de term Data Science de industrie pas echt op zijn kop is gezet. Door de inzet van Data Science kunnen bedrijven bedrijfsprocessen slimmer aanpakken en veel kosten besparen. Data Science zal zich alleen nog maar verder ontwikkelen, zo worden er steeds nieuwe manieren gevonden om data te analyseren en in te zetten. Het is duidelijk dat deze trend onomkeerbaar is en we hier het laatste nog niet van gezien hebben.” 

]]>
Thu, 15 Jun 2017 06:00:49 +0200 Data Science is een bestaande discipline in nieuw jasje http:///item/923335/data-science-is-een-bestaande-discipline-in-nieuw-jasje.html&field=Foto1&rType=crop&height=165&width=165.jpg
Talend introduceert multi-cloud big data-integratieoplossing http:///item/923373/talend-introduceert-multi-cloud-big-data-integratieoplossing.html Talend, leider in cloud- en big data-integratiesoftware, kondigt een nieuwe versie van Talend Data Fabric aan. Deze versie is geoptimaliseerd voor het managen van cloud en multi-cloud IT-omgevingen. Met Talend Summer ’17 is informatie naadloos uitwisselbaar tussen Amazon Web Services (AWS), Cloudera Altus, Google Cloud Platform, Microsoft Azure en Snowflake-platformen. Bedrijven kunnen daarmee snel data integreren, opschonen en analyseren ter bevordering van hun innovatie en concurrentiepositie.

Tijdens het optimaliseren van cloud-strategieën merken veel bedrijven dat het inzetten van verschillende cloud providers cruciaal is om op bedrijfsbrede schaal toegevoegde waarde te creëren. Volgens IDC maakt ruim 50 procent van alle IT-organisaties gebruik van meerdere cloud-platformen. Nog eens 20 procent is van plan om dit binnen twaalf maanden te gaan doen.1

“Bedrijven stappen in hoog tempo over naar de cloud en gebruiken verschillende cloud-platformen om in alle mogelijke bedrijfsbehoeften te voorzien”, aldus Ashley Stirrup, CMO bij Talend. “Met het oog op deze ontwikkeling moeten CIO’s hun IT-infrastructuur flexibel maken voor optimaal resultaat. Talend Data Fabric stelt bedrijven in staat om data-pipelines voor alle belangrijke cloud-platformen te ontwikkelen. Deze sluiten altijd aan op de laatste innovaties op gebied van cloud computing en open source.”

De Summer ’17-release van Talend Data Fabric biedt gebruikers toegang tot een rijke en snelgroeiende bibliotheek van cloud-componenten die door Talend in eigen beheer zijn ontwikkeld. Zij kunnen daarnaast gebruikmaken van intuïtieve visuele tools voor de ontwikkeling van big data-workflows die in vrijwel elke cloud inzetbaar zijn. De nieuwe versie van Talend Data Fabric breidt de al omvangrijke ondersteuning voor AWS verder uit en biedt nieuwe mogelijkheden voor Cloudera Altus, Google Cloud, Microsoft Azure en Snowflake. De Summer ’17-release biedt onder meer de volgende voordelen:

  • Snelle ontwikkeling van multi-cloud data-pipelines: Talend Summer ‘17 biedt nieuwe connectors voor Azure, Cloudera en Google Cloud ter ondersteuning van big data-, NoSQL-, cloud data warehousing-, en messaging-toepassingen. De nieuwe versie van Talend Data Fabric vertegenwoordigt daarnaast een brancheprimeur door de ondersteuning voor Cloudera Altus. Deze PaaS-oplossing helpt organisaties met het vereenvoudigen van het implementeren van intelligente data-pipelines voor Cloudera. Hierdoor is minder operationele ondersteuning nodig.
  • Snelle migratie naar de cloud: Talend Summer ’17 maakt snelle migratie van gegevens op locatie naar de cloud mogelijk. Organisaties kunnen daarnaast eenvoudig data warehouses inrichten in de cloud, rijkere analysemogelijkheden gebruiken en sneller inzichten verkrijgen. Talend levert met de nieuwe release ook de snelste bulk loader-connector af voor Snowflake. Deze versnelt de gegevensoverdracht tussen locaties. Met tools voor datakwaliteit, visuele gegevensextractie, datatransformatie en het laden van gegevens, maakt Talend het mogelijk om data on-premises en in de cloud sneller naar Snowflake te migreren.
  • ‘Build once, use everywhere’: Talend Summer ’17 biedt de flexibiliteit en portabiliteit die nodig is om programmeerwerk voor één platform ook op andere cloud-platformen te hergebruiken. Bedrijven kunnen zo snel nieuwe innovaties op het gebied van cloud-diensten inzetten en hun huidige programmeerwerk toekomstbestendig maken. Tevens kunnen ze data op nieuwe manieren combineren om sneller te innoveren en kosten terug te dringen.
    • Datakwaliteit door machine learning op big data-niveau: Door exponentiële gegevensgroei moeten organisaties nieuwe manieren vinden om data op grote schaal op te schonen en te combineren, met zo min mogelijk tussenkomst van mensen. Talend Summer ’17 maakt gebruik van door Apache Spark ondersteunde algoritmes voor machine learning voor het automatiseren, opschonen en combineren van gegevens. Dit verbetert de schaalbaarheid, prestaties en nauwkeurigheid. De algoritmes leren van de beslissingen door data-curators, waardoor ze steeds accuratere resultaten afleveren. Deze nieuwe algoritmen en mogelijkheden voor machine learning zijn ontwikkeld voor een naadloze samenwerking met de intuïtieve Data Stewardship-app van Talend, die bijdraagt aan voortdurende verbetering van datakwaliteit.

Bedrijven in alle sectoren wereldwijd maken gebruik van de producten van Talend en partners om echt datagestuurde oplossingen te ontwikkelen.

“Talend en Snowflake werken al jarenlang samen en daar profiteren onze gezamenlijke klanten voortdurend van”, zegt Walter Aldana, Vice President Alliances bij Snowflake. “Met de laatste connector voor Snowflake kunnen organisaties hun data nog efficiënter overzetten naar Snowflake. De architectuur van Talend maakt gebruik van Snowflake-mogelijkheden voor het gelijktijdig laden van data. Dit biedt onze klanten de mogelijkheid om eenvoudig diverse typen data te laden, zodat ze sneller op cloud gebaseerde datawarehouses kunnen inrichten.”

Prijzen en beschikbaarheid                                                               

Talend Summer ’17 is met ingang van 29 juni 2017 via updates beschikbaar voor alle Talend Data Fabric-abonnementhouders. Gebruikers van Talend Integration Cloud worden automatisch opgewaardeerd naar de nieuwe versie. Organisaties die een licentie willen aanschaffen voor Talend Data Fabric of Talend Integration Cloud, kunnen voor prijs- en pakketinformatie terecht bij een verkoopmedewerker van Talend via sales@talend.com.

]]>
Wed, 14 Jun 2017 16:10:13 +0200 Talend introduceert multi-cloud big data-integratieoplossing http:///item/923373/talend-introduceert-multi-cloud-big-data-integratieoplossing.html&field=Foto1&rType=crop&height=165&width=165.jpg
“Slechts een op vier bedrijven in de Benelux begrijpt impact van GDPR voor eigen organisatie” http:///item/923260/a-slechts-een-op-vier-bedrijven-in-de-benelux-begrijpt-impact-van-gdpr-voor-eigen-organisatiea.html Sophos heeft vandaag de onderzoeksgegevens bekendgemaakt van de impact die GDPR zal hebben op bedrijven in het Verenigd Koninkrijk, Frankrijk en de Benelux. In het onderzoek van Vanson Bourne werden 625 IT-besluitvormers in vier landen geïnterviewd en is gebleken dat Frankrijk en de Benelux vooroplopen wat betreft het conformeren van hun bedrijfsvoering met GDPR maar dat er nog steeds veel moet gebeuren.

De meest zorgwekkende cijfers geven aan dat 54 procent van de bedrijven niet goed begrijpt wat de aan GDPR gekoppelde boetes inhouden. Bedrijven die GDPR niet naleven, krijgen te maken met zware boetes van tot wel € 20 miljoen of 4 procent van de totale wereldwijde omzet. Bijna één op de vijf (17 procent) van alle geïnterviewde bedrijven gaf toe dat ze in geval van een boete hun bedrijf zouden moeten sluiten. Dit cijfer stijgt naar 54 procent voor kleine bedrijven met minder dan 50 medewerkers. Het sluiten van bedrijven zou niet het enige effect zijn: 39 procent van de IT-besluitvormers gaf aan dat boetes ook zouden leiden tot ontslagen binnen hun bedrijf.

Ondanks die bezorgdheid beschouwt slechts 6 procent van de bedrijven in het VK GDPR als een topprioriteit, in tegenstelling tot Frankrijk (30 procent) en de Benelux (25 procent). Nog zorgwekkender is dat 20 procent van de bedrijven in het VK de GDPR als een lage prioriteit beschouwt, een veel hoger cijfer in vergelijking met Frankrijk (8 procent) en de Benelux (11 procent).

Is Europa klaar voor GDPR? 
Bijna één op de vijf bedrijven claimde al aan de regelgeving te voldoen in Frankrijk (19 procent) en de Benelux (18 procent), maar wederom staat het VK op de laatste plaats: slechts 8 procent geeft er momenteel aan dat zij voldoen aan GDPR.

“Het conformeren aan GDPR is een langdurig proces en als de regelgevende instanties vanaf mei 2018 laten zien dat ze bereid zijn om de maximale boete op te leggen, zullen bedrijven het betreuren dat ze niet voorbereid zijn,” aldus John Shaw, VP Product Management, Sophos. “55 procent van de bedrijven is er niet volledig gerust op dat ze op de deadline aan de regelgeving kunnen voldoen, waardoor ze een risico lopen op grote boetes. Met nog slechts een jaar te gaan, moeten de topprioriteiten qua IT-beveiliging voor bedrijven liggen bij het verminderen van de grootste oorzaken van gegevenslekken – het hacken van endpoint-computers en het verlies van apparaten (mobiele telefoons en laptops) – en het implementeren van GDPR-compliance.”

Bedrijven in heel Europa brengen hun bedrijfsvoering langzaam in overeenstemming met GDPR, waarbij 42 procent denkt dat ze dit in mei zeker geregeld hebben, maar er is nog veel te doen:

  • Slechts 42 procent heeft een functionaris Gegevensbescherming aangesteld, een veel kleiner aantal dan verwacht; 
  • Momenteel heeft slechts de helft van de organisaties maatregelen ingevoerd om te garanderen dat de persoon van wie gegevens worden verzameld, toestemming geeft voor gegevensverzameling; 
  • 44 procent heeft procedures in het leven geroepen voor het verwijderen van persoonsgegevens in geval van een verzoek om “the right to be forgotten” of als een persoon bezwaar maakt tegen het verwerken van zijn/haar gegevens;
  • Minder dan de helft (45 procent) is in staat om binnen de 72 uur na ontdekking een gegevenslek te melden.

Wie is verantwoordelijk? 
In 70 procent van de bedrijven is het IT-team of het IT-beveiligingsteam verantwoordelijk voor het naleven van GDPR. Opvallend: het onderzoek geeft aan dat slechts 4 procent van de juridische teams en 13 procent van de directeuren of het senior management verantwoordelijk is voor de implementatie. Dit legt veel druk op de IT-teams, waarbij veel IT-besluitvormers het gebrek aan bewustzijn bij belangrijke besluitvormers aangeven als reden waarom bepaalde protocollen niet zijn ingevoerd, zoals het kunnen melden van een gegevenslek binnen de 72 uur na de ontdekking – een essentieel aspect van GDPR-compliance.

Het goede nieuws is dat 65 procent van de organisaties een beleid voor gegevensbescherming heeft ingevoerd en dat 98% van de organisaties een formeel plan voor werknemers heeft of dit momenteel implementeert, waarin het beleid voor gegevensbescherming wordt beschreven, alsook wat er van werknemers wordt verwacht wanneer ze omgaan met persoonsgegevens. Dit laat zien dat organisaties vooruitgang boeken inzake gegevensbeveiliging op de werkplek en dat ze werknemers aanmoedigen om de zaak serieus te nemen.

Verwarring over Brexit en GDPR 
Ondanks de Brexit zal Brittannië nog steeds volledig moeten voldoen aan GDPR. Uit het onderzoek is echter gebleken dat veel bedrijven in het VK denken dat de brexit mogelijk inhoudt dat ze hieraan niet langer hoeven te voldoen, waarbij 26 procent van de organisaties in het VK toegeeft sinds de Brexit minder goed te weten wat er nodig is om aan de verordening te voldoen, of te denken dat ze hieraan niet hoeven te voldoen. Deze totaal onjuiste theorie zal er mogelijk voor zorgen dat veel bedrijven de deadline missen en te maken krijgen met zware boetes.

Het Brexit-effect stopt niet in het VK. 66 procent van de bedrijven in Frankrijk en de Benelux geeft toe dat ze zich in meer of mindere mate zorgen maken over gegevensbescherming nu het VK uit Europa is gestapt. Het is duidelijk dat de Brexit zorgt voor onzekerheid en verwarring aan beide kanten van het Kanaal, maar ondanks de Brexit moeten bedrijven aan beide zijden van het Kanaal nog steeds voldoen aan de GDPR tegen de deadline van mei 2018.

]]>
Wed, 14 Jun 2017 13:53:50 +0200 “Slechts een op vier bedrijven in de Benelux begrijpt impact van GDPR voor eigen organisatie” http:///item/923260/a-slechts-een-op-vier-bedrijven-in-de-benelux-begrijpt-impact-van-gdpr-voor-eigen-organisatiea.html&field=Foto1&rType=crop&height=165&width=165.jpg
MarkLogic enterprise NoSQL database nu ook beschikbaar op Microsoft Azure http:///item/923259/marklogic-enterprise-nosql-database-nu-ook-beschikbaar-op-microsoft-azure.html MarkLogic Corporation, leverancier van een operationele en transactionele Enterprise NoSQL database, kondigt aan dat het MarkLogic enterprise NoSQL databaseplatform nu ook op Microsoft Azure beschikbaar is.

In de snel veranderende datagedrevenwereld van vandaag hebben bedrijven behoefte aan een flexibel databaseplatform dat ze snel en veilig naar de cloud kunnen verplaatsen om innovatie te stimuleren. Het MarkLogic enterprise NoSQL databaseplatform op Microsoft Azure geeft klanten de flexibiliteit die ze nodig hebben om een 360-graden beeld van hun gegevens in de cloud te creëren, of die nu op Microsofts gecertificeerde cloud-platform staan of in een hybride cloud. Hierdoor kunnen ze naadloos toepassingen ontwikkelen en implementeren, digitale transformatieprojecten starten of tijdelijke cloud-implementaties doen. Met het MarkLogic-platform op Microsoft Azure kunnen klanten bovendien gemakkelijk en zonder downtime apps en projecten op- en afschalen. Bovendien werkt dit met een optimale implementatie- en transactieconsistentie, wat voor klanten een maximale operationele efficiëntie oplevert.

“Er vinden ongekende veranderingen in de markt plaats. Zo moeten bedrijven hun databaseplatform naar de cloud kunnen verplaatsen voor de potentiële financiële en operationele voordelen die ze nodig hebben om effectief te kunnen concurreren,” zegt Joe Pasqua, executive vice president of products bij MarkLogic. “Maar wanneer bedrijven naar de cloud migreren, ontdekken ze vaak dat relationele databaseoplossingen niet flexibel genoeg zijn om de complexe gegevenstypen te integreren die nodig zijn voor bedrijfskritische applicaties en projecten. Dit kost ze veel waardevolle tijd en geld.”

“Onze klanten weten ook dat ze in een tijdperk van constante datalekken niet kunnen besparen op security,” voegt Pasqua toe. “Dat is een van de belangrijkste redenen waarom we voor Microsoft Azure hebben gekozen. Microsoft Azure is de meest vertrouwde, compliant cloud service provider. Daarnaast is erg belangrijk dat ze een breed scala van wereldwijde beveiligingscertificeringen hebben. Dit, gecombineerd met de toonaangevende gegevensbeveiligingsfuncties van MarkLogic waaronder geavanceerde encryptie met element level security, verzekert onze gezamenlijke klanten ervan dat hun gegevens niet alleen uitermate beschikbaar, consistent en beheersbaar zijn, maar bovendien veilig.”

“We zijn verheugd dat MarkLogic zijn NoSQL-databaseplatform beschikbaar maakt op de Microsoft Azure Marketplace,” zegt Nicole Herskowitz, senior director van productmarketing Azure bij Microsoft Corp. “In de hedendaagse on-demand economie waar data-agility en digitale innovatie van het grootste belang zijn, kunnen klanten nu profiteren van het platform van MarkLogic om ze te helpen hun digitale transformatiestrategieën in de cloud te versnellen.”

Op dit moment vertrouwen meer dan duizend organisaties wereldwijd op MarkLogic, van Fortune 500 bedrijven tot overheidsinstanties, om zakelijke resultaten en bedrijfskritische applicaties te realiseren door middel van een actiegerichte 360-​​graden weergave van hun gegevens.

]]>
Wed, 14 Jun 2017 13:45:21 +0200 MarkLogic enterprise NoSQL database nu ook beschikbaar op Microsoft Azure http:///item/923259/marklogic-enterprise-nosql-database-nu-ook-beschikbaar-op-microsoft-azure.html&field=Foto1&rType=crop&height=165&width=165.jpg
Quint Wellington Redwood en Target Holding bundelen krachten http:///item/923076/quint-wellington-redwood-en-target-holding-bundelen-krachten.html Management adviesbureau Quint Wellington Redwood en big data expert Target Holding bundelen hun kennis en ervaring om de potentie van big data om te zetten naar praktische toepassingen. Met als resultaat een unieke propositie waarmee de waarde van data volledig tot uiting kan worden gebracht in de digitale transformaties die veel organisaties momenteel doormaken. Het praktisch toepassen van kunstmatige intelligentie en machine-learning in uiteenlopende gebieden zoals energie- en watermanagement, media en entertainment, healthcare en beleid en uitvoering, komt zo binnen handbereik.

Ontsluiten van de waarde van data

“Veel van onze opdrachtgevers vragen zich af wat ze aan moeten met de enorme hoeveelheid data die vandaag de dag beschikbaar is. Hoe genereer en ontsluit ik die data en welke waarde heeft het? Door deze bundeling van krachten kunnen we de vragen van onze opdrachtgevers beantwoorden. Het Big Data Analytics Framework van Target verzamelt data van allerlei bronnen. Deze data wordt verrijkt met kunstmatige intelligentie en zelflerende algoritmes voor onder meer patroonherkenning, voorspelling, classificatie en vervolgens gevisualiseerd. We kunnen zo de data laten spreken”, aldus Maurice Boon, CEO van Quint Wellington Redwood.

“We hebben aan de wieg gestaan van big data in Nederland en daardoor de afgelopen jaren enorm veel kennis en ervaring opgedaan in het ontwikkelen van geavanceerde, zelflerende algoritmes op zeer grote, complexe datasets en de bijbehorende platformen als Hadoop en Apache Spark waarmee we opdrachtgevers in staat stellen om innovatieve en disruptieve big data vraagstukken op te lossen. Het is nu tijd om deze expertise breder ter beschikking te stellen aan de opdrachtgevers”, aldus Gert-Jan van Dijk, CEO Target Holding.

Data als core business

Door de bundeling van kennis en ervaring ontstaat tevens een toegankelijk en volledig portfolio aan data analytics gerelateerde opleidingen. Dit gezamenlijke portfolio heeft tot doel om de medewerkers van opdrachtgevers zelf op te leiden in plaats van dat bedrijven structureel externe capaciteit moeten betrekken. Data analytics en datamanagement worden core business en onmisbaar voor elk bedrijf.

]]>
Wed, 14 Jun 2017 09:03:26 +0200 Quint Wellington Redwood en Target Holding bundelen krachten http:///item/923076/quint-wellington-redwood-en-target-holding-bundelen-krachten.html&field=Foto1&rType=crop&height=165&width=165.jpg
Deloitte winnaar Accountability Hack 2017 http:///item/922289/deloitte-winnaar-accountability-hack.html Op vrijdag 9 juni heeft het Deloitte-team Delight de eerste prijs gewonnen tijdens de Accountability Hack 2017. Tijdens deze hackathon werd door dertig verschillende teams gewerkt aan het op innovatieve wijze in kaart brengen van open data.

Tijdens de 8-uur durende hackathon ontwikkelde het team van zes data-specialisten een app die het mogelijk maakt om uitgaven en prestaties van gemeenten op een eerlijke manier met elkaar te vergelijken. Hierbij is gekeken naar de thema’s zorg, onderwijs en veiligheid en zijn gemeenten op basis van relevante karakteristieken en kwaliteitsindicatoren per afzonderlijk thema vergeleken. De applicatie helpt gemeenten de effectiviteit van hun uitgaven te verhogen.

Aan het eind van de dag heeft ieder team zijn applicatie aan de jury gepitched en kwam het team van Deloitte als winnaar uit de bus. De jury prees het winnende team vanwege de verrassende koppeling tussen inhoudelijke en financiële informatie; de kern van publieke verantwoording.

Mark Boersma, advanced analytics manager binnen Deloitte en teamlid Delight: “We vinden het vanuit Deloitte belangrijk om mee te doen omdat er zoveel meer mogelijk is met data-analyse en dit een kans is om het ook te laten zien. Daarnaast is het natuurlijk bijzonder leuk om mee te doen en leren we zelf veel van het in sneltreinvaart ontwikkelen van een applicatie.”

Over de Accountability Hack
De hackathon daagt developers, data-analisten en designers uit om met overheidsdata resultaten en effecten van overheidsmaatregelen op innovatieve wijze in kaart te brengen. De dertig deelnemende teams kregen hier 8 uur de tijd een applicatie te bouwen en vervolgens te pitchen aan de jury. De Accountability Hack werd voor de tweede keer georganiseerd en is een initiatief van de Algemene Rekenkamer, Open State Foundation, Tweede Kamer, CBS en diverse ministeries.

]]>
Tue, 13 Jun 2017 12:19:42 +0200 Deloitte winnaar Accountability Hack 2017 http:///item/922289/deloitte-winnaar-accountability-hack.html&field=Foto1&rType=crop&height=165&width=165.jpg
Directeur Nederland ICT treedt toe tot Executive Board DIGITALEUROPE http:///item/922287/directeur-nederland-ict-treedt-toe-tot-executive-board-digitaleurope.html Lotte de Bruijn is per 13 juni lid van de Executive Board van DIGITALEUROPE, de Europese vertegenwoordiger van de digitale sector. De Bruijn is als directeur van branchevereniging Nederland ICT door een meerderheid van de leden verkozen om plaats te nemen in de raad. Nederland ICT is al langer actief lid van DIGITALEUROPE.

Grotere rol Europa

De Bruijn: “Europa wordt steeds bepalender voor de toekomst van digitale technologie in Nederland. Als bestuurslid van DIGITALEUROPE zit ik dicht op het vuur. Dat helpt ons om op nationaal niveau de belangen van onze leden nog beter te behartigen.”

Op dit moment spelen er binnen de EU belangrijke discussies over onder andere de veiligheid van internet of things, internationale datastromen en het filteren van digitale content. De Bruijn: “Ik kijk er naar uit om met Europese collega’s samen te werken aan deze belangrijke onderwerpen en de kennis en ervaring van Nederland ICT te delen.”

Over de DIGITALEUROPE Executive Board
DIGITALEUROPE is de belangrijkste vertegenwoordiger van de digitale sector in Brussel. De Executive Board van DIGITALEUROPE bestaat uit tien vertegenwoordigers van technologiebedrijven en tien vertegenwoordigers van nationale brancheverenigingen. Nieuwe bestuursleden worden voor een periode van twee jaar verkozen door de leden van DIGITALEUROPE. De Executive Board coördineert verschillende werkgroepen van leden en bepaalt de prioriteiten, standpunten en strategie binnen de organisatie.

Over Nederland ICT
Nederland ICT is de branchevereniging van de ICT-sector met ruim 550 aangesloten bedrijven. De leden zijn actief in alle lagen van de digitale economie: infrastructuur, telecom, hardware, software en dienstverlening. Daarmee is Nederland ICT dé belangenbehartiger en vertegenwoordiger van de branche in volle breedte.

]]>
Tue, 13 Jun 2017 12:15:19 +0200 Directeur Nederland ICT treedt toe tot Executive Board DIGITALEUROPE http:///item/922287/directeur-nederland-ict-treedt-toe-tot-executive-board-digitaleurope.html&field=Foto1&rType=crop&height=165&width=165.jpg
Data Analytics is Transforming Healthcare Systems http:///item/917793/data-analytics-is-transforming-healthcare-systems.html Big Data Analytics is entirely transforming business paradigms. Automated databases are enabling businesses to perform mundane tasks more efficiently. And, the commercial sector isn't the only area to benefit from data analytics. Its impact is widespread and is being seen across many different sectors, including healthcare.

Access to healthcare facilities is a basic, human need. However, the healthcare sector is extremely expensive, even when compared to the other developed economies. In the United States, the burden of the expense ultimately falls on the consumer since the sector is mostly dominated by private companies. America, however, ends up spending more on its public healthcare system than countries where the system is fully publicly funded.

Under such circumstances where people are paying a significantly higher price, they deserve a service that matches the price tag. The question is then: how can data analytics help increase the efficiency of healthcare systems in United States and around the world?

Performance Evaluation
Keeping a tab on hospital activities by maintaining relevant databases can help administrators find inefficiencies in service provision. Based on the results found from data analysis, specific actions can be taken to reduce the overall costs of a healthcare facility. Reduced costs may be reflected in the form of reduced expense burden on the consumers of those healthcare facilities.

According to U.S News and World Report, Beaufort Memorial Hospital in South Carolina found that they could save approximately $435,000 annually by implementing a simple act of discharging patients half a day early. Hospital administration didn’t just make a random decision. They reached their conclusion after carefully analyzing the data. Such is the scope of data analytics in the field of healthcare.

Financial Planning
Data Analysis also helps administrators to allocate funds efficiently. An organization can achieve maximum transparency in terms of finances by incorporating automated database systems. The chances of embezzlement and fraud can be reduced significantly. The United States spends approximately 7.4% of public spending on the healthcare sector. A significant amount of money is lost annually due to fraudulent activities in the health sector. George Zachariah, who is a consultant at Dynamics Research Corporation in Andover, says that, “In recent times it has become imperative for the organizations to use analytics tools to track fraudulent behavior and incorrect payments."

Patient Satisfaction
We have already established the idea that by incorporating analytics in healthcare systems we can improve the efficiency of the organization in terms of administrative tasks. However, the core objective of a healthcare facility is to cater to the needs of patients. Data analytics has not only proven to be beneficial for the mundane tasks related to administration but also to have a positive impact on a patient’s overall experience. By maintaining a database of patients’ records and medical histories a hospital facility can cut down the cost of unnecessary, repetitive processes.

In addition, analytics can help in keeping an updated record of a patient’s health. With the adoption of more advanced analytics techniques, healthcare facilities can even remind patients to maintain a healthy lifestyle and provide lifestyle choices based on their medical conditions. After all, the whole purpose of introducing digital technology in the health sector is to make sure that people are getting the best facilities at a subsidized cost.

Healthcare Management
Automating the processes can help healthcare organizations to obtain useful metrics about the population. It can reveal information such as, if a certain segment of the population is more prone to a certain disease. Moreover, if a healthcare facility is operated in multiple units, analytics can prove beneficial to ensure the consistency across all facilities and specific departments. For example, Blue Cross of Idaho used Pyramid Analytics BI office to create a population health program. The results were evident in the form of reduced ER visits and emergency cases.

Quality Scores and Outcome Analysis
Under certain circumstances, a patient requires consultation from various specialists. Analytics can play a significant role in filling the communication gaps between consultants in such situations. It is important for each of the consultants to coordinate for the patient's quick recovery. However, owing to the busy schedules of the consultants most of the time it proves to be very inconvenient for them to communicate. Digitalizing can solve the problem by providing a communication medium where patients data, medical history and current progress can be stored and reviewed by each individual working on that case. By keeping a continuous check on patients’ health, cases of readmission can also be greatly reduced. A regional medical center can employ analytics to strategically classify patients based on their quality scores and allocate maximum resources to patients most at risk.

Labor Utilization
In addition to the patients’ data, hospitals and healthcare facilities can also store staff’s data. They can observe staff performance and find any loopholes or inefficiencies in the system. Based on the results, they can arrange that staff is divided strategically across departments. Some healthcare units call for more staff than others. Failure to understand the organization’s requirements will lead to a loss for both stakeholders.

]]>
Tue, 13 Jun 2017 00:06:17 +0200 Data Analytics is Transforming Healthcare Systems http:///item/917793/data-analytics-is-transforming-healthcare-systems.html&field=Foto1&rType=crop&height=165&width=165.jpg
ALFAM introduceert eerste publieke API voor consumptief kredietaanvragen in Nederland http:///item/921473/alfam-introduceert-eerste-publieke-api-voor-consumptief-kredietaanvragen-in-nederland.html ALFAM, dochteronderneming van ABN AMRO en verstrekker van consumptieve kredieten, vernieuwt de digitale samenwerking met haar distributiepartners. Met de introductie van een publieke API stelt ALFAM, via haar label DEFAM, distributiepartners in staat om het proces van kredietaanvragen volledig in hun eigen systemen te integreren. ICT-dienstverlener Info Support heeft het gehele veranderproces begeleid en de technische realisatie en implementatie verzorgd. Uniek in de aanpak is dat de moderne publieke API in co-creatie is ontwikkeld met drie distributiepartners waardoor een snelle time-to-market is gerealiseerd.

Volledige transparantie, minder fouten en een verbeterde klantbeleving
De publieke API levert veel voordelen op voor zowel de distributiepartners als ALFAM. Distributiepartners hoeven bijvoorbeeld niet meer met verschillende systemen te werken en hebben volledig inzicht in de status van de kredietaanvragen. Zij bieden hiermee een betere dienstverlening aan hun klanten doordat kredietaanvragen realtime kunnen worden afgehandeld. Voor ALFAM is een groot voordeel dat de aanleverkwaliteit van aanvragen aanzienlijk verbetert. Het reduceert de kans op fouten en versnelt de afhandeling. De vernieuwde IT-infrastructuur biedt bovendien de mogelijkheid om de bij een aanvraag verplichte documenten direct, snel en veilig te uploaden. Dit maakt het administratieve proces voor de distributiepartner nog gebruiksvriendelijker.

Beveiligde gegevensuitwisseling
De API is door Info Support ontwikkeld op basis van open standaarden met .NET en authenticatie vindt plaats op basis van OpenID Connect. De gegevens die worden uitgewisseld bij kredietaanvragen zijn persoonlijk en vertrouwelijk en dit vereist een optimale beveiliging. Beveiliging en authenticatie zijn daarom belangrijke aandachtspunten geweest binnen het project. De beveiligingsmaatregelen zijn inmiddels uitvoerig getest en goedgekeurd door een gerenommeerd consultancybureau.

Transitie in de financiële sector
Met de publieke API loopt ALFAM vooruit op ontwikkelingen binnen de financiële sector. De API is volledig compliant met de voorschriften van de Europese Payment Service Directive 2 (PSD2) die Europese banken voorschrijft om hun betalingsgegevens open te stellen voor derden. ALFAM is als kredietverstrekker niet gebonden aan deze regelgeving, maar het bedrijf wil leidend blijven binnen de financiële sector door een vernieuwende visie op digitaal samenwerken te ontwikkelen en deze snel te implementeren in zijn processen en systemen.

“Met onze vernieuwde aanvraagstraat en publieke API zetten wij een belangrijke stap in het verbeteren van de digitale samenwerking met onze distributiepartners”, stelt Gerard van der Star, hoofd Verkoop DEFAM. “De hele financiële sector verschuift naar meer openheid en wij zien hierin ook voldoende kansen. Wanneer het gaat om het uitwisselen van persoonlijke en financiële gegevens is de eerste prioriteit uiteraard het goed beveiligen van de gegevensuitwisseling. Info Support heeft ons geholpen om onze architectuur toekomstbestendig te maken en voorop te blijven lopen met onze dienstverlening.” 

“Consumenten verwachten transparantie en een snelle service; ook bij kredietaanvragen. Dit vereist een nauwe samenwerking tussen de kredietverstrekker en de distributiepartners, zonder afbreuk te doen aan de privacy van de klant en informatiebeveiliging”, stelt Dennis Joosten, Business Unit Manager bij Info Support. “ALFAM laat niet alleen zien dat het mogelijk is om systemen in te richten voor het veilig uitwisselen van financiële gegevens met externe partijen, maar ook dat innoveren in co-creatie met eindgebruikers zorgt voor een beter eindproduct en een aanzienlijk snellere time-to-market. Al na zes weken konden we de eerste resultaten laten zien van de open API.”  

De open API wordt door de betrokken distributiepartners uitvoerig getest en geoptimaliseerd. Later dit jaar wordt de API beschikbaar gesteld voor alle distributiepartners.

]]>
Mon, 12 Jun 2017 15:19:48 +0200 ALFAM introduceert eerste publieke API voor consumptief kredietaanvragen in Nederland http:///item/921473/alfam-introduceert-eerste-publieke-api-voor-consumptief-kredietaanvragen-in-nederland.html&field=Foto1&rType=crop&height=165&width=165.jpg
SPS levert als eerste de Managed Azure Stack http:///item/921472/sps-levert-als-eerste-de-managed-azure-stack.html SPS, specialist in IT-beheer en ontwikkelaar van IT-beheersoftware Gensys, is early adopter van de Microsoft Azure Stack op het Lenovo-platform en heeft nu als eerste haar beheersoftware voor de Azure Stack geschikt gemaakt. Azure Stack is een appliance die organisaties de mogelijkheid biedt om on-premises over Azure Cloud-functionaliteiten te beschikken. Klanten kunnen hierdoor hun eigen cloudomgeving opbouwen en Azure-services vanuit het eigen datacenter leveren. SPS is de eerste partij die een Managed Azure Stack aanbiedt.

Azure Stack biedt integratie- en uitwisselingsmogelijkheden met de public Azure Cloud, waardoor toepassingen in een hybride omgeving kunnen worden geïmplementeerd en gemanaged. Klanten profiteren hierdoor van de schaalbaarheid en flexibiliteit van Azure en voldoen tegelijkertijd aan technische en wettelijke eisen. Zo kunnen organisaties van de voordelen van de Azure-services genieten en daarbij hun data veilig binnen de eigen deuren houden.

Ketenbeheer hybride cloud

Door Gensys voor Azure Stack geschikt te maken, is volledig ketenbeheer van een hybride omgeving mogelijk. Dit geldt ook als Azure Stack en Azure Cloud onderdeel uitmaken van de IT-omgeving. SPS integreert het beheer van de on-premises IT, private clouds, Azure Cloud en Azure Stack in één beheeroplossing.


Linda Verweij, COO bij SPS: “Azure Cloud biedt alsmaar meer mogelijkheden voor organisaties. Het gebruik van Azure-services neemt toe, maar wordt tevens geremd door technische beperkingen en interne en externe regelgeving op security- en privacy-aspecten. Door Azure Stack in te zetten kunnen die obstakels worden weggenomen. Gensys en de kennis en ervaring die wij hebben verkregen als early adopter hebben ervoor gezorgd dat de Managed Azure Stack er nu is. Wanneer Azure Stack wordt opgenomen in een hybride omgeving kan die omgeving end-to-end worden beheerd.”

]]>
Mon, 12 Jun 2017 15:14:46 +0200 SPS levert als eerste de Managed Azure Stack http:///item/921472/sps-levert-als-eerste-de-managed-azure-stack.html&field=Foto1&rType=crop&height=165&width=165.jpg
Announcing WhereScape Data Vault Express http:///item/917751/announcing-wherescape-data-vault-express.html Mark Budzinski, CEO of WhereScape, discusses the promise behind the debut of WhereScape Data Vault Express, the first and only automation software designed specifically for the creation, design and operation of enterprise Data Vaults.

In my interactions with customers, I consistently find that the urgency to bring value from data to analysts and decision makers is sharpening everyone’s thinking. Business users need data now, in a form they want, and without compromise. Some organizations take a rounded off approach, and overinvest in the expectation that front end tools (for “blending” and “virtualizing” data) can save the day. The more enlightened companies understand that front ends are important, but yikes…don’t forget we have real data infrastructure to manage. We have to get both ends of the machine right.

The Data Vault business system of intelligence, developed by Daniel Linstedt, offers an approach to building and managing data infrastructure for long term resiliency, while serving the needs of the business in an active, agile manner. The uptick in adoption of this methodology in Europe has taken shape over the last few years. But now, more and more IT shops in the USA are giving it a look. The promises of a Data Vault architecture are compelling. The challenge is, “How do we build one of these, and do it quickly?” Some firms, who would otherwise love to have a Data Vault, quit on themselves early in the process because they perceive it’s all just going to be too hard. It’s a pity, really.

This changes today with our debut at the Worldwide Data Vault Consortium (WWDVC2017) of WhereScape Data Vault Express, the first and only automation software designed for the design, creation and operation of enterprise Data Vaults that embeds the Data Vault 2.0 business system methodology. Our vision in delivering Data Vault Express to market is that it will better arm organizations with the needed toolset to greatly reduce the complexity, costs and risks of Data Vault projects, and further support an increased industry adoption of a valuable standard.

Through WhereScape Data Vault Express, development teams will now have access to embedded Data Vault 2.0 patterns and best practices, templates and wizards from within WhereScape 3D and WhereScape RED, our integrated automation platform. These new tools will help organizations deliver analytics solutions to the business far more quickly, at a lower cost and with less risk than the do-it-yourself approaches currently required.

As further validation of its value, Daniel Linstedt has commented, “WhereScape Data Vault Express can reduce the complexity and costs associated with building and updating Data Vaults to meet the standard. It will also dramatically shorten the learning curve for teams new to the Data Vault methodology.”

So, this is exciting for WhereScape, and for organizations who are ready to employ Data Vault 2.0 within their analytics infrastructure and begin to realize the consistency, resiliency, and other far-reaching benefits it provides. WhereScape Data Vault Express will help these organizations shorten the journey.

Mark Budzinski is CEO of WhereScape.

]]>
Mon, 12 Jun 2017 12:47:49 +0200 Announcing WhereScape Data Vault Express http:///item/917751/announcing-wherescape-data-vault-express.html&field=Foto1&rType=crop&height=165&width=165.jpg
Goldfish ICT overgenomen door SAP-consultancybedrijf itelligence Benelux http:///item/917792/goldfish-ict-overgenomen-door-sap-consultancybedrijf-itelligence-benelux.html Goldfish ICT uit Waardenburg en itelligence Benelux Holding hebben bekend gemaakt dat itelligence Benelux Holding alle aandelen Goldfish overneemt en Goldfish ICT onderdeel wordt van de itelligence Group. itelligence AG is SAP-consultancybedrijf voor de MKB-sector en verstevigt met de overname haar aanwezigheid in de Benelux.

Norbert Rotter, CEO itelligence AG: "Met Goldfish versterken we onze aanwezigheid in de economisch belangrijke Benelux-regio, waardoor we toegang krijgen tot interessante, snel groeiende klanten, met name uit de farmaceutische industrie en de Life Science- en agrarische sectoren. Het SAP-portfolio van itelligence kan in deze marktsegmenten zorgen voor een enorm innovatiepotentieel voor onze nieuwe Benelux-klanten. We zijn erg blij met de knowhow van onze branche-ervaren Goldfish-collega's, die we in de toekomst wereldwijd willen gaan inzetten."

Goldfish ICT werd in het jaar 2000 opgericht en biedt vandaag de dag als Full Service Provider, naast proces- en IT-consultancydiensten die op SAP-oplossingen zijn gebaseerd, ook een omvangrijk aanbod Managed Service-diensten aan. De ongeveer 70 medewerkers leveren consultancydiensten bij nationale en internationale rollouts voor grote klanten. De focus ligt hierbij met name op de markten Food & Agro, Life Sciences en Chemicals.
Dr. Michael Dorin, CFO itelligence AG: "Door de overname van Goldfish ICT zijn we weer een stap dichter bij ons strategische doel om in elk van onze belangrijkste afzetmarkten de leidende SAP-partner te zijn. In de Benelux is er nu zicht op aanzienlijke verkoopstijgingen in aantrekkelijke groeimarkten."

Internationale oplossingen
itelligence Benelux Holding is onderdeel van het wereldwijd opererende itelligence AG en biedt internationale oplossingen, diensten en ondersteuning aan op het gebied van SAP. Dit jaar is itelligence AG onderscheiden met twee SAP Pinnacle Awards, een voor 'SAP S/4HANA Partner of the Year - Small and Midsize Companies' en een voor 'Digital Marketing Momentum Partner of the Year'.
Wim Jansen, Managing Director itelligence Nederland: "Samen worden Goldfish en itelligence Benelux met meer dan 200 medewerkers en een jaaromzet van 40 miljoen euro een van de leidende SAP-partners in Nederland. Daarnaast kan de excellente sectorspecifieke knowhow van Goldfish als basis dienen voor een meer internationale focus op de groeimarkten Food en Pharma."

De oprichter en partners van Goldfish ICT, Rene Caubo, Frans Nieuweboer en Marcel Pothof, worden onderdeel van de itelligence Group. Ook het managementteam van Goldfish ICT en alle andere medewerkers zullen hun carrière bij itelligence voortzetten.

Meer informatie: itelligence

]]>
Mon, 12 Jun 2017 00:33:06 +0200 Goldfish ICT overgenomen door SAP-consultancybedrijf itelligence Benelux http:///item/917792/goldfish-ict-overgenomen-door-sap-consultancybedrijf-itelligence-benelux.html&field=Foto1&rType=crop&height=165&width=165.jpg
Interview with Rodney Monroe on the use of Predictive Analytics for Law Enforcements http:///item/916061/interview-with-rodney-monroe-on-the-use-of-predictive-analytics-for-law-enforcements.html At the Information Builders International Summit on May 30 2017, Rodney Monroe, retired Chief of Police at Charlotte-Mecklenburg Police Department, gave a session about how his police department used predictive and real time analytics in law enforcements. BI-Platform spoke with him about the benefits it gave them and how the deployment of Information Builders helped to get an integrated view.

]]>
Fri, 09 Jun 2017 17:00:26 +0200 Interview with Rodney Monroe on the use of Predictive Analytics for Law Enforcements http:///item/916061/interview-with-rodney-monroe-on-the-use-of-predictive-analytics-for-law-enforcements.html&field=Foto1&rType=crop&height=165&width=165.jpg
TIBCO lanceert StreamBase 10 voor Streaming Analytics http:///item/917791/tibco-lanceert-streambase-voor-streaming-analytics.html TIBCO Software heeft de nieuwste versie van haar streaming analytics-oplossing TIBCO StreamBase 10 aangekondigd. Deze release combineert de laatste predictive en streaming technologieën met best practices voor schaalbare toepassingen. TIBCO Software is aanbieder op het gebied van integratie, API management en analytics.

StreamBase 10 voegt ondersteuning toe voor DevOps tools in haar grafische ontwikkelomgeving, waardoor voor ontwikkelaars continuous delivery van streaming analytics applicaties mogelijk is. StreamBase 10 ondersteunt predictieve modellen en machine-learning modellen, die in combinatie met contextuele data beslissingen mogelijk maken om het beste resultaat voor het bedrijf in real time te bereiken. De verbeterde architectuur zorgt ook voor flexibiliteit, beschikbaarheid en schaalbaarheid om de meest uitdagende (volume)problemen te ondersteunen. De functies die TIBCO StreamBase 10 biedt moeten volgens het bedrijf IoT-architecturen kunnen ondersteunen die real-time inzicht en actie vereisen op basis van datastromen uit duizenden apparaten.

Meer informatie over TIBCO StreamBase 10

]]>
Fri, 09 Jun 2017 00:06:25 +0200 TIBCO lanceert StreamBase 10 voor Streaming Analytics http:///item/917791/tibco-lanceert-streambase-voor-streaming-analytics.html&field=Foto1&rType=crop&height=165&width=165.jpg
Relay42: GDPR is volgens Britse CMO verantwoordelijkheid van IT http:///item/917790/relay-gdpr-is-volgens-britse-cmo-verantwoordelijkheid-van-it.html Onderzoek van Relay42 heeft de grootste uitdagingen voor banken en andere financiële instellingen op het gebied van General Data Protection Regulation (GDPR) in kaart gebracht. Relay42 is aanbieder van een marketingdata managementplatform.

Uit het onderzoek, dat in het Verenigd Koninkrijk is uitgevoerd, blijkt dat 98 procent van de marketeers op C-level (CMO’s) vindt dat GDPR de verantwoordelijkheid is van IT. Slechts 4 procent zegt dat marketing een rol speelt bij het voldoen aan de wet- en regelgeving.
Hoewel CMO’s in de financiële sector aangeven dat ze klaar zijn voor de nieuwe wet- en regelgeving die op 25 mei 2018 wordt ingevoerd, is slechts 18 procent van hen in staat om de herkomst van data te identificeren. Slechts een kwart van de marketeers is er zeker van dat ze data van klanten kunnen bewerken, veranderen of verwijderen nadat een verzoek tot verwijdering van de gegevens wordt ingediend. Dit geeft aan dat veel CMO’s nog niet klaar zijn voor de praktische implicaties van GDPR. Een risico voor financiële instellingen.

Gebrek aan controle
Daarnaast heeft slechts 2 procent van de CMO’s op dit moment toegang tot machtigingen voor klantenapplicaties, terwijl meer dan de helft van de respondenten het afgelopen jaar een data export op hun computer of een device dat niet gemonitord wordt, heeft ontvangen. Dit gebrek aan controle over klantdata vormt een risico bij de invoer van de GDPR-updates in 2018.  

Relay42 schreef samen met Capgemini de whitepaper ‘GDPR for Financial Services Marketing: How to translate data regulation into customer opportunity’. Hierin wordt beschreven dat het momentum dat door GDPR gecreëerd wordt, juist door financiële instellingen gebruikt kan worden als een kans om lange termijn relaties met klanten op te bouwen die gebaseerd zijn op vertrouwen en transparantie.  

Krachten bundelen
Tomas Salfischberger, CEO van Relay42, zegt: “Mijn boodschap aan CMO’s is dat ze een belangrijke rol spelen in de GDPR-discussie en dat het van groot belang is dat ze hun krachten bundelen met zowel de juridische als de IT-afdeling. Juist marketeers die hun klanten de ultieme customer experience willen bieden, moeten beseffen dat controle over de eigen klantdata daar een onderdeel van is. De juiste datamanagement-oplossing, met flexibele consent management tooling en ingebouwde ‘privacy by design’ architectuur, is nodig voor het behalen van een hoog niveau van customer intimacy en loyaliteit.”  

Volgens Ron Tolido, Global CTO, Insights en Data Global Practice bij Capgemini, biedt de GDPR bedrijven een unieke kans om hun klantstrategie aan te passen, van reactief naar proactief. “Het gaat om het aangaan van een realtime dialoog met de klant, gebaseerd op transparantie en openheid, veilige persoonlijke data, vrije keuze en personalisatie. Deze benadering is goed uit te voeren met de inzet van de juiste technologie – een robuust datamanagement platform.”

Methodologie van het onderzoek
Het onderzoek is in opdracht van Relay42 uitgevoerd door het onafhankelijke onderzoeksbureau Censuswide. Er zijn 50 CMO’s in de financiële sector in het Verenigd Koninkrijk ondervraagd door middel van een online enquête. Om een representatief beeld te krijgen, werden quota’s gehanteerd op basis van leeftijd, geslacht en regio.

De whitepaper ‘GDPR for Financial Services Marketing’ is gratis te downloaden.

]]>
Fri, 09 Jun 2017 00:01:22 +0200 Relay42: GDPR is volgens Britse CMO verantwoordelijkheid van IT http:///item/917790/relay-gdpr-is-volgens-britse-cmo-verantwoordelijkheid-van-it.html&field=Foto1&rType=crop&height=165&width=165.jpg
Impressie en updates van de Information Builders International Summit 2017 http:///item/916064/impressie-en-updates-van-de-information-builders-international-summit.html Op 30 mei 2017 vond de Information Builders International Summit 2017 plaats. Plaats van handeling was het Holland Casino complex in Breda waar Information Builders haar roadmap ontvouwde en enkele boeiende praktijkcases voor het voetlicht bracht. Een van de cases betrof de inzet van predictive analytics bij de politie van Charlotte-Mecklenburg (North Carolina) waar ook een video-interview binnenkort van verschijnt.

BI-Platform sprak met keynote sprekers over de ontwikkelingen binnen business intelligence en specifieke ontwikkelingen bij Information Builders. Aan bod komen o.a. de BI-Portal, een predictive analytics case en master data oplossing iWay.

]]>
Thu, 08 Jun 2017 15:54:15 +0200 Impressie en updates van de Information Builders International Summit 2017 http:///item/916064/impressie-en-updates-van-de-information-builders-international-summit.html&field=Foto1&rType=crop&height=165&width=165.jpg
Why interoperability between BI styles and use cases is a big deal http:///item/917908/why-interoperability-between-bi-styles-and-use-cases-is-a-big-deal.html SAP makes a big thing on the interoperability of the new Lumira 2.0 analytics product that will be available expectedly July 2017. Lumira 2.0 is the new data discovery and dash boarding tool that converges the current SAP Lumira and SAP Design Studio. “Interoperability”, you’d say? … interoperability between what? … and why do we need that? … let me explain.

Bringing easy-to-use self-service data exploration and visualization to the end users has been key to SAP when launching Lumira a few years ago. It has been a success; Lumira lowered the adoption curve of end users to analytics enormously. The output of Lumira – so-called storyboards – can be published the SAP BI Platform to be consumed by others. However, when these same storyboards require to be professionalized, they must be rebuilt using SAP Design Studio. For this professionalization, you might think of bringing multiple storyboards together in one dashboard, or for example when cross-chart filtering, or complex filtering needs to be added to name a few. Also in case of required live connections to SAP BW, Design Studio is needed.

Lumira 2.0 will dramatically simplify the above: end users who create storyboards and require these to be professionalized towards enterprise-wide dashboards, can now have this done very easily in the same Lumira 2.0 product. We call this interoperability: the seamless cooperation and interactivity of storyboards or mock ups, with enterprise wide authored dashboards. Interoperability thus means bi-directional communication between storyboards and dashboards. Pretty catchy stuff, if you’d ask me!

Use cases for interoperability

Let’s make things a bit more concrete and discuss several use cases for this interoperability. It will help us understanding the value of interoperability:

Tuning a storyboard
Lumira 2.0 Discovery allows for data exploration, -blending and visualizations through storyboards. Its features are advanced yet focus on quick and easy creation of insights. Some more advanced features are missing. That is on purpose; Discovery aims at end users and they easy way of insights gathering. If however an end user wants some additional – advanced – features applied to the storyboard, the Designer component of Lumira 2.0 offers the solution. Take the example of below video where the creator of a simple storyboard on sales performance per region requires cross-chart filtering. It allows to click on a (section of) a parent chart, where the selection drives the filtering of the other graphs. This feature is not part of Discovery, but can be applied in Designer. The solution is to open the storyboard in the Designer module, apply some simple guided script and save the storyboard. What I like on this approach is that SAP succeeded I keeping any complex stuff away from the real end-user: Discovery remains the easy-to-use data discovery tool it always has been.

Combining various storyboards
You know this one; your management requires a dashboard that oversees a full LOB process. Spend, sales, finance or manufacturing metrics, they all need to be in and provide a 360° overview. The Discovery component might play a big role here, but probably will give you various storyboards that each cover the pieces (spend, sales etc) of the process. Designer now comes in by creating one (!) dashboard application where you pick up the various storyboards. In the video below is an example of this use case.

Professionalize to an enterprise dashboard
The most obvious use case for interoperability is definitely the professionalization of your storyboards using SAP Lumira 2.0 Designer. The Designer module has basically no limitations when it comes transferring your storyboard(s) to enterprise wide dashboard applications. Adding radio button groups, sliders, interactive commenting, responsive color-coded progress indicators, input fields, tab-strips, chart-pickers and so on. But also adding more data-sources, creating a scorecard or set-up adaptive layout (when enlarging the browser, graphs are automatically re-arranged) can be done. Have a look at this page to see just a little glimpse of what's possible; all of the previous SAP Design Studio 1.6 capabilities - and more - are part of SAP Lumira 2.0 Designer, and you know that one has always been my definite favorite just because of its tremendous capabilities.

Win your end user
Here might be situations where want to avoid the “openness” of Discovery to end users. Discovery is easy to use but its openness allows people to change graphs, filters or even add formulas. When you are looking for a dashboard that can only be consumed (typically with a huge audience (i.e. A public one) without consumers changing anything, you can use Designer to create an authored dashboard application from the initial storyboard. These applications have stunning visualizations and allow for very precise tuning on how your end user can interact. They can run on the SAP BusinessObjects BI platform but also for example directly on SAP HANA. Like referred in my blog on winning your end users, authored dashboard applications are the ultimate way to offer insights to really huge amounts of users. Now your process can start with a storyboard in Discovery and professionalize it in Designer.

Take the governance hurdle
Ah, governance again. Did you already come across your end users requests to have a single - multi page dashboard application, where users - depending on their role and authorizations - only see the sections and data they are entitled too? You must have, since each of my customers ask for it. Its about the classical example of a management cockpit dashboard covering Sales, HR, Finance, Spend and Marketing data, where depending on the user(-groups) some people should not see the HR section or just a piece of the Spend section. Well, setting this up in one application is called the governance-hurdle and definitely a "SAP Lumira 2.0 Designer-job".

The advanced dashboard
Close to the use case for professionalization is the use case for an advanced dashboard. Imagine you want end user to be able to click though a detailed WebIntelligence report when clicking/filtering a chart in your storyboard. SAP Lumira 2.0 allows for query-parsing which means that a filter that the user applies to a dashboard (using combo-, dropdown-, or checkboxes for example) is communicated/parsed onto the WebIntelligence report that can be linked to a dashboard. Here is an example. Of course there are many other examples in this use case: think of embedded video in dashboards, an enterprise dashboard that combines self-service SAP BW discovery (template) with an upfront prepared storyboard with reference data ...well, your imagination will do the rest.

The data connection and blending challenge
One of the strong points SAP Lumira 2.0 Discovery is its data mashup, -enrichment and especially blending capabilities. It is so easy to join data-sets from various source types (CSV, Xlsx, SQL, BW, HANA, Universes, Hadoop, SalesForce, JDBC, Cloudera, Vora ... etc ..etc ) and quickly discover the data. There is also blending where the same can be done on data sources with different grain. Well, all this enrichment and blending can be easily set-up in a Discovery storyboard and re-used in SAP Lumira 2.0 Designer. For those of you familiar with SAP Design Studio, they will recognize the huge amount of time they will gain. I touch an example of this in below video. What I am saying here, is that the Designer developer can greatly leverage the easy data-mashup capabilities of Discovery.

Apply templates
When your user community for SAP Lumira 2.0 Discovery starts growing, the number of storyboards will quickly expand. To manage some consistency in the lay-out and apply enterprise branding, one could consider to use Designer templates. These templates are made one and applied can be applied to any enterprise dashboard based upon storyboards. In addition - or part of - to the template, Designer allows to apply CSS Style sheets where every single lay-out property can be defined upfront.

How does interoperability work and look like?

In this video I show you some of the use cases mentioned above. I hope it gives you some more insights on my case for interoperability. Next to the online SAP BW connectivity, the interoperability is key and essential and will allow SAP Lumira 2.0 to in the analytics market.

]]>
Thu, 08 Jun 2017 15:30:32 +0200 Why interoperability between BI styles and use cases is a big deal http:///item/917908/why-interoperability-between-bi-styles-and-use-cases-is-a-big-deal.html&field=Foto1&rType=crop&height=165&width=165.jpg
Solera kondigt acquisitie aan van Nederlands databedrijf Colimbra http:///item/917789/solera-kondigt-acquisitie-aan-van-nederlands-databedrijf-colimbra.html Solera Holdings heeft aangekondigd haar technologische portfolio in Nederland te hebben uitgebreid met de acquisitie van Colimbra Holding B.V. Solera is aanbieder in data en software voor auto- en huizenbezit en digitaal identiteitsbeheer.

Dit is Solera's tweede acquisitie in Nederland in de afgelopen zes maanden, en het toont de inzet van het bedrijf voor intelligent databeheer en identiteitsbescherming voor de branches die het bedrijf bedient. Colimbra, gespecialiseerd in intelligente databeheersoftware en -dienstverlening voor de autoverzekeringbranche, is de meest recente in een reeks investeringen die het digitale leiderschap van Solera in Nederland en wereldwijd versterken.

Vooruitstrevend
"Nederland is een innovatieve markt op het gebied van financiële dienstverlening, bescherming van digitale identiteit, intelligent databeheer en transparantie rondom de autobranche," zei Tony Aquila, oprichter, Chairman en CEO van Solera. "Nederland blijft uitermate vooruitstrevend op het gebied van technologie, en gedurende de afgelopen tien jaar zijn wij mede in staat geweest innovatieve technologieën te automatiseren en integreren, en transparantie en efficiëntie in de Nederlandse markt te faciliteren."

Solera betrad in 2006 de Nederlandse markt, met haar acquisitie van ABZ, een data- en softwarebedrijf voor claimverwerking. In 2010 breidde Solera haar risico- en vermogensbeheerplatform uit met de acquisitie van Market Scan, een toonaangevende leverancier van geavanceerde analytics en data-inzichten voor de Nederlandse verzekeringsbranche. In 2011 verwierf Solera Commerce Delta, een toonaangevende ontwikkelaar van beheersoftware voor werkplaatsen voor botsingsschade. In augustus 2015 volgde de acquisitie door Solera van Autodata B.V., een marktleider in software voor de waardebepaling van voertuigen, inventarisbeheer en optimalisering van workflow voor autodealers en leasebedrijven. Eerder dit jaar begon Solera zich buiten de auto- en verzekeringsbranche uit te breiden, door de verwerving van een volledig eigendom van Digidentity, een leverancier van identiteitscertificering en authenticatie-technologieën voor klanten zoals de overheden van Nederland en het Verenigd Koninkrijk. Deze acquisitie kwam na een durfkapitaalinvestering in een vroeg stadium van Solera in 2010.

Innovatie
Colimbra, de meest recente acquisitie van Solera, versterkt niet alleen de intelligente databeheer- en uitwisselingsoplossingen voor verzekeraars en acceptanten van het Nederlandse technologiebedrijf, maar zorgt ook voor een versnelde levering van innovatieve risicobeheer-applicaties van Colimbra aan de bredere financiële dienstverleningsbranche. De overeenkomst verbetert ook de wereldwijde missie van Solera voor het digitaliseren van de ervaring van autobezit bij de 54 referentiepunten in de levensloop van een voertuig.

"Veel Nederlandse technologiebedrijven omarmen de cultuur van Solera waarbij innovatie voor de klant centraal staat, waarmee de regio ideaal is voor zowel onze Invent & Acquire-strategie als de versnelde uitbreiding van onze risico- en vermogensbeheeroplossingen voor de belangrijkste bezittingen in het leven van mensen", zei Aquila. "De recente acquisities door Solera van Colimbra en Digidentity laten onze inzet zien, niet alleen voor de ontwikkeling van innoverende technologieën voor Nederland, maar ook voor het leveren van de best mogelijke data- en softwareoplossingen voor onze klanten en partners wereldwijd."

Meer informatie: Solera

]]>
Thu, 08 Jun 2017 12:01:22 +0200 Solera kondigt acquisitie aan van Nederlands databedrijf Colimbra http:///item/917789/solera-kondigt-acquisitie-aan-van-nederlands-databedrijf-colimbra.html&field=Foto1&rType=crop&height=165&width=165.jpg
Auke Jilderda van Talend over self-service BI http:///item/909108/auke-jilderda-van-talend-over-self-service-bi.html BI Platform sprak op de Datawarehousing & Business Intelligence Summit met Auke Jilderda, Country Manager Nederland bij Talend. Auke spreekt onder andere over de ontvangst van de Winter 2017 release van Talend Data Fabric, data governance, de combinatie van Apache Beam en Talend Data Preparation. Verder vertelt hij over Talend’s samenwerking met Google en realtime data-analyse.

Talend was platina sponsor van de Datawarehousing & Business Intelligence Summit en presenteerde een sponsortrack. De Datawarehousing & Business Intelligence Summit van dit jaar vond plaats op 28 en 29 maart in Amsterdam. Mark Madsen, William McKnight, Jos Kuipers en Rick van der Lans waren de keynote sprekers van dit jaar. De andere sessies werden gevuld door welbekende sprekers uit de Benelux regio, waaronder Bart Baesens, Pieter den Hamer, en Kishan Shri. Meer informatie over het congres is te vinden op www.dwbisummit.com.

]]>
Thu, 08 Jun 2017 12:00:01 +0200 Auke Jilderda van Talend over self-service BI http:///item/909108/auke-jilderda-van-talend-over-self-service-bi.html&field=Foto1&rType=crop&height=165&width=165.jpg
VNSG: waterdichte voorbereiding software audit is utopie http:///item/916925/vnsg-waterdichte-voorbereiding-software-audit-is-utopie.html Driekwart van de SAP-gebruikers ziet een waterdichte voorbereiding op een software audit als utopie vanwege missend inzicht. Volledig inzicht in het huidige IT-landschap is volgens 47 procent de meest urgente maatregel in de voorbereiding, gevolgd door het begrip van de verschillende contractuele documenten (41 procent). Daarnaast wordt door 94 procent complexiteit in licensering gezien als een melkkoe voor softwareleveranciers. Dit blijkt uit onderzoek van de VNSG, Vereniging Nederlandstalige SAP gebruikers, onder ruim 100 SAP-gebruikers, leden van de VNSG.

Softwareleveranciers kunnen de zorgen rondom audits verminderen. Hulp bij het behouden van overzicht is hierbij het belangrijkst (38 procent). Ook hulp bij voorbereiding op audits (34 procent) en het regelmatig uitvoeren van audits (21%) dragen hieraan bij. Indirect gebruik vormt een groot obstakel voor SAP-gebruikers. Er is sprake van indirect gebruik als iemand functionaliteit of data in SAP-oplossingen gebruikt, zonder dat die persoon een gedefinieerde login heeft. 9 op de 10 SAP-gebruikers geven aan dat indirect gebruik op een andere manier verrekend moet worden. SAP anticipeert hierop met een recente aankondiging van een nieuwe indirect pricing policy, gebaseerd op de meest voorkomende use cases van indirect gebruik, namelijk Order-to-Cash, Procure-to-Pay en Static Read.

Mede door rechtszaken rondom indirect gebruik, is het een veelbesproken onderwerp in het nieuws. De VNSG is via het internationale netwerk SUGEN met SAP in gesprek om de belangen van de SAP-gebruiker rondom indirect gebruik te behartigen. Het doel is om meer transparantie te krijgen voor indirect gebruik, dat in de verschillende contractdocumenten en -bijlagen niet altijd duidelijk is omschreven.

Volgens directeur Rob van der Marck van de VNSG zet SAP met de nieuwe pricing een belangrijke eerste stap op het gebied van meer duidelijkheid rondom indirect gebruik. “Het laat zien dat de internationaal georganiseerde SAP User Groups een stem hebben in het verbeteren van de dienstverlening. De genoemde scenario’s zijn het meest voorkomend, maar zullen niet alle gevallen dekken. Het is nu afwachten hoe deze nieuwe regels voor indirect gebruik in de praktijk gaan uitpakken voor onze leden. De VNSG heeft vragen over details van deze eerste drie scenario’s en zet daarom het gesprek met SAP voort om meer duidelijkheid te verkrijgen.”

Meer informatie: VNSG

]]>
Wed, 07 Jun 2017 13:42:31 +0200 VNSG: waterdichte voorbereiding software audit is utopie http:///item/916925/vnsg-waterdichte-voorbereiding-software-audit-is-utopie.html&field=Foto1&rType=crop&height=165&width=165.jpg
SAS en Procam bestrijden tekort aan Data Scientists http:///item/916924/sas-en-procam-bestrijden-tekort-aan-data-scientists.html SAS en Procam gaan samenwerken om bètastudenten op te leiden tot Data Scientist. Het partnership is gericht op het terugdringen van het tekort aan Data Scientists waardoor nog meer organisaties het meeste uit hun data kunnen halen. Procam is specialist in het vinden van hoogopgeleid IT-talent.

Binnen de samenwerking is Procam verantwoordelijk voor de selectie van jonge mensen die net zijn afgestudeerd aan een technische opleiding. Deze starten met een bootcamp van vier weken waarin de eerste opleidingen van de SAS Academy for Data Science worden gevolgd. Hier wordt kennisontwikkeling voor technologieën als big data, advanced analytics en machine learning gecombineerd met essentiële communicatieve vaardigheden voor data scientists. Het geleerde kan bovendien direct in de praktijk worden gebracht doordat Procam de kandidaten koppelt aan werkgevers waar zij gedurende hun opleiding aan de slag kunnen. Het complete opleidingstraject neemt twee jaar in beslag.

Volgens Pascal Lubbe, Manager Education bij SAS heeft iedereen het over het tekort aan data scientists. “Met deze samenwerking doen we er heel concreet iets aan. We bieden trainees een compleet programma waarbij zij niet alleen met de nieuwste tools van SAS kunnen werken, maar ze ook de beste begeleiding krijgen naar - en tijdens - een baan zodat hun carrière in Data Science een vliegende start maakt.”

Intensieve begeleiding
De kracht van Procam ligt niet alleen in een sterk netwerk en het vinden van jong IT-talent met analytische vaardigheden. De kandidaten worden in het traject van studie naar loopbaan ook intensief begeleidt. Daarvoor zet Procam onder meer carrièrecoaches in die niet alleen kijken naar de ‘harde’ vaardigheden, maar ook samen met de kandidaat onderzoeken wat deze nou echt zou willen zodat de juiste match gemaakt wordt met een werkgever.

“Door samen te werken met SAS willen we toegevoegde waarde creëren waar veel organisaties van kunnen profiteren”, zegt Marinus ter Laak, Algemeen Directeur bij Procam. “Je ziet dat veel bedrijven nog onvoldoende in staat zijn om beschikbare data te vertalen naar relevante sturingsinformatie. Alleen met het aanschaffen van software ben je er immers nog niet. Er is een groter plan nodig waarbij het aantrekken, ontwikkelen én behouden van data science-talent een cruciale rol speelt. Hetgeen wij met SAS aanbieden is hiervoor een mooie start.”

]]>
Wed, 07 Jun 2017 13:35:32 +0200 SAS en Procam bestrijden tekort aan Data Scientists http:///item/916924/sas-en-procam-bestrijden-tekort-aan-data-scientists.html&field=Foto1&rType=crop&height=165&width=165.jpg
Quint organiseert Agile/Scrum, DevOps en Lean IT bootcamps http:///item/916923/quint-organiseert-agile-scrum-devops-en-lean-it-bootcamps.html In juli en augustus organiseert Quint Wellington Redwood wederom de ‘Summer of Learning’. Tijdens dit inspirerende event kunnen (IT-)professionals deelnemen aan verschillende bootcamps waarmee zij de complete certificering van populaire trainingen in korte tijd kunnen behalen. De onderwerpen waar deelnemers dit jaar voor kunnen kiezen zijn Agile/Scrum, DevOps en Lean IT.

Doordat technologische ontwikkelingen en werkwijzen elkaar steeds sneller opvolgen, is het van belang om kennis en vaardigheden op peil te houden. De relatief rustige zomerperiode is daar vaak het ideale moment voor. Quint speelt daar op in met bootcamps die bijdragen aan het minimaliseren van verspilling in IT-organisaties. Na afronding van de bootcamp kan de deelnemer direct een waardevolle bijdrage aan zijn organisatie leveren. Deelnemers behalen niet alleen de afzonderlijke examens, maar bereiken ook direct een volledige, internationaal erkende certificering. De trainingen worden gegeven door consultants van Quint, die vanuit hun ervaring de theorie koppelen aan de praktijk.

Agile, Scrum en DevOps
Een typische dag tijdens de Summer of Learning bestaat uit een training in het betreffende onderwerp, waarna de deelnemer direct het bijbehorende examen aflegt. Bij de Agile/Scrum Bootcamp hoort een basistraining en kan men kiezen tussen de specialisatie Scrum Product Owner of Scrum Master. Er is ook de mogelijkheid om te kiezen voor beide certificeringen, of zelfs daarna nog een stap verder te gaan met de training Leading SAFe (Scaled Agile Framework). De DevOps Bootcamp bestaat uit de Fundamentals training en de Practitioner training. DevOps biedt een verzameling principes, richtlijnen en krachtige tools, waarmee organisaties beter kunnen inspelen op de wensen en behoeften van hun stakeholders. De DevOps bootcamp is geaccrediteerd door de internationale DevOps Agile Skills Association (DASA), waarmee ook de officiële certificering geregeld is.

Lean IT
Performance verbetering en kostenbesparing staan centraal tijdens de Lean IT Bootcamp. Leiderschap en de vaardigheid om continu te verbeteren maken hierbij het verschil. Lean IT Kaizen (continu verbeteren) en Lean IT Leadership voorzien daarin. Samen met de Lean IT Foundation vormen deze trainingen de complete certificering tot Lean IT Professional. Deze certificering is een officieel internationaal erkende certificering van de Lean IT Association (LITA). Naast een gezamenlijke lunch staan er voor de liefhebber na afloop van iedere dag Spaanse tapas en een drankje klaar. Zo wordt de bootcamp ook een netwerkbijeenkomst en kunnen deelnemers sparren met elkaar en met Quint consultants.

Kennis vergroten
“De voorgaande twee edities waren zo’n groot succes dat een vervolg eigenlijk vanzelfsprekend is”, zegt Mireille van Kol, partner bij Quint. “Deelnemers van vorig jaar belden ons op om te vragen of er dit jaar weer een Summer of Learning zou komen. In de zomerperiode is het bij veel bedrijven rustig, omdat collega’s en opdrachtgevers op vakantie zijn en projecten stil komen te liggen. Het ideale moment om je kennis te vergroten en mooie certificaten aan je cv toe te voegen. In steeds meer organisaties zien we dat de digitale transformatie doorzet. Traditionele IT-organisatiestructuren verdwijnen langzaam maar zeker. Vooral Scrum is erg populair. Men werkt op een Agile wijze in multidisciplinaire teams, waarmee organisaties veel sneller en efficiënter waarde kunnen creëren. Veel professionals zijn al in aanraking gekomen met deze werkwijze, maar missen nog de bevestiging van hun kunnen. Een certificaat biedt uitkomst, want hiermee kan iemand aantonen dat hij beschikt over bepaalde skills.”

De Summer of Learning 2017 vindt plaats in de maanden juli en augustus. Kijk hier voor het rooster en meer informatie.

]]>
Wed, 07 Jun 2017 13:31:29 +0200 Quint organiseert Agile/Scrum, DevOps en Lean IT bootcamps http:///item/916923/quint-organiseert-agile-scrum-devops-en-lean-it-bootcamps.html&field=Foto1&rType=crop&height=165&width=165.jpg
ING: Groei softwaresector houdt aan http:///item/916062/ing-groei-softwaresector-houdt-aan.html Software is een groeisector, gedreven door cloud computing en digitalisering van de economie, meldt ING. In 2017 groeit de sector volgens de bankanalisten van het ING Economisch Bureau naar verwachting met vijf procent in volume. Vooral software en dienstverlening op het vlak van security groeit sterk. Het vinden van geschikt personeel kan een rem op de expansie van de sector zetten. Een groot deel van de ondernemers signaleert dit als belemmering.

Ondanks dalende prijzen wist de software en services sector in 2016 met ruim 2 procent in omzet te groeien. Software is een groeimarkt, gedreven door cloud computing en de digitalisering van de economie. Hierdoor is software steeds vaker onderdeel van producten en diensten van bedrijven. Bedrijfssoftware biedt technologieën en oplossingen voor belangrijker wordende zaken als data-analyse en het delen van informatie tussen werknemers en bedrijven. Bij belangrijke klanten als de overheid, industrie en de financiële sector gaan investeringen in software verder.

Verdienstelijking IT zorgt voor verschuiving
Door de opkomst van cloud is het leveren van hardware en software veranderd. Steeds meer middelgrote organisaties besteden IT uit vanwege het hoge technologische innovatietempo. IT wordt als dienst (‘IT as a service’) vanuit een datacenter geleverd en vereist minder personeel op locatie voor onderhoud van het IT-landschap. Expertise en slagkracht worden ingehuurd, zodat managed service providers groeien. Traditionele professionele dienstverlening, zoals het op locatie inzetten van consultants, verliest terrein.

Personeelstekort rem op groei
In 2017 groeit de software en services sector opnieuw. ING Economisch Bureau verwacht een volumegroei van vijf procent. Vooral software en dienstverlening op het vlak van security groeien sterk, mede door de stijgende complexiteit van de infrastructuur en een toenemend aantal bedreigingen. Het vinden van geschikt personeel was altijd al een uitdaging. Voor een toenemend aantal bedrijven is het zelfs een rem op de groei. Begin 2017 ziet ruim een derde van de software en services bedrijven een tekort aan personeel als groeibelemmering. Dit was in 2014 maar 11 procent.

Meer informatie: ING Economisch Bureau

]]>
Wed, 07 Jun 2017 00:03:00 +0200 ING: Groei softwaresector houdt aan http:///item/916062/ing-groei-softwaresector-houdt-aan.html&field=Foto1&rType=crop&height=165&width=165.jpg
Microsoft en TU Delft werken samen aan ontwikkeling quantum-computers http:///item/916020/microsoft-en-tu-delft-werken-samen-aan-ontwikkeling-quantum-computers.html Microsoft viert de oprichting van Station Q Delft: een experimenteel onderzoekslaboratorium dat zich richt op quantum computing, geleid door Leo Kouwenhoven. Het bedrijf heeft een langetermijnovereenkomst gesloten met TU Delft, die onder meer een investering behelst in QuTech, het quantum-instituut van TU Delft en Station Q Delft.

De investering bestaat onder andere uit de inzet van Microsoft-personeel in het laboratorium, onder wie onderzoekers, hardware engineers en program managers. Bij het experiment worden verder promovendi en postdoconderzoekers betrokken, en doet Microsoft financiële investeringen in state-of-the-art apparatuur en faciliteiten. Bovendien is Microsoft van plan geavanceerde nanoanalyses en verwerkingstools voor nanofabricage naar TU Delft te halen.

Internationaal netwerk
Station Q Delft is een nieuwe toevoeging aan het internationale netwerk van andere experimentele quantum-laboratoria die door Microsoft zijn opgericht. Hieronder vallen de laboratoria van Purdue University (Indiana, VS) en van de universiteit van Sydney, Australië. Naast de samenwerking in de verschillende experimentele laboratoria profiteert Station Q Delft van ondersteuning van de in Redmond (Washington, VS) gevestigde Microsoft Quantum Computing-teamleden en de quantum-theoretici van Microsofts Station Q Santa Barbara (California, VS).

Ingewikkelde problemen
Via het partnerschap met TU Delft richt Microsoft zich op het bouwen van een robuuste en schaalbare quantum-computer – een computer die gebruikmaakt van quantum-mechanica en het vermogen van quantum bits om zowel 1’en als 0’en tegelijk te zijn. Het resultaat is dat extreem complexe berekeningen veel sneller zijn uit te voeren dan met standaardcomputers. Zodra dit doel is bereikt, willen beide partijen zeer toegankelijke instrumenten creëren, die ook wetenschappers zonder quantum-achtergrond kunnen gebruiken om ’s werelds meest ingewikkelde maatschappelijke problemen op te lossen.

Veel potentie
Volgens Leo Kouwenhoven, Microsoft Science Director van Station Q Delft ontwikkelt de wereld van quantum computing  zich snel en biedt het veel potentie. “Nu quantum bits al zijn gecreëerd, is het belangrijk om een stabiel systeem en de juiste computing-methoden te ontwikkelen. QuTech en Station Q Delft kunnen dit samen bereiken. Ik ben ontzettend blij met de samenwerking tussen Microsoft en TU Delft. Ik verwacht dat we samen een mooie bijdrage kunnen leveren.”

Talenten
De geplande samenwerking met Microsoft versterkt het al baanbrekende QuTech-programma, net als de bestaande Delftse faculteit en verzameling studerende talenten. De samenwerking stelt de universiteit in staat om de beste en intelligentste talenten aan te trekken. Bovendien profiteert geheel Nederland van de overeenkomst, omdat deze leidt tot nieuwe banen in de technologie en het land voorziet van de mogelijkheid om bij te dragen aan de quantum-economie van de toekomst.

]]>
Tue, 06 Jun 2017 13:13:27 +0200 Microsoft en TU Delft werken samen aan ontwikkeling quantum-computers http:///item/916020/microsoft-en-tu-delft-werken-samen-aan-ontwikkeling-quantum-computers.html&field=Foto1&rType=crop&height=165&width=165.jpg
Centric genomineerd voor twee HPE Partner of the Year Awards http:///item/915981/centric-genomineerd-voor-twee-hpe-partner-of-the-year-awards.html Hewlett Packard Enterprise heeft Centric genomineerd voor de titels Services Partner of the Year en Hybrid IT Partner of the Year.
       
Ieder jaar reikt HPE de Business Partner of the Year Awards uit. Op basis van verschillende onafhankelijke criteria en op voorspraak van medewerkers van Hewlett Packard Enterprise dingt Centric mee naar de HPE Awards. In 2016 werd Centric door HPE ook al uitgeroepen tot Transformation Partner of the Year.

Reimagine 2017
De uiteindelijke winnaars van de Awards maakt HPE op 20 juni bekend tijdens Reimagine 2017, het jaarlijkse HPE-event voor klanten en partners. U kunt zich nog inschrijven via de website van HPE. U kunt dan ook de sessie bijwonen van Frank de Nijs (Enterprise Innovator van Centric). Frank geeft een impressie van de digitale toekomst van gemeenten, en alles wat daarbij komt kijken.

HPE Platinum Specialist Partner
Eerder dit jaar ontving Centric al de status van HPE Platinum Specialist Partner. Centric werkt al jarenlang uitstekend samen met HPE en is dan ook bijzonder verheugd met het behalen van het hoogste partnerniveau. De platinumstatus is voor Centric het resultaat van doorlopende investering in de kennis en kunde van haar medewerkers en de goede relatie met die klanten de Centric en HPE gezamenlijk bedienen.
Hans Hengst, Alliance Manager bij Centric, ziet de kracht van de cloud en converged infrastructuren. “Wij verbeteren daarom continu onze datacenteractiviteiten. De certificering als Gold Service Provider Specialist was daar al een mooie onderschrijving van en met deze nieuwe beloning zijn we nog eens extra trots. Als Platinum-partner blijven we onze klanten de allerhoogste service bieden.”

]]>
Tue, 06 Jun 2017 12:44:08 +0200 Centric genomineerd voor twee HPE Partner of the Year Awards http:///item/915981/centric-genomineerd-voor-twee-hpe-partner-of-the-year-awards.html&field=Foto1&rType=crop&height=165&width=165.jpg
Sandor Nieuwenhuijs over Qlik Sense en geo-analytics http:///item/909109/sandor-nieuwenhuijs-over-qlik-sense-en-geo-analytics.html BI Platform sprak op de Datawarehousing & Business Intelligence Summit met Sandor Nieuwenhuijs, Presales Director Benelux bij Qlik. Sandor vertelt over de introductie van Qlik Sense Cloud Business, keuzevrijheid binnen een hybride cloudoplossing, de overname van het Zweedse Idevio en de mogelijkheden van geo-analytics. Verder kwamen de Qlik Playground en QlikView ter sprake.

Qlik was platina sponsor van de Datawarehousing & Business Intelligence Summit en presenteerde een sponsortrack. De Datawarehousing & Business Intelligence Summit van dit jaar vond plaats op 28 en 29 maart in Amsterdam. Mark Madsen, William McKnight, Jos Kuipers en Rick van der Lans waren de keynote sprekers van dit jaar. De andere sessies werden gevuld door welbekende sprekers uit de Benelux regio, waaronder Bart Baesens, Pieter den Hamer, en Kishan Shri. Meer informatie over het congres is te vinden op www.dwbisummit.com.

]]>
Sun, 04 Jun 2017 13:00:00 +0200 Sandor Nieuwenhuijs over Qlik Sense en geo-analytics http:///item/909109/sandor-nieuwenhuijs-over-qlik-sense-en-geo-analytics.html&field=Foto1&rType=crop&height=165&width=165.jpg
Pyramid Analytics scoort hoog in Dresner Wisdom of Crowds BI Market Study 2017 http:///item/911834/pyramid-analytics-scoort-hoog-in-dresner-wisdom-of-crowds-bi-market-study.html Pyramid Analytics is voor het derde jaar op rij de algehele leider op Customer Experience en Vendor Credibility in de Wisdom of Crowds Business Intelligence Market Study 2017 van Dresner Advisory Services.

Pyramid Analytics behaalde in deze twee categorieën scores die gemiddelde steekproef ruim overtroffen. In 2017 werden bovendien in elke meetcategorie belangrijke verbeteringen gerealiseerd ten opzichte van 2016, waaronder verkoop, waarde, product, technische ondersteuning, advies en integriteit. Het bedrijf kreeg ten slotte ook een perfecte aanbevelingsscore van zijn klanten in het marktonderzoek.

“We zijn blij om weer als leider erkend te zijn in een van de meest uitgebreide industrierapporten over Business Intelligence,” zegt Omri Kohl, medeoprichter en CEO van Pyramid Analytics. “Ons leiderschap in dit onderzoek is een bewijs van onze toewijding aan klanten. Zij vertrouwen op ons platform om kritische, datagedreven beslissingen te nemen met behulp van een collaboratief, flexibel en veilig BI-systeem.”

Ook in andere onderzoeken, waaronder de Collective Insights Market Study 2017, blijft Dresner Pyramid Analytics erkennen voor zijn marktwaardigheid, geavanceerde collaboratieve BI-mogelijkheden en governed data discovery-mogelijkheden. “Bedrijven gebruiken de Wisdom of Crowds Business Intelligence Market Study al acht jaar als een objectief marktonderzoek om te begrijpen hoe hun collega’s in BI en verwante technologieën inzetten,” zegt Howard Dresner, oprichter en chief research officer van Dresner Advisory Services. “Wij feliciteren Pyramid Analytics voor zijn sterke prestaties.”
 
In de Wisdom of Crowds Business Intelligence Market Study 2017 wordt Pyramid Analytics beoordeeld naast 28 leveranciers. Het onderzoek is gebaseerd op Dresners eigen evaluatiemodel dat de prestaties van elke leverancier op 33-criteria vergelijkt met hun prestaties van vorig jaar en met het gemiddelde van alle leveranciers.
 
Download hier de Wisdom of Crowds BI Market Study.

]]>
Thu, 01 Jun 2017 22:46:31 +0200 Pyramid Analytics scoort hoog in Dresner Wisdom of Crowds BI Market Study 2017 http:///item/911834/pyramid-analytics-scoort-hoog-in-dresner-wisdom-of-crowds-bi-market-study.html&field=Foto1&rType=crop&height=165&width=165.jpg
Dimensys levert datagedreven service management met Insight for Service http:///item/910638/dimensys-levert-datagedreven-service-management-met-insight-for-service.html Dimensys maakt process mining technologie beschikbaar voor service- en onderhoudsorganisaties. Processen worden transparant met Celonis' Process Mining technologie, die knelpunten en inefficiënties inzichtelijk maakt. De oplossing Insight for Service van Dimensys bouwt voort op deze bevindingen en stelt daarmee organisaties in staat datagedreven en gerichte en krachtige procesoptimalisaties uit te voeren. Dimensys is SAP-dienstverlener voor bouw-, productie- en infrabedrijven.

Dimensys adviseert regelmatig onderhouds- en serviceorganisaties om een duidelijk beeld te krijgen van uitgevoerde onderhoudsactiviteiten en de bijbehorende financiële inzichten. Organisaties worden geconfronteerd met vraagstukken zoals het optimaliseren van de geldstroom of het verminderen van de administratieve lasten voor het verbeteren van de dienstverlening naar klanten. De oplossing is veelal gelegen in het optimaliseren van het serviceproces, maar hoe pak je dit aan? Om organisaties hierbij te helpen, combineert Dimensys haar ervaring met het optimaliseren van serviceprocessen en Celonis Process Mining tot de dienstverlening Insight for Service.

Digitale footprint
Met behulp van Insight for Service krijgen organisaties inzicht in hoe serviceprocessen daadwerkelijk worden uitgevoerd. De digitale footprint die gebruikers tijdens hun werkzaamheden in IT-systemen achterlaten, wordt geanalyseerd en gevisualiseerd tot een overzicht van alle procesflows. Met jarenlange ervaring in het optimaliseren van financiële en serviceprocessen zetten Dimensys consultants de geanalyseerde procesflows af tegen best practices in de industrie. Op deze manier worden organisaties voorzien van de beste aanpak om het serviceproces te verbeteren.

Big data
Celonis Process Mining is een intelligente big data technologie, aangedreven door Artificial Intelligence en machine learning, waarmee bedrijfsprocessen in kaart worden gebracht. Het onthult zwakke punten en maakt processen transparant, sneller en kosteneffectief. Met de introductie van SAP Process Mining by Celonis kan de process mining oplossing eenvoudig worden toegepast in ieder SAP-landschap. Op dit moment ontwikkelt Dimensys meer diensten voor analyse van andere end-to-end bedrijfsprocessen met behulp van process mining technologie. Een voorbeeld hiervan is Insight for Projects.

Meer informatie: Dimensys

]]>
Wed, 31 May 2017 13:22:38 +0200 Dimensys levert datagedreven service management met Insight for Service http:///item/910638/dimensys-levert-datagedreven-service-management-met-insight-for-service.html&field=Foto1&rType=crop&height=165&width=165.jpg
Jos Driessen over datawarehouse automation met WhereScape http:///item/909110/jos-driessen-over-datawarehouse-automation-met-wherescape.html BI Platform sprak op de Datawarehousing & Business Intelligence Summit met Jos Driessen, oprichter van BI demystified, over datawarehouse automation met WhereScape. Jos Driessen kreeg in 2014 als Manager BI Strategy and Architecture van Vodafone de taak om een agile datawarehouse op te zetten. De daarbij gehanteerde datawarehouse automation aanpak met behulp van WhereScape was zo’n succes dat Jos als spreker de hele wereld rondreisde. Daarna begon hij voor zich zelf om bedrijven te ondersteunen met datawarehouse automation. Softwarerobots kunnen volgens Jos de ontwikkelingstijd van maanden naar dagen verkorten!

WhereScape was platina sponsor van de Datawarehousing & Business Intelligence Summit en Jos Driessen presenteerde deze sponsortrack. De Datawarehousing & Business Intelligence Summit van dit jaar vond plaats op 28 en 29 maart in Amsterdam. Mark Madsen, William McKnight, Jos Kuipers en Rick van der Lans waren de keynote sprekers van dit jaar. De andere sessies werden gevuld door welbekende sprekers uit de Benelux regio, waaronder Bart Baesens, Pieter den Hamer, en Kishan Shri. Meer informatie over het congres is te vinden op www.dwbisummit.com.

]]>
Wed, 31 May 2017 07:00:00 +0200 Jos Driessen over datawarehouse automation met WhereScape http:///item/909110/jos-driessen-over-datawarehouse-automation-met-wherescape.html&field=Foto1&rType=crop&height=165&width=165.jpg
Wereldwijde Qlik Sense Tour: geef uw data een stem http:///item/910118/wereldwijde-qlik-sense-tour-geef-uw-data-een-stem.html Qlik, aanbieder in visual analytics, organiseert de Qlik Sense Tour: 'Give your data a voice'. De tour bestaat uit bijna 90 events wereldwijd. In de Benelux wordt het evenement op zeven verschillende locaties georganiseerd door Qlik en haar partners.

Op 22 juni 2017 vindt het event plaats bij het Naarderbos in Naarden. Naast inspirerende praktijkverhalen van Quooker en APG, bevat het programma een unieke Decision Game waarin deelnemers spelenderwijs ontdekken hoe het is om beslissingen te nemen met behulp van data.

Tijdens de Qlik Sense Tour worden de aanwezigen bijgepraat over de nieuwste mogelijkheden met betrekking tot visual analytics. Geertjan Woltjes, COO bij Quooker, laat de aanwezigen zien hoe selfservice BI helpt om controle te houden over de hele, snelgroeiende supplychain van de kokendwaterkraan. Hij licht tevens toe hoe dit inzicht het management helpt bij het nemen van belangrijke beslissingen. Arjan de Zeeuw, Hoofd Client Reporting bij APG, is aanwezig om te praten over het waarom, hoe en wat van hun Digital Reporting Roadmap. Hij zal tevens zijn favoriete Narrative Science mogelijkheid demonstreren met data van de Europese Centrale Bank.

Programma Qlik Sense Tour 22 juni in Naarden:
09:30 – 10:00 uur  Aankomst
10:00 – 10:15 uur  Welkomstwoord
10:15 – 11:00 uur  Laat uw data spreken, Daniel Lumkeman, Solution Architect, Qlik. Trends die mensen, data en ideeën met elkaar verbinden.
11:00 – 11:30 uur  Pauze
11:30 – 12:00 uur  Keynote door Geertjan Woltjes, COO, Quooker. Controle over de gehele supplychain met selfservice BI.
12:00 – 12:30 uur  Keynote door Arjan de Zeeuw, Hoofd Client Reporting, APG. Hoge klanttevredenheid met Qlik Sense.
12:30 – 13:30 uur  Lunch
13:30 – 15:30 uur  The Ultimate Qlik Experience: Decision Game. Dit is een sessie waar je een keer niet je smartphone hoeft weg te stoppen. Simplifying decision making for everyone, everywhere.

Aanmelden
Deelname is gratis. Het volledige programma van de Qlik Sense Tour: ‘Give your data a voice’ op 22 juni 2017 in Naarden is hier te vinden.

Andere locaties zijn:
Nederland
6 Juni - Utrecht, Credon
14 Juni - Amsterdam, Rond
15 Juni - Arnhem, Provelu
27 juni - Rotterdam, Active Professionals

België & Luxemburg
15 Juni - Brussel, Qlik
20 Juni - Luxemburg, Agilos

]]>
Wed, 31 May 2017 01:32:03 +0200 Wereldwijde Qlik Sense Tour: geef uw data een stem http:///item/910118/wereldwijde-qlik-sense-tour-geef-uw-data-een-stem.html&field=Foto1&rType=crop&height=165&width=165.jpg
R Services: advanced analytics binnen SQL Server 2016 http:///item/909148/r-services-advanced-analytics-binnen-sql-server.html In deze blog vertel ik hoe je met de meest gebruikte open source programmeertaal R een statistische analyse en een grafische presentatie van jouw gegevens maakt. Plus, waarom dat nuttig is.

In SQL Server 2016 zitten de mogelijkheden van R al ingebouwd: R Services. De beperkingen van de open source-technologie blijven daardoor achterwege, alleen de professionele mogelijkheden blijven over. Door de krachten van Microsoft en R te bundelen, bouw je intelligente toepassingen die je helpen om nieuwe inzichten te krijgen, resultaten te voorspellen en beslissingen te nemen die je business versnellen. Dankzij het Microsoft ScaleR Package wordt niet alle data in-memory geladen, waardoor het geheugen op een efficiënte manier wordt gebruikt.

De R-gebaseerde analysefuncties brengen je bijvoorbeeld meteen naar waar je gegevens zich bevinden: direct in je SQL Server 2016-database. Dankzij een sandbox-proces elimineer je de tijd en opslagcapaciteit die normaal nodig hebt om gegevens te verplaatsen. Je kunt hierdoor gemakkelijker R-scripts aanroepen met opgeslagen Transact-SQL-procedures, CRAN-packages loslaten op je database en probleemloos andere applicaties (zoals ETL) integreren terwijl je gegevens altijd veilig afgeschermd blijven.

Veel meer dan een database
Met R Services overstijgt SQL Server 2016 zijn pure databasefunctie. Je kunt slimme applicaties bouwen in R en ze gebruiken via de standaard T-SQL interfaces, waardoor je een massa gegevens kan verwerken door parallelle berekeningen binnen de database. Dankzij de vertrouwde interfaces kunnen je databasebeheerders bijvoorbeeld eenvoudig T-SQL gebruiken voor hun rapporten en dashboards. Bovendien kunnen data scientists met de SQL Server-integratieservices gebruik maken van bestaande ETL-stromen.

Veilig en direct
Je bedrijf krijgt zo nieuwe inzichten om beter geïnformeerde, strategische beslissingen te nemen. Je hoeft niet te investeren in extra servers of speciale hardware, want je kiest zelf of je R Services lokaal in je bedrijf of via Azure laat draaien. Daarbij blijven je gegevens veilig binnen je bestaande infrastructuur. Met SQL Server R Services worden er namelijk geen gegevens verplaatst en is er geen sprake van vertraging (latency), fragmentatie of out-of-sync snapshots. Jouw organisatie wordt flexibeler, sneller, data-driven en innovatiever omdat je met SQL Server 2016 alles krijgt wat je nodig hebt voor business intelligence op eender welk toestel. En dankzij R Services kan je patronen in je data vinden waar je nooit aan gedacht hebt.

]]>
Tue, 30 May 2017 00:53:31 +0200 R Services: advanced analytics binnen SQL Server 2016 http:///item/909148/r-services-advanced-analytics-binnen-sql-server.html&field=Foto1&rType=crop&height=165&width=165.jpg
HPE breidt mogelijkheden voor SAP-applicaties uit http:///item/908697/hpe-breidt-mogelijkheden-voor-sap-applicaties-uit.html Hewlett Packard Enterprise kondigt nieuwe compute-, storage- en netwerkoplossingen voor SAP HANA en SAP Leonardo aan. De oplossingen moeten bedrijven voorzien van snelle realtime analytics.

Met een uitgebreid portfolio aan assets combineert HPE infrastructuur, software en services ter versterking van de ‘Digital Core’. De Digital Core van een organisatie bestaat uit de belangrijkste data, applicaties en processen. Gestoeld op de langdurige samenwerking tussen HPE en SAP, waarin meer dan 25.000 klanten zijn bediend, kondigt HPE aan:
• Een preview van de nieuwste architectuur voor SAP HANA. Deze architectuur is op basis van de principes van Memory-Driven Computing. Organisaties van ieder formaat kunnen met deze architectuur hun enorme datahoeveelheden in de Digital Core realtime analyseren en verwerken.
• Nieuwe SAP-gecertificeerde oplossingen. Met deze oplossingen worden SAP HANA-producten beschikbaar voor zowel on-premises IT als private cloudimplementaties.
Intelligent Edge-oplossingen voor SAP Leonardo. Met deze oplossingen halen klanten realtime insights en bruikbare resultaten uit Internet of Things (IoT) data. Dit met behulp van het toepassen van end-to-end zichtbaarheid op operations waar het product centraal staat.
• Nieuwe SAP-adviesdiensten en transformatie-, professionele en operationele services van HPE Pointnext om innovatie te versnellen.

Realtime managen
Bedrijven hebben volgens Drew Lac Iacone, Vice President Global SAP Practice and Alliance bij HPE, oplossingen nodig voor het realtime managen van groeiende datahoeveelheden, zodat ze succesvol de digitale transformatie kunnen ondergaan. “Voor SAP HANA-infrastructuuroplossingen kunnen klanten bij HPE en SAP terecht om samen tot oplossingen voor betere bedrijfsresultaten te komen.”

Realtime analytics ‘at the Digital Core’
Om alles uit analytics en data te halen, moeten organisaties de infrastructuur van hun database moderniseren naar een in-memory omgeving die schaling en groei van grote datasets van essentiële bedrijfsprocessen aankan. HPE’s nieuwste architectuur voor SAP HANA is gestoeld op de principes van Memory-Driven Computing om te voldoen aan alle eisen voor SAP Business Suite 4 SAP HANA (SAP S/4HANA). Dit is een krachtige en sterk configureerbare set aan softwareoplossingen voor vereenvoudiging van business operations. Deze nieuwe architectuur combineert de betrouwbaarheid van HPE Integrity Superdome X servers met toonaangevende schaalbare technologie uit de SGI-aquisitie. Dit resulteert in het oplossen van complexe problemen op grotere schaal, versnelling van big data analytics en realisatie van betere insights.

De nieuwste architectuur voor SAP HANA levert:
• Grote schaalbaarheid voor in-memory computing. Dit zorgt dat organisaties van ieder formaat klein kunnen beginnen en naadloos kunnen groeien naar de grootste databehoeften van SAP HANA.
• Sterke modulariteit: een design op basis van veelvoorkomende modules biedt klanten grote flexibiliteit, zodat ze eenvoudig kunnen op- en afschalen en zo aan alle businessbehoeften kunnen voldoen.
• Sterke betrouwbaarheid om te voldoen aan de veeleisende SLA’s van SAP-workloads en om waardevolle applicaties en data te beschermen.

Meer informatie: HPE

]]>
Tue, 30 May 2017 00:02:00 +0200 HPE breidt mogelijkheden voor SAP-applicaties uit http:///item/908697/hpe-breidt-mogelijkheden-voor-sap-applicaties-uit.html&field=Foto1&rType=crop&height=165&width=165.jpg
Apple en SAP kondigen samenwerking aan voor ontwikkeling van enterprise apps http:///item/908737/apple-en-sap-kondigen-samenwerking-aan-voor-ontwikkeling-van-enterprise-apps.html Apple en SAP hebben een partnerschap aangekondigd voor de ontwikkeling van mobiele enterprise apps voor iOS op Apple iPhone en iPad, die verbinden met het SAP HANA platform. Apple levert hierbij ook een speciale iOS software development kit en trainingsmogelijkheden voor ontwikkelaars, partners en klanten.

Volgens Apple’s CEO Tim Cook brengt het partnerschap de veiligheid van iOS samen met de expertise van SAP in enterprise software, en zal hierdoor het gebruik van iPhone en iPad in de zakelijke markt veranderen. Volgens Cook raakt meer dan driekwart van de zakelijke transacties een systeem van SAP. Met de nieuwe SDK wil Apple de meer dan 2,5 miljoen SAP-ontwikkelaars de mogelijkheid bieden om native apps te bouwen die alle mogelijkheden van SAP’s PaaS-oplossing SAP HANA Cloud Platform gebruiken met de kracht van iOS.

User experience
Beide bedrijven willen voor een SAP HANA Cloud Platform SDK exclusief voor iOS uitbrengen. Native apps geven daarmee toegang tot business processes van SAP S/4HANA, met iPhone en iPad mogelijkheden als Touch ID, Location Services en Notifications. SAP wil verder een SAP Fiori for iOS design language uitbrengen om de SAP Fiori user experience te combineren met de mogelijkheden van iOS. Ook zal SAP als onderdeel van het partnerschap native iOS apps ontwikkelen voor bedrijfskritische functies. Alle apps zullen met Apple’s Swift programmeertaal gebouwd worden en een bekende user experience van SAP Fiori bieden.

Meer informatie: SAP/Apple

]]>
Mon, 29 May 2017 13:04:02 +0200 Apple en SAP kondigen samenwerking aan voor ontwikkeling van enterprise apps http:///item/908737/apple-en-sap-kondigen-samenwerking-aan-voor-ontwikkeling-van-enterprise-apps.html&field=Foto1&rType=crop&height=165&width=165.jpg
Joblift: Verviervoudiging blockchainvacatures in een jaar tijd http:///item/908698/joblift-verviervoudiging-blockchainvacatures-in-een-jaar-tijd.html Blockchain lijkt volgens metabanenzoekmachine Joblift de nieuwste internetrevolutie te worden. Het Nederlandse bedrijfsleven en de overheid hebben de ambitie uitgesproken een leidende positie te willen veroveren in het ontwikkelen en toepassen van deze techniek. Uit onderzoek van Joblift blijkt dat Nederland vooralsnog goed op weg is dit te bewerkstelligen.

Hoewel de werkgelegenheid die blockchain creëert nog in de kinderschoenen staat, werden er het afgelopen jaar in Nederland meer vacatures omtrent de techniek uitgeschreven dan in concurrerende landen zoals Duitsland en Frankrijk. De financiële sector en de zakelijke dienstverlening lopen hierin voorop.

Meer vacatures dan in Duitsland en Frankrijk
In de afgelopen twaalf maanden werden er in Nederland 178 blockchainvacatures uitgeschreven. Dit is een relatief gering aantal, maar wel een verviervoudiging van de 44 vacatures die tussen april 2015 en april 2016 werden uitgeschreven. Daarnaast toont ook een vergelijking met Duitsland en Frankrijk dat Nederlandse bedrijven blockchain serieus nemen: in deze landen werden er het afgelopen jaar respectievelijk 80 en 149 vacatures uitgeschreven. Met 569 vacatures werden enkel in het Verenigd Koninkrijk meer banen rondom blockchain aangeboden.

Dienstverlening en financiële sector
De meeste blockchainbanen worden in de financiële sector en de zakelijke dienstverlening gecreëerd: beide sectoren zijn verantwoordelijk voor 21,8 procent van de vacatures. De ICT-sector volgt met 19,2 procent. Met 16 vacatures was adviesbureau Deloitte het afgelopen jaar het bedrijf dat de meeste blockchainbanen aanbood. ABN-AMRO en PricewaterhouseCoopers volgden met respectievelijk 11 en 8 vacatures. In lijn met de ontwikkelingen in de fintech sector werden de meeste blockchain vacatures in Amsterdam uitgeschreven: 37,8 procent van de vacatures waren afkomstig uit de hoofdstad. Utrecht en Rotterdam volgen op gepaste afstand met respectievelijk 12,8 en 9,5 procent.

Kwart posities voor stagiairs
Wel lijkt het erop dat niet alle bedrijven al volledig op blockchain inzetten: meer dan een kwart van alle banen zijn posities voor stagiairs. De meest gezochte vaste krachten zijn programmeurs (20 procent van de vacatures), systeemontwikkelaars en analisten (16,2 procent van de vacatures). Het is voor bedrijven geen gemakkelijke opgave geschikt personeel te vinden: blockchain vacatures stonden met gemiddeld 25 dagen bijna twee keer zo lang open als het gemiddelde van alle vacatures op de Nederlandse arbeidsmarkt.

Joblift is een metazoekmachine met meer dan 1.000.000 banen afkomstig van meer dan 100 partner job boards.

]]>
Mon, 29 May 2017 12:13:36 +0200 Joblift: Verviervoudiging blockchainvacatures in een jaar tijd http:///item/908698/joblift-verviervoudiging-blockchainvacatures-in-een-jaar-tijd.html&field=Foto1&rType=crop&height=165&width=165.jpg
IBM Outstanding Partnership Award voor voor Sogeti en Capgemini http:///item/908659/ibm-outstanding-partnership-award-voor-voor-sogeti-en-capgemini.html De wereldwijde IBM Outstanding Partnership Security award is dit jaar toegekend aan IT-dienstverleners Sogeti en Capgemini. Deze erkenning krijgen de bedrijven voor de samenwerking, ontwikkeling van innovatieve digitale veiligheidsoplossingen en toegewijde deelname aan het IBM Watson Cyber Security Beta Programma. Mede dankzij deze bijdrage is IBM in staat de digitale veiligheid van Watson toekomstbestendig te maken.

Het is volgens Vincent Laurens, Vice President en Cybersecurity Practice Executive van Sogeti, een flinke uitdaging om een gedetailleerde veiligheidsanalyse te maken van de gehele IT ten tijden van geavanceerde cybercriminaliteit. “Met de inzet van Watson van IBM hebben wij voor een grote verzekeraar het analyseproces met 50 procent kunnen verkorten inclusief meer veiligheidsinformatie. Dat helpt de klant veel sneller en beter dreigingen te voorkomen.”

Securityanalyses
Directeur Cybersecurity Rogier van Agt van Sogeti Nederland is trots op de wereldwijde erkenning. “Deze award hebben we gekregen voor onze kennis op het vlak van securityanalyses die wij vanuit ons wereldwijd opererende Security Operations Center maken. Wij helpen zowel IBM als onze klanten met uitgebreide expertise van IBM-technologie. Daarmee zorgen we ervoor, dat de veiligheid van producten, zoals Watson, verder wordt verbeterd in ons tijdperk van digitale transformatie.”

Maturitymodellen
Sogeti is actief op het vlak van security monitoring en veiligheidstesten van applicaties en systemen. Op basis van zogenaamde maturitymodellen brengt de IT-dienstverlener digitale veiligheidsbehoeften in kaart en zorgt ervoor dat IT-systemen op alle niveaus worden beschermd. Zowel op het vlak van technologie, de mens als het bedrijfsproces. Eerder dit jaar ontving Sogeti al de status van IBM Platinum Business Partner voor haar uitgebreide kennis op het vlak van Advanced Cognitive Security Analytics.

]]>
Mon, 29 May 2017 11:51:58 +0200 IBM Outstanding Partnership Award voor voor Sogeti en Capgemini http:///item/908659/ibm-outstanding-partnership-award-voor-voor-sogeti-en-capgemini.html&field=Foto1&rType=crop&height=165&width=165.jpg
Advanced Programs en Data Virtuality sluiten partnership http:///item/906064/advanced-programs-en-data-virtuality-sluiten-partnership.html Advanced Programs en Data Virtuality hebben een strategisch partnership afgesloten. Met deze volgende stap in de samenwerking geven Advanced Programs en Data Virtuality antwoord op de vraag vanuit de business naar een hoge mate van flexibiliteit, wendbaarheid en schaalbaarheid in het efficiënt en gestructureerd beschikbaar stellen van de toenemende groei aan datavolumes.

De Data Platform oplossing van Advanced Programs maakt gebruik van de functionaliteit van DataVirtuality Logical DataWarehouse. Deze functionaliteit maakt het mogelijk om één omgeving te creëren waarin gebruikers toegang krijgen tot real-time en historische databronnen, waaronder data uit databases, bestanden, datawarehouses, big data architecturen, web services, API data en cloud databases. Advanced Programs heeft de samenwerking met Data Virtuality verder geïntensiveerd, naast bestaande relaties met onder andere IBM en Tableau.

Volgens Sander Hovestad, Solution Architect Data Platform Services bij Advanced Programs, ontbrak in de Data Platform oplossing nog een essentieel component waarmee een breed scala aan data gebruiksvriendelijk beschikbaar voor analyse was te stellen. “In onze zoektocht naar mogelijke oplossingen zijn we al snel met DataVirtuality in contact gekomen en overtuigd geraakt van de kracht en mogelijkheden. Ik ben trots dat we nu deze verdere samenwerking mogen aankondigen.”

Data Virtuality ontwikkelt en distribueert haar software DataVirtuality. Deze software maakt het voor bedrijven mogelijk om een verscheidenheid van gegevens en toepassingen te verbinden en te integreren en genereert een datawarehouse bestaande uit relationele en niet relationele data.

Meer informatie: Advanced Programs

]]>
Fri, 26 May 2017 13:52:32 +0200 Advanced Programs en Data Virtuality sluiten partnership http:///item/906064/advanced-programs-en-data-virtuality-sluiten-partnership.html&field=Foto1&rType=crop&height=165&width=165.jpg
SAP verbetert real-time analytics portfolio http:///item/906063/sap-verbetert-real-time-analytics-portfolio.html SAP heeft een groot aantal innovaties doorgevoerd in haar analytics-portfolio. De vernieuwde oplossingen geven klanten onder andere een beter inzicht in hun cloudbusiness en hybride omgevingen. Ook zijn de mogelijkheden van het digitale innovatiesysteem SAP Leonardo fors uitgebreid.

De belangrijkste innovaties op een rij:
• De update van de SAP Analytics Cloud (voorheen SAP BusinessObjects Cloud) staat gepland voor de maand mei. Verwachte features zijn onder meer een nieuwe mobiele applicatie voor iOS, live koppeling met SAP BW/4HANA, R-scripting, verbeterde visuele linking, nieuwe functies op het gebied van datavoorbereiding voor alle typen gebruikers, nieuwe smart discovery-functies inclusief simulaties en puntenbeoordeling, een nieuwe smart insight-functie voor automatische visualisatievoorstellen en nieuwe branchespecifieke content.
SAP Digital Boardroom biedt voortaan ondersteuning voor Microsoft Surface Hub om het gezamenlijk nemen van beslissingen eenvoudiger te maken. Ook ondersteunt de oplossing nieuwe diensten van SAP en partners, waardoor SAP Digital Boardroom nog beter is aan te passen op voorkeuren in specifieke industrieën en gebruikersgroepen binnen organisaties.
• De interface van SAP BusinessObjects Business Intelligence 4.2 is verder verbeterd met de nieuwe SAP BusinessObjects Web Intelligence unified viewer en het vernieuwde BI-launchpad in de stijl van SAP Fiori.
• In SAP Lumira 2.0 komt de visualisatie van SAP Lumira samen met SAP Lumira Designer (voorheen bekend als SAP BusinessObjects Design Studio) om zo de ervaring voor zowel business- als IT-gebruikers te versimpelen. SAP en Zoomdata slaan de handen ineen om de mogelijkheden van SAP Lumira uit te breiden, inclusief connectiviteit naar een breed scala aan databronnen voor razendsnelle analytics.
SAP Analytics Hub is nu beschikbaar. Hiermee kunnen businessgebruikers analytics-content vinden in de gehele organisatie, of het nu gaat om on-premise of de cloud.
SAP Predictive Analytics maakt machine learning in SAP S/4HANA-oplossingen mogelijk, zowel on-premise als in de cloud. Op de planning staan verbeterde ondersteuning voor het SAP HANA-platform, datavoorbereiding en feature engineering. SAP Cloud Platform Predictive service is voorzien van nieuwe functies, waaronder modellen voor aanbeveling en clustering en modeltrainingen voor geautomatiseerde regressie en classificering.
SAP IT Operations Analytics 2.0 voegt meer businesscontext toe aan IT-kwesties, door middel van nieuwe functionaliteit die de IT-afdeling helpt bij het stellen van prioriteiten op basis van de impact op de business. Ondersteuning voor hybride datacenters draagt bij aan een beter beheer van IT-kosten en een optimaal gebruik van middelen, on-premise en in de cloud.

Meer informatie over deze innovaties in de blog van Mike Flannagan, SVP of Analytics bij SAP.

]]>
Fri, 26 May 2017 13:38:00 +0200 SAP verbetert real-time analytics portfolio http:///item/906063/sap-verbetert-real-time-analytics-portfolio.html&field=Foto1&rType=crop&height=165&width=165.jpg
Cloudera benoemt Kim Hammonds en Mike Stankey tot leden raad van bestuur http:///item/903787/cloudera-benoemt-kim-hammonds-en-mike-stankey-tot-leden-raad-van-bestuur.html Cloudera heeft de aanstelling aangekondigd van Kim Hammonds, bestuurslid en Group Chief Operating Officer bij Deutsche Bank en Mike Stankey, vicevoorzitter van Workday tot lid van de raad van bestuur van Cloudera.

Kim Hammonds is bij Deutsche Bank verantwoordelijk voor onder andere technologie, operations, information security, datamanagement en digitale transformatie. Voor haar functie als Group Chief Operating Officer was zij bij Deutsche Bank Global Chief Information Officer en Global Co-Head of Group Technology & Operations. Eerder was zij werkzaam bij Boeing als Chief Information Officer, en vervulde managementfuncties bij Dell en Ford Motor Company.

Mike Stankey is als vicevoorzitter en lid van de raad van bestuur bij Workday verantwoordelijk voor marktexpansie, key customer relationships, externe communicatie en leadership development. Voordat hij in 2009 bij Workday kwam werken was Stankey partner at Greylock Partners, en daarvoor CEO bij PolyServe, een storagevirtualisatie softwarebedirijf dat onder zijn leiding werd verkocht aan Hewlett-Packard. Ook vervulde hij diverse management- en salesfuncties bij PeopleSoft. Hij brengt veel expertise in productontwikkeling, marketing en go-to-market strategie mee naar Cloudera.

De raad van bestuur bestaat verder uit: Mike Olson, oprichter en voorzitter; Tom Reilly, chief executive officer van Cloudera; Martin Cole, voormalig chief executive van Accenture’s Technology group; Ping Li, Accel Partners; Steve Sordello, chief financial officer bij LinkedIn.

“Met onze recente beursgang en Kim Hammonds en Mike Stankey als nieuwe leden van de raad van bestuur verkeert Cloudera in een uitstekende positie om haar volgende groeifase in te gaan”, zegt chief executive officer Tom Reilly van Cloudera.

]]>
Wed, 24 May 2017 01:48:37 +0200 Cloudera benoemt Kim Hammonds en Mike Stankey tot leden raad van bestuur http:///item/903787/cloudera-benoemt-kim-hammonds-en-mike-stankey-tot-leden-raad-van-bestuur.html&field=Foto1&rType=crop&height=165&width=165.jpg
Qlik voegt nieuwe analysemogelijkheden toe aan Qlik Sense http:///item/903786/qlik-voegt-nieuwe-analysemogelijkheden-toe-aan-qlik-sense.html Qlik kondigt de Qlik Sense June 2017 release aan. De nieuwe versie combineert intuïtieve visualisatiemogelijkheden, geavanceerde analysefunctionaliteiten en selfservicemogelijkheden voor datapreparatie. Hierdoor is Qlik Sense nu nog beter in staat om met één platform ondersteuning te bieden voor een breed scala aan Business Intelligence-vraagstukken.

De nieuwe versie is gebouwd op een volledig geïntegreerd, cloud-ready platform en wordt ondersteund door de gepatenteerde QIX Associative Indexing Engine. Qlik toonde de nieuwe release van Qlik Sense tijdens Qonnections, het jaarlijkse klant- en partnerevent. Hier liet het bedrijf zien hoe organisaties meer inzichten kunnen halen uit hun data, zowel in de cloud als on-premise, en hiermee het kennisniveau van medewerkers binnen de organisatie kunnen verhogen.

Hybrid Cloud
Qlik speelt met de nieuwe release sterk in op cloud. Steeds meer data wordt in de cloud gegenereerd en Qlik telt inmiddels meer dan 100.000 Qlik Sense Cloud en Qlik Sense Cloud Business gebruikers. Het bedrijf kondigde dan ook investeringsplannen aan in de kerninfrastructuur om on-premise installaties van Qlik Sense Enterprise te kunnen verbinden met cloud-diensten. Hierdoor kunnen gebruikers zelf bepalen waar hun data wordt opgeslagen, waar de analyses plaatsvinden en met welk apparaat eindgebruikers daar toegang toe zoeken. Qlik maakt daarnaast gebruik van beheerde cloud-oplossingen van partners, zoals Amazon Web Services en Microsoft Azure.
In het kader van de Hybrid Cloud Analytics-strategie introduceert Qlik verschillende nieuwe client-opties voor Qlik Sense Enterprise en Qlik Sense Cloud:
• Qlik Sense Mobile is een nieuwe app voor Apple iOS die offline ondersteuning biedt. De QIX engine draait daarbij lokaal op het mobiele apparaat van de gebruiker. De client kan worden geïntegreerd met oplossingen voor Enterprise Mobile Management (EMM) zoals AirWatch, MobileIron en Blackberry .
• Qlik Sense Desktop kan nu worden ingezet als client voor Qlik Sense Enterprise-omgevingen. Deze nieuwe client-opties bieden bedrijven meer flexibiliteit en directe toegang tot visual analytics-functionaliteit op elke locatie.

Qlik Connectors
Een ander belangrijk onderdeel van de cloud-strategie van Qlik, zijn de Qlik Connectors. Het bedrijf voegt diverse Connectors toe aan Qlik Sense Cloud Business. Gebruikers krijgen daarmee naadloze toegang tot REST-bronnen, Google Analytics, Facebook en Twitter. Dit wordt gevolgd door koppelingen met cloud-diensten voor bestandsopslag zoals Dropbox en Box.com. Qlik voegt tevens nieuwe koppelingen toe, zoals Excel en XML, zakelijke bronnen zoals Oracle-, SAP- en ODBC-databases, web-based bronnen zoals Salesforce.com en big data-bronnen zoals Teradata en Cloudera.

Datapreparatie
Qlik Sense biedt ook nieuwe mogelijkheden om data te prepareren, zodat zakelijke gebruikers hun data kunnen laden, transformeren en verrijken zonder complexe scripts.
• Visual data profiling helpt gebruikers om inzicht in hun data te krijgen wanneer ze die in Qlik Sense laden. Dit is mogelijk aan de hand van automatisch gegenereerde weergaven van informatie in histogrammen en andere visualisaties. Gebruikers kunnen daarmee aanzienlijk sneller aan de slag gaan met het analyseren van nieuwe data.
• Data binning stelt gebruikers in staat om op eenvoudige wijze ‘data bins’ of groepen van numerieke data te maken. Dit maakt analyses van gedetailleerde numerieke data eenvoudiger.
• Table concatenation biedt gebruikers een eenvoudige manier om tabellen samen te voegen, ook als die niet dezelfde velden en veldnamen bevatten. Klanten en partners kunnen dit ook met data van twee bedrijven doen, zelfs als die hun data niet op dezelfde manier opslaan.

Overige functies
• Verbeterde big data-mogelijkheden door On Demand App Generation-templates. Gebruikers kunnen hierdoor associatief zoeken in big data-bronnen en automatisch een analyse-app op maat genereren.
• Nieuwe geoanalytics mogelijkheden door Qlik GeoAnalytics. Gebruikers kunnen hiermee op eenvoudige wijze kaarten aan hun applicaties toevoegen met automatische opzoekmogelijkheden voor geo-data.
• Met behulp van open API’s biedt Qlik nu ook integratiemogelijkheden om data uit te wisselen tussen de QIX-engine en engines van andere leveranciers. Qlik biedt integraties voor R en Python, waarmee gebruikers geavanceerde berekeningen van externe tools in real time kunnen visualiseren in Qlik Sense.

De cloud-first continue releasecyclus van Qlik zorgt ervoor dat functionele verbeteringen direct worden toegevoegd aan Qlik Sense Cloud. Dat betekent dat de verschillende functies voor het ontwikkelen van applicaties, visuele analyse en het voorbereiden van data die deel uitmaken van de Qlik Sense June 2017-release ook direct beschikbaar zijn.

Meer informatie: Qlik

]]>
Wed, 24 May 2017 01:21:16 +0200 Qlik voegt nieuwe analysemogelijkheden toe aan Qlik Sense http:///item/903786/qlik-voegt-nieuwe-analysemogelijkheden-toe-aan-qlik-sense.html&field=Foto1&rType=crop&height=165&width=165.jpg
Apache Software Foundation kondigt Beam 2.0.0 aan http:///item/903394/apache-software-foundation-kondigt-beam-aan.html De Apache Software Foundation (ASF), de organisatie achter meer dan 350 Open Source projecten, heeft de beschikbaarheid aangekondigd van Apache Beam 2.0.0. Dit is de eerste stabiele release van het pakket voor zowel batch- als streamverwerking van Big Data. Apache Beam wordt onder andere gebruikt door Google Cloud, PayPal en Talend.

Apache Beam vindt zijn oorsprong in Google’s interne dataverwerkingsprojecten van de afgelopen tien jaar. Het project ontwikkelde zich vanuit het oorspronkelijke MapReduce systeem, door FlumeJava en MillWheel, tot Google Cloud Dataflow v1.x dat het unified programmingmodel vastlegde, dat uiteindelijk de kern werd van Apache Beam. Apache Beam kreeg een Top-Level Project status in december 2016. Beam bevat Java en Python software development kits die worden ingezet om dataverwerkingspipelines te definiëren en programma’s die deze uitvoeren op engines als Apache Apex, Apache Flink, Apache Spark en Google Cloud Dataflow.

Apache Beam versie 2.0.0 komt met verbeteringen aan de user experience, overdraagbaarheid over diverse omgevingen, waaronder engines,operating systems, on-premise clusters, cloud providers en data storagesystemen. Andere onderdelen zijn:
- Stabiliteit van API’s en toekomstige compatibiliteit met deze belangrijke versie
- Dataverwerkingparadigma’s voor efficiënte berekeningen
- Ondersteuning voor uitbreidbare bestandssystemen
- Ingebouwde ondersteuning voor Hadoop DFS
- Ingebouwde metrics voor diepgaande inzichten in uitvoeringsprotocollen.

Volgens Davor Bonaci, Vice President van het Apache Beam project, zal de stabiliteit van API’s in de toekomst gewaarborgd blijven, waardoor Beam geschikt wordt en blijft voor zakelijk gebruik. Apache Beam software is onder de Apache License v2.0 uitgebracht.

Meer informatie en downloads: Apache Beam

]]>
Tue, 23 May 2017 15:21:31 +0200 Apache Software Foundation kondigt Beam 2.0.0 aan http:///item/903394/apache-software-foundation-kondigt-beam-aan.html&field=Foto1&rType=crop&height=165&width=165.jpg
Tableau introduceert Bridge voor live queries op on-premise data http:///item/903356/tableau-introduceert-bridge-voor-live-queries-op-on-premise-data.html Tableau introduceert Tableau Bridge dat een echt hybride data-omgeving mogelijk maakt vanuit Tableau Online. Met Tableau Bridge is de gebruiker altijd verbonden met de data, waar deze zich ook maar bevindt.

Tableau Bridge is een onderdeel van Tableau 10.3 dat nog in beta fase is. Daarom is toegang tot Tableau Bridge nog gelimiteerd. Tableau Online beheerders kunnen zich wel al registreren.
Voordelen van Tableau Bridge zijn queries op on-premise data, extractiejobs zijn te plannen, centraal beheer  voor governance.

Meer informatie: Tableau Bridge
Tableau 10.3 Beta

]]>
Tue, 23 May 2017 14:45:18 +0200 Tableau introduceert Bridge voor live queries op on-premise data http:///item/903356/tableau-introduceert-bridge-voor-live-queries-op-on-premise-data.html&field=Foto1&rType=crop&height=165&width=165.jpg
Experis lanceert Learning Center http:///item/902841/experis-lanceert-learning-center.html Experis, het professional label van ManpowerGroup, lanceert het Experis IT Learning Center. Dit is een platform met uiteenlopende faciliteiten om IT-professionals verder te helpen met hun ontwikkeling, aansluitend op de snelgroeiende en constant veranderende IT-markt.

Het Experis IT Learning Center bestaat uit e-learnings, interne opleidingen en specifieke, klassikale opleidingen van externe aanbieders. Ook Experis Ciber, iSense en PEAK-IT, de IT-partners van Experis, maken deel uit van het platform om hiermee het aanbod te verbreden en te vergroten.

Specifieke IT-expertise
Professionals kunnen gebruikmaken van verschillende opleidingen, trainingen en certificeringen. De vorm is divers, van klassikaal tot online zelfstudie. De inhoud van de opleidingen richt zich op ICT-infrastructuur, projectmanagement, software ontwikkelingen en CRM-/ERP-systemen. “Bij Experis houden we van talent met ambitie, als drijvende kracht achter ontwikkeling”, zegt Stephanie Hoogenraad, Directeur van Experis. “Onze opdrachtgevers zijn vaak op zoek naar professionals die specifieke IT-expertise hebben. Daar hebben we het opleidingsprogramma op afgestemd, zodat onze professionals zich blijven ontwikkelen.”

Voorop lopen
Een groot deel van de opleidingen is gratis. Bij de online opleidingen is dit altijd het geval. De klassikale opleidingen kunnen in overleg met Experis worden gevolgd. Hoogenraad: “Hierbij kijken we naar de behoefte van de professionals en juist ook naar die van de opdrachtgever. Welke kennis en skills hebben zij nodig om hun dienstverlening op peil te houden, verder te ontwikkelen en voorop te lopen in de markt. Op die manier voegen we met het IT Learning Center voor beide partijen concreet waarde toe.”

Meer informatie: Experis

]]>
Tue, 23 May 2017 01:54:17 +0200 Experis lanceert Learning Center http:///item/902841/experis-lanceert-learning-center.html&field=Foto1&rType=crop&height=165&width=165.jpg
Overname VCD IT Groep door VINCI Energies definitief http:///item/902320/overname-vcd-it-groep-door-vinci-energies-definitief.html
VINCI Energies in Nederland heeft VCD IT Groep definitief overgenomen. Op termijn gaat VCD verder onder de merknaam Axians, het ICT merk van VINCI Energies.

VCD levert landelijk klantspecifieke ICT oplossingen en diensten aan organisaties in de gezondheidszorg, retail & logistiek, industrie, overheid en zakelijke dienstverlening en realiseerde met ruim 300 medewerkers een positief resultaat met een omzet van € 47 miljoen in 2016. De dienstverlening van VCD is complementair aan die van Axians, dit resulteert in een verbreding en versterking van het portfolio. Axians Nederland is met 950 ICT specialisten en een omzet van € 200 miljoen de drijvende kracht achter digitale transformatie voor meer dan 3.000 klanten in Nederland.

De organisatie en cultuur van VCD lijkt sterk op die van VINCI Energies en Axians. Met de expertise die nu wordt toegevoegd moet dit volgens het bedrijf een meerwaarde geven in de oplossingen die Axians haar klanten kan bieden.

]]>
Mon, 22 May 2017 11:16:53 +0200 Overname VCD IT Groep door VINCI Energies definitief http:///item/902320/overname-vcd-it-groep-door-vinci-energies-definitief.html&field=Foto1&rType=crop&height=165&width=165.jpg
E-mergo is Platinum Sponsor van de Qlik Sense Tour op 22 Juni in Naarden http:///item/902318/e-mergo-is-platinum-sponsor-van-de-qlik-sense-tour-op-juni-in-naarden.html Business Intelligence aanbieder en Qlik Elite Solution Provider E-mergo is dit jaar Platinum Sponsor van de Qlik Sense Tour. De Qlik Sense Tour is een jaarlijks event waarin ontwikkelingen rondom visuele analyse en Business Intelligence centraal staan.

De Qlik Sense Tour is 22 juni te zien in Het Naarderbos in Naarden. E-mergo’s Platinum Sponsorship houdt in dat zij een speciale sessie verzorgen voor een selecte groep VIP’s Tijdens deze bijzondere ‘Breakfast Session’ zal E-mergo verschillende innovaties presenteren aan haar speciale gasten.
Na afloop van deze privésessie zal het plenaire programma van start gaan. Op de agenda staan de nieuwste Qlik ontwikkelingen, interactieve workshops en keynote sessies van Qlik gebruikers. Qlik klant Quooker, producent van de kokend water kraan, zal tijdens de keynote presentatie vertellen hoe zij controle behouden over de gehele leveringsketen met behulp van selfservice Business Intelligence van Qlik.

Geef je data een stem
De Qlik Sense Tour bestaat uit een collectie van evenementen georganiseerd door Qlik en haar verschillende partners met locaties in meer dan 30 landen en is te zien vanaf 22 mei tot 14 juli. De Qlik Sense Tour zal in Nederland bestaan uit vier partnerevents en het genoemde Qlik event op 22 juni. ‘Geef je data een stem’ zal hierbij het centrale thema zijn.
Vorig jaar was het event volledig volgeboekt, wees dus snel met inschrijven.  

]]>
Mon, 22 May 2017 11:06:12 +0200 E-mergo is Platinum Sponsor van de Qlik Sense Tour op 22 Juni in Naarden http:///item/902318/e-mergo-is-platinum-sponsor-van-de-qlik-sense-tour-op-juni-in-naarden.html&field=Foto1&rType=crop&height=165&width=165.jpg
TechDays 2017 Kick-Off: Interview met Marcel Nieuwpoort http:///item/898798/techdays-kick-off-interview-met-marcel-nieuwpoort.html Op 12 en 13 oktober dit jaar organiseert Microsoft weer de TechDays in de Amsterdam RAI. Het thema van dit jaar is inmiddels bekend: "Discover Endless Possibilities". Tijdens de Kick-Off van het evenement op 12 mei sprak Release met Marcel Nieuwpoort, Partner Business Evangelist bij Microsoft, over de inhoud en opzet van de TechDays van dit jaar.

]]>
Fri, 19 May 2017 13:45:35 +0200 TechDays 2017 Kick-Off: Interview met Marcel Nieuwpoort http:///item/898798/techdays-kick-off-interview-met-marcel-nieuwpoort.html&field=Foto1&rType=crop&height=165&width=165.jpg
SAP en Google intensiveren samenwerking in de cloud http:///item/899209/sap-en-google-intensiveren-samenwerking-in-de-cloud.html SAP en Google hebben hun strategische banden verder aangehaald. Het aantal technologieën en applicaties van SAP met een certificering voor Google Cloud Platform is vergroot. Ook gaan de twee bedrijven nauwer samenwerken op het gebied van machine learning, het Internet of Things, datatransparantie en -opslag en werkplekproductiviteit.

Het SAP NetWeaver-platform is gecertificeerd voor GCP. Daardoor kunnen organisaties SAP S/4HANA en SAP Business Warehouse op dit cloudplatform draaien. Ook de SAP HANA database is wereldwijd beschikbaar via GCP, voor grotere instances en scale-outs. De partijen hebben bovendien een dataconnector ontwikkeld voor het verbinden van SAP Analytics Cloud met Google BigQuery.

Intelligente applicaties
SAP en Google gaan samen intelligente, spraakgestuurde applicaties ontwikkelen die gebruikers door complexe workflows begeleiden en vragen rondom hun enterprise kunnen beantwoorden. Op die manier willen de technologiebedrijven organisaties helpen met hun digitale transformatie. SAP zal hiervoor haar expertise op het gebied van business processen combineren met machine learning technologie van Google, zoals de Translate en Speech API's en Tensorflow, een open source bibliotheek voor machine learning.

Intelligent App Challenge
Tot slot hebben SAP en Google de Intelligent App Challenge aangekondigd. Deze wedstrijd daagt het ecosysteem van beide bedrijven uit om intelligente applicaties te ontwikkelen met SAP HANA, express edition op GCP.

]]>
Fri, 19 May 2017 00:01:13 +0200 SAP en Google intensiveren samenwerking in de cloud http:///item/899209/sap-en-google-intensiveren-samenwerking-in-de-cloud.html&field=Foto1&rType=crop&height=165&width=165.jpg
Pega CRM geoptimaliseerd met AI en Robotics mogelijkheden http:///item/898837/pega-crm-geoptimaliseerd-met-ai-en-robotics-mogelijkheden.html Pegasystems komt met nieuwe mogelijkheden op het gebied van artificial intelligence en robotic automation binnen het customer relationship management (CRM) portfolio. Bedrijven kunnen hun sales- en klantenservice nu optimaliseren met desktop analytics en zelflerende toepassingen.

De integratie van Pega Workforce Intelligence met Pega Customer Service en Pega Sales Automation toepassingen zorgt ervoor dat bedrijven verborgen, inefficiënte patronen in kaart kunnen brengen door miljoenen handelingen die dagelijks op iedere desktop pc en in elke applicatie worden uitgevoerd te analyseren. De workforce intelligence maakt gebruik van robotic automatisering en AI om te begrijpen hoe sales- en servicemedewerkers werken en hoe de apps en processen voor hen werken. Door deze inzichten te combineren met de prestaties op CRM-gebied, kunnen organisaties verborgen ondoelmatigheden niet alleen opsporen maar ook aantonen wat hiervan de directe gevolgen zijn voor de productiviteit en de klantbeleving. Pega’s suite van CRM-applicaties voor marketing, sales en service combineert de business rules engine met real-time analytics, zodat gebruikers met de Pega CRM-apps kunnen anticiperen op veranderende behoeften van klanten en hen gedurende de customer journey voorzien van advies op maat.

Optimalisatie
Pega Customer Service en Pega Sales Automation samen in Pega Workforce Intelligence biedt nieuwe mogelijkheden voor optimalisatie die anders onopgemerkt zouden blijven, zoals:
• Servicemedewerkers met een hogere klanttevredenheidsscore dan gemiddeld, spenderen gemiddeld minder tijd in niet essentiële applicaties. Dit biedt een handleiding voor herziening van de best practices om zo de algehele teampresaties te vergroten;
• Verkoopmedewerkers die hun quota's hebben gehaald, hebben extra tijd besteed op het sales training portal. Dit geeft managers een opening om minder goed presterende medewerkers te wijzen op de positieve impact van trainingen op het sluiten van deals;
• Verkoop- en servicemedewerkers die hun doelen niet haalden, waren genoodzaakt om te switchen tussen systemen en data opnieuw in te voeren. Dit onderstreept dat robotic automation medewerkers kan helpen om tijd te besparen en hun aandacht te richten op potentiële of bestaande klanten;
• IT-onderhoud dat normaal voor halverwege de ochtend stond gepland, zorgde voor een onverwachte presatievermindering. Dit geeft IT een plausibele reden om dit te verplaatsen naar een rustiger tijdstip.

Pega Workforce Intelligence is beschikbaar vanaf het tweede kwartaal van dit jaar binnen Pega Customer Service en Pega Sales Automation.
Meer productinformatie: Pegasystems

]]>
Thu, 18 May 2017 13:51:59 +0200 Pega CRM geoptimaliseerd met AI en Robotics mogelijkheden http:///item/898837/pega-crm-geoptimaliseerd-met-ai-en-robotics-mogelijkheden.html&field=Foto1&rType=crop&height=165&width=165.jpg
HPE onthult grootste single-memory computer ter wereld voor Big Data-tijdperk http:///item/898799/hpe-onthult-grootste-single-memory-computer-ter-wereld-voor-big-data-tijdperk.html Hewlett Packard Enterprise heeft de grootste single-memory computer ter wereld geïntroduceerd. Dit is de nieuwste mijlpaal in het grootste Research & Development traject van HPE ooit: The Machine. Het onderzoeksproject richt zich op de ontwikkeling van Memory-Driven Computing, een compleet nieuwe architectuur voor het opkomende Big Data-tijdperk.

Volgens CEO Meg Whitman van Hewlett Packard Enterprise liggen de volgende grote wetenschappelijke doorbraak, de innovaties die de IT veranderen en de technologie die levens gaat veranderen verscholen in de enorme hoeveelheden data die we dagelijks creëren. “Om deze innovaties mogelijk te maken, kunnen we niet blijven leunen op technologieën uit het verleden. We hebben een computer nodig voor het Big Data-tijdperk.”
Het onthulde prototype bevat 160 terabyte geheugen en kan gelijktijdig werken met data uit omgerekend ongeveer 160 miljoen boeken, acht keer zo veel als alle boeken uit de Library of Congress. Het is nog nooit mogelijk geweest om complete datasets van dit formaat in een single-memory system te bewaren en te bewerken. En dit is slechts een glimp van de enorme potentie van Memory-Driven Computing.

Oneindige bron van geheugen
Op basis van het huidige prototype verwacht HPE de architectuur eenvoudig te schalen naar een single-memory system op exabyteschaal en in later stadium naar een vrijwel oneindige bron van geheugen: 4.096 yottabytes. Dit is 250.000 keer meer dan het complete digitale universum op dit moment. Met deze hoeveelheid geheugen is het mogelijk om op hetzelfde moment met ieder digitaal medisch dossier op aarde, alle data van Facebook, iedere rit van de zelfrijdende auto's van Google en iedere dataset uit ruimteonderzoek te werken. Dit brengt nieuwe mogelijkheden en antwoorden op uitzonderlijk tempo aan het licht.

Tijdbesparing
HPE gelooft dat de technologie-industrie met Memory-Driven Computing voor vooruitgang kan zorgen in alle aspecten van de samenleving. De ontwikkelde architectuur kan op elke computercategorie worden toegepast, van apparaten op ‘the intelligent edge’ (de rand van het netwerk) tot supercomputers. Memory-Driven Computing zet het geheugen - en dus niet de processor - centraal in de computingarchitectuur. Door de inefficiëntie van interactie tussen geheugen, storage en processors in traditionele systemen te elimineren, bespaart Memory-Driven Computing de benodigde tijd om complexe problemen te verwerken. Hiermee wordt realtime-intelligence mogelijk.

Technische specificaties
Het nieuwe prototype bouwt voort op de resultaten van het onderzoeksproject van The Machine waaronder:
• 160 TB shared memory, verspreid over 40 fysieke nodes, met elkaar verbonden door een high-performance fabric protocol.
• Een geoptimaliseerd op Linux gebaseerd besturingssysteem (OS) dat draait op Thunder X2 van Cavium.
• Photonics/Optical communication links zijn online en operationeel, inclusief de nieuwe X1 photonics module.
• Softwareprogrammeringstools om alles te halen uit grote hoeveelheden persistent memory.

Meer informatie: Memory-Driven Computing en het onderzoeksproject The Machine.

]]>
Thu, 18 May 2017 12:48:18 +0200 HPE onthult grootste single-memory computer ter wereld voor Big Data-tijdperk http:///item/898799/hpe-onthult-grootste-single-memory-computer-ter-wereld-voor-big-data-tijdperk.html&field=Foto1&rType=crop&height=165&width=165.jpg
SAP innovatiesysteem Leonardo integreert ML, IoT, big data, analytics en blockchain http:///item/897897/sap-innovatiesysteem-leonardo-integreert-ml-iot-big-data-analytics-en-blockchain.html SAP heeft haar digitale innovatiesysteem Leonardo uitgebreid met nieuwe opties en functionaliteiten. Dat maakt de leverancier bekend op SAPPHIRE NOW, de jaarlijkse SAP-conferentie in Orlando.        

SAP introduceert onder het Leonardo-label vernieuwingen op het gebied van machine learning, Internet of Things , big data, analytics en blockchain. Elk van deze afzonderlijke elementen uit het SAP-portfolio is waardevol, maar de ware kracht schuilt in de integratie van die elementen. De transformatie naar een digital business vereist namelijk veranderingen in businessmodellen en -processen die geen enkele technologie op zichzelf kan bewerkstelligen. Leonardo combineert en integreert al die technologie op het SAP Cloud Platform. Samen vormen deze componenten een uitgebreid digitaal innovatiesysteem:

Industriespecifiek en flexibel
Klanten kunnen voortaan kiezen uit industriespecifieke Leonardo-pakketten genaamd 'industry accellerators'. Deze pakketten zijn toegespitst op specifieke gebruiksscenario's en kennen vaste prijzen. Ook is een flexibele benadering mogelijk, waarbij klanten zelf een pakket kunnen samenstellen dat het beste aansluit op hun specifieke wensen.

Integratie in bestaande applicaties
SAP integreert daarnaast de functionaliteit van Leonardo in bestaande applicaties om deze intelligenter en krachtiger te maken. Ook zal het diensten verlenen voor ontwikkelaars en partners waarmee zij hun eigen applicaties kunnen ontwikkelen. Deze applicaties worden ondersteund door een netwerk van Leonardo Centers. Deze servicecenters zijn momenteel gevestigd in New York, São Leopoldo en Bangalore.

SAP Leonardo Machine Learning Foundation
Nieuw is onder andere SAP Leonardo Machine Learning Foundation. Dat is een set van nieuwe, op machine learning gebaseerde applicaties voor de ondersteuning van businessprocessen als facturatie en klantenservice en -behoud. Daarnaast introduceert de leverancier de SAP Cloud Platform Blockchain-service. Hiermee kunnen applicaties en extensies worden ontwikkeld die gebruikmaken van blockchaintechnologie.

Vernieuwingen voor industrie
SAP lanceerde voor de industriesector een nieuwe digital twin-oplossing en bijbehorende diensten. Hiermee kunnen productiebedrijven een nauwkeurige, real-time digitale representatie creëren van hun productie-assets en zo hun assetmanagement verbeteren. Daarnaast heeft SAP een nieuwe samenwerking met Deloitte aangekondigd. Samen zullen zij digitale, intelligente oplossingen ontwikkelen voor finance, supply chain en software-as-a-service voor de industriesector.

Meer informatie: SAP

]]>
Wed, 17 May 2017 12:51:49 +0200 SAP innovatiesysteem Leonardo integreert ML, IoT, big data, analytics en blockchain http:///item/897897/sap-innovatiesysteem-leonardo-integreert-ml-iot-big-data-analytics-en-blockchain.html&field=Foto1&rType=crop&height=165&width=165.jpg
MarkLogic kondigt release MarkLogic 9 aan http:///item/897418/marklogic-kondigt-release-marklogic-aan.html MarkLogic Corporation lanceert versie 9 van de MarkLogic 9 NoSQL database, met nieuwe mogelijkheden voor data-integratie, -beveiliging en -beheer.

MarkLogic 9 introduceert mogelijkheden die de integratie van datasilo’s volgens het bedrijf aanzienlijk vereenvoudigen. Entity Services stellen organisaties in staat om rommelige, steeds veranderende gegevensbronnen te beheren. Dit is mogelijk doordat zij een model en woordenschat kunnen definiëren om fysieke entiteiten als klanten, producten en hun onderlinge relaties te harmoniseren. Optic is een revolutionaire nieuwe API waarmee ontwikkelaars hun gegevens kunnen bekijken als documenten, grafieken of rijen, wat een ongeëvenaarde flexibiliteit en efficiëntie oplevert.

Encryptie
De beveiligings- en privacyfuncties in MarkLogic 9 bieden nieuwe mogelijkheden om gegevens veilig te gebruiken en delen.
Advanced Encryption beschermt gegevens tegen hackers en interne bedreigingen met op standaarden gebaseerde versleuteling, geavanceerd sleutelbeheer en granulaire scheiding van rechten.
Element-level security gaat verder dan de bestaande beveiliging op documentniveau, waardoor specifieke elementen van een document voor bepaalde gebruikers verborgen kunnen worden. De resulteert in een betere gegevensbescherming.
Redaction voorkomt het lekken van gevoelige informatie zoals Burgerservicenummers (BSN) door deze specifieke informatie te verwijderen of te vervangen door andere waarden. Hiermee wordt het lekken van gevoelige gegevens voorkomen, maar belangrijker nog: het geeft bedrijven de garanties die ze nodig hebben om gegevens veilig te delen.

Productiviteit
Verder verbetert MarkLogic 9 beheer en productiviteit met nieuwe tools, nieuwe monitoring en verbeteringen voor non-disruptive operaties: Ops Director is een fundamenteel nieuw tool dat het werk van systeembeheerders vergemakkelijkt die te maken hebben met meerdere clusters, clouds en on-premise systemen, en productie-, test- en ontwikkelomgevingen; Telemetry is een optionele functie die betere en snellere ondersteuning biedt door het verzamelen, versleutelen en verzenden van diagnostische systeeminformatie naar MarkLogic, waardoor die gegevens op aanvraag direct beschikbaar zijn.

Meer informatie: MarkLogic

]]>
Wed, 17 May 2017 00:57:13 +0200 MarkLogic kondigt release MarkLogic 9 aan http:///item/897418/marklogic-kondigt-release-marklogic-aan.html&field=Foto1&rType=crop&height=165&width=165.jpg
Atos en OutSystems maken 'two-speed' IT-beleid mogelijk http:///item/897047/atos-en-outsystems-maken-two-speed-it-beleid-mogelijk.html Atos sluit een partnership met OutSystems, leverancier van het gelijknamige low-code ontwikkelplatform. Samen lanceren ze de invulling van een 'two-speed' IT-beleid. Klanten kunnen zo niet alleen veel sneller dan voorheen hun bestaande applicaties moderniseren, maar kunnen daaraan bovendien snel mobiele en webapplicaties toevoegen om zo optimaal gebruik te kunnen maken van nieuwe zakelijke kansen.
 
Atos heeft gekozen voor OutSystems als strategische partner voor het ontwikkelen van mobiele, web en bedrijfsapplicaties. Gecombineerd met een Agile aanpak wordt de tijd tot eerste oplevering beperkt tot enkele weken en updates kunnen in enkele dagen worden gerealiseerd. De gezamenlijke marktbewerking richt zich in eerste instantie tot klanten in de Benelux, gevolgd door andere Europese landen.

Innovatiedrang
De dienstverlening die Atos en OutSystems samen aanbieden, is vooral interessant voor klanten die in hun innovatiedrang worden beperkt door hun verouderde applicaties. De toepassing van OutSystems zorgt voor een versnelling in de levering van applicaties die worden uitgerold over cross-platforms zoals Azure, Amazon en iOS. Belangrijkste voordelen van low-code platforms:
• Snelle levertijd van nieuwe, zakelijke functionaliteiten, zeer hoge productiviteit voor het ontwikkelen en onderhouden van applicaties.
• Ondersteunt de ontwikkeling van nieuwe business en van nieuwe businessmodellen.
• Leidt tot een nieuwe manier van denken, met minder specificaties, minder programmeerwerk, lagere kosten en maakt de organisatie tegelijkertijd flexibeler en concurrerender.

Onmisbaar instrument
Kees Kranenburg, portfolio manager Application Transformation bij Atos in Benelux & The Nordics ziet een ongelofelijke kans met OutSystems, zeker als het aankomt op het leveren van moderniseringsprojecten. “Als onze klanten hun legacy systemen versneld willen inruilen voor moderne, slagvaardige technologie, dan is een low-code platform een onmisbaar instrument om dat te bereiken. En daarnaast kunnen we snel mobiele en webapplicaties ontwikkelen met volledige integratie met de back-end systemen om bijvoorbeeld nieuwe communicatiekanalen te openen met consumenten of burgers. Bij Atos in Australië hebben we de eerste resultaten gezien van onze samenwerking met OutSystems. En ook in Nederland hebben we samen het tastbare bewijs aan onze klanten geleverd dat onze aanpak kosten bespaart en concurrentievoordeel oplevert. De eerste 25 gecertificeerde Associate OutSystems Developers zijn inmiddels aan het werk op onlangs verkregen projecten.”
 
Moderniseren applicatielandschap
Peter ‘t Jong, CEO van Atos in Benelux & The Nordics legt uit dat Atos zwaar investeert in on-shore ontwikkelingsteams voor OutSystems, met de ambitie om in 2017 honderd gecertificeerde ontwikkelaars op het OutSystems platform werkzaam te hebben. “Dit aantal wordt in de komende jaren verder uitgebreid. Met onze propositie, samen met OutSystems, kunnen we onze gezamenlijke klanten helpen bij het moderniseren van hun applicatielandschap en bij het versnellen van het digitaliseren van hun bedrijfsvoering. Tot tien keer sneller dan gebruikelijk. Wij geloven dat deze innovatie een cruciaal hulpmiddel is in de digitale transformatie van ondernemingen. Wij hebben een pioniersrol in het ontwikkelen en uitrollen van low-code platforms, het toont onze klanten dat innovatie onderdeel is van ons DNA.”
Paulo Rosado, CEO OutSystems voegt daaraan toe: “We zien dat een steeds groter aantal organisaties low-code platforms omarmen die hun flexibiliteit en concurrentiekracht verbeteren, aangezien de tijd waarmee ze hun applicaties naar de markt kunnen brengen wordt verlaagd. Met onze oplossing kunnen zij hun klanttevredenheid verhogen, alsmede hun marktaandeel.”

]]>
Wed, 17 May 2017 00:04:00 +0200 Atos en OutSystems maken 'two-speed' IT-beleid mogelijk http:///item/897047/atos-en-outsystems-maken-two-speed-it-beleid-mogelijk.html&field=Foto1&rType=crop&height=165&width=165.jpg
SAP Cloud Trust Center biedt transparantie over security en compliance http:///item/897002/sap-cloud-trust-center-biedt-transparantie-over-security-en-compliance.html SAP lanceert het SAP Cloud Trust Center, een publieke website die real-time informatie levert over de actuele werking van de cloudoplossingen van SAP. Ook biedt de website zicht op de security- en privacystrategie van het concern.

Met het openbaar maken van deze informatie wil SAP transparantie en een hoge leverstandaard promoten. Momenteel toont de website data van drie cloudoplossingen. Het komende jaar zullen er meer volgen. Websitebezoekers hebben inzicht in geplande onderhoudsschema's, vier weken aan historische data, real-time beschikbaarheid en informatie over security en dataprivacy. Hiermee kunnen zij goede, onderbouwde beslissingen nemen voor hun kritische bedrijfsprocessen. Klanten hebben de mogelijkheid gebruik te maken van SAP ONE Support Launchpad en krijgen toegang tot een gepersonaliseerd overzicht.
 
SAP Cloud Trust Center biedt de volgende functies:
• Een transparant beeld van hoe SAP de security, cybersecurity en datacentersecurity voor cloudoplossingen aanpakt.
• Duidelijke uitleg over hoe SAP met dataprivacy omgaat en hoe het concern de rechten van het individu beschermt.
• Het bewijs dat er aan internationale standaarden wordt voldaan, zoals ISO, Britse standaarden en industriespecifieke en regionale certificaten. Ook geeft het platform uitleg over de verschillende controlerapporten van serviceorganisaties en hoe u die bij SAP opvraagt.
• Eenvoudig te begrijpen overeenkomsten die kunnen dienen als opstap voor aanmelding tot het cloudportfolio van SAP. Het geeft daarnaast voorbeelden en relevante 'quick facts' die in begrijpelijke taal aan de huidige klant of prospect duidelijk maken hoe het proces werkt.
• Antwoorden op algemene vragen over vertrouwensgerelateerde cloudonderwerpen zoals security, dataprotectie en privacy, en over afstemming met de SAP Integrated Business Planning (IPB)-oplossing, de SAP Cloud Platform Integration-dienst en SAP S/4HANA Cloud-software.

Transparantie
"In onze gesprekken met cloudklanten was transparantie het meest genoemde onderwerp. Zij verlangen naar real-time informatie over de beschikbaarheid en prestaties van de systemen die ze gebruiken", zegt Michael Kleinemeier, lid van de raad van bestuur van SAP SE, SAP Digital Business Services en SAP. "Met de lancering van het SAP Cloud Trust Center bieden wij iedereen - van klanten tot het grote publiek - inzicht in het beheer van onze cloudomgeving. Zo blijven wij voortdurend aan hun vertrouwen in onze vaardigheden bouwen."

Meer informatie: SAP Cloud Trust Center

]]>
Tue, 16 May 2017 13:24:29 +0200 SAP Cloud Trust Center biedt transparantie over security en compliance http:///item/897002/sap-cloud-trust-center-biedt-transparantie-over-security-en-compliance.html&field=Foto1&rType=crop&height=165&width=165.jpg
Dell annonceert IoT-producten en -partnerships http:///item/896486/dell-annonceert-iot-producten-en-partnerships.html Dell Technologies kondigt een aantal IoT-producten en -partnerships aan waarmee het bedrijf de complexiteit van IoT-implementaties wil wegnemen zodat klanten grote stappen kunnen zetten in hun digitale transformatie.

Volgens recent onderzoek van Gartner zullen er in 2020 wereldwijd meer dan 20,4 miljard ‘connected things’ in gebruik zijn. Bedrijven hebben behoefte aan snellere, real-time analyse van de grote hoeveelheid data die door deze ‘things’ op hun netwerken wordt gegenereerd. Voor sommigen is het te kostbaar om alle data te verhuizen van de rand van het netwerk, dichtbij de apparaten, naar het datacenter. Door rekenkracht naar de rand (edge) van het netwerk te brengen, kan snel worden beoordeeld welke data sets interessant en relevant zijn en dus naar het datacenter of de cloud gestuurd moeten worden voor verdere analyse en opslag voor langere termijn. Hierdoor wordt enorm bespaard op bandbreedte, kosten en dalen de veiligheidsrisico’s.

Nieuwe IoT-producten en -diensten van Dell
Vereenvoudigd beheer van ‘things’ - Het nieuwe VMware Pulse IoT Center is een veilige IoT-infrastructuurbeheeroplossing waarmee klanten volledige controle hebben over al hun connected things. Met VMware Pulse IoT Center kunnen klanten hun IoT-projecten efficiënter beheren, in de lucht houden, schalen en beschermen vanaf de edge tot de cloud. Dell zal VMware Pulse IoT Center aanbieden als preferred enterprise management- en monitoring-oplossing voor Dell Edge Gateways. Door Pulse IoT Center in het nieuwe EdgeX Foundry te pluggen, kan VMware systeem- en apparaatbeheer bieden voor het EdgeX-ecosysteem.

IoT Advisory-diensten - IoT Technology Advisory Service is een nieuw consulting-aanbod waarmee Dell EMC Services organisaties helpt bij het gebruik van IoT-data (zoals sensoren, beacons, gateways, mobiele telefoons, wearables, etc). Deze informatie kan gebruikt worden voor initiatieven zoals het optimaliseren van operationele processen, reduceren van compliance en veiligheidsrisico’s, het ontdekken van nieuwe omzetstromen en creëren van meer aansprekende klantinteractie.

Open Source Framework voor interoperabele edge computing – De Linux Foundation introduceerde onlangs EdgeX Foundry, een open source softwareproject om gemeenschappelijke frameworks te bouwen en bijbehorende refentieplatformen voor edge computing. Deze zorgen voor interoperabiliteit tussen zelfontwikkelde applicaties en bestaande connectiviteitstandaarden. Dit project is gestart door een community van meer dan vijftig bedrijven waaronder AMD, Analog Devices, Dell EMC, Foghorn en VMware. Zij wilden een ecosysteem maken van plug-and-play-componenten, die gecombineerd kunnen worden om snel veilige en schaalbare IoT-oplossingen te kunnen maken. Dell heeft bijgedragen met microservices en meer dan 125.000 regels aan broncode op basis van Apache 2.0. EdgeX Foundry draait op alle hardware, besturingssystemen en met microservices die zijn ontwikkeld in alle applicatie-omgevingen.

Partnerships
Dell Technologies heeft geïnvesteerd in een zorgvuldig geselecteerde groep IoT software- en services-partners via de Dell IoT Solutions- en Dell EMC-partnerprogramma’s. Veel partners hebben bewezen expertise in industriespecifieke IoT-uitdagingen en kunnen helpen met het beheer van multiprotocol databronnen tot en met security en analytics. Nieuwe partners die recent zijn toegevoegd aan het programma zijn onder andere Atos, Bosch, GreatBay Software, ForgeRock, IBM, IOTech, Mocana en Modius.
• IBM Watson Edge Analytics is nu gekwalificeerd om te draaien op Dell Edge Gateways waardoor data dichter bij de sensoren verwerkt kan worden voor snellere inzichten en mogelijke actie daarop. Vergaarde data wordt tevens naar het backend Watson IoT-platform gestuurd voor big data analytics.
• Dell en Bosch hebben samen een Industry 4.0 jump start kit ontwikkeld waarmee klanten IoT-projecten sneller kunnen implementeren voor snellere ROI.
Atos en Dell EMC werken samen aan het opzetten van een IoT service management framework, Atos Codex IoT Services, zodat klanten zeker weten dat hun gebruikers constant waarde kunnen genereren met hun connected apparaten.

Meer informatie: Dell IoT Solutions

]]>
Tue, 16 May 2017 00:07:48 +0200 Dell annonceert IoT-producten en -partnerships http:///item/896486/dell-annonceert-iot-producten-en-partnerships.html&field=Foto1&rType=crop&height=165&width=165.jpg
Kabinet en durfinvesteerders helpen startups sneller op weg http:///item/896185/kabinet-en-durfinvesteerders-helpen-startups-sneller-op-weg.html Het kabinet stelt jaarlijks 10 miljoen euro beschikbaar voor investeerders die startups helpen met hun financiering. Startups kunnen met deze regeling in hun eerste groeifase eenvoudiger aan de benodigde financiering komen. Minister Kamp van Economische Zaken maakte de nieuwe regeling vorige week bekend tijdens het begin van de Week van de Ondernemer in Utrecht.

Met de durfinvesteerders, zogenoemde Business Angels, helpt het kabinet startups om sneller een volgende stap te zetten. Onderzoeksbureau Genome berekent dat er 2.300 tot 3.500 startups in Nederland zijn, samen goed voor een waarde van 12,9 miljard euro. Volgens minister Kamp zijn deze durfinvesteerders van vitaal belang voor het investeringsklimaat en voor economische groei. “Business Angels zijn bereid te investeren in een risicovolle fase van een onderneming en helpen met hun netwerk en expertise startups hun activiteiten uit te bouwen. Het kabinet wil de circa 3000 Business Angels ondersteunen bij hun investeringen in deze innovatieve en snelgroeiende bedrijven. Ik ben dan ook blij dat we door samen te werken in een SEED Capital-regeling 10 miljoen euro per jaar kunnen investeren in de bedrijven van de toekomst.”

Samen investeren
De jaarlijkse investering van 10 miljoen euro wordt ingericht binnen de bestaande SEED Capital-regeling. Met de SEED Capital-regeling ondersteunt de overheid innovatieve ondernemingen op technologisch en creatief gebied bij het verkrijgen van risicokapitaal. De overheid verstrekt hierbinnen een renteloze lening van maximaal 1 miljoen euro aan een fonds waarin ook 2 Business Angels actief zijn. Deze durfinvesteerders leggen in dit fonds minimaal hetzelfde bedrag in. Met dit geld kunnen deze Business Angels vervolgens investeren in snelgroeiende bedrijven als technostarters en creatieve starters. Binnen de SEED Capital-regeling zijn in 11 jaar tijd 59 van deze startersfondsen opgericht, zij hebben in meer dan 300 technostarters geïnvesteerd.

Versoepeling
De regeling voor startups maakt onderdeel uit van de extra kabinetsinvestering van 52 miljoen euro per jaar per 2017 voor de stimulering van snelgroeiende innovatieve bedrijven. Zo is er per 1 januari 2017 ook 29 miljoen euro beschikbaar gesteld voor een versoepeling van de gebruikelijk-loonregeling voor innovatieve bedrijven. Oprichters van startups zijn dan niet langer verplicht zichzelf een belastbaar loon uit te keren van 44.000 euro, maar mogen dit de eerste drie jaar op het minimumloon stellen. Zo blijft er meer geld over om te investeren in de onderneming.

Meer informatie over Business Angels

]]>
Mon, 15 May 2017 16:48:40 +0200 Kabinet en durfinvesteerders helpen startups sneller op weg http:///item/896185/kabinet-en-durfinvesteerders-helpen-startups-sneller-op-weg.html&field=Foto1&rType=crop&height=165&width=165.jpg
HPE geeft deep learning impuls met real-time insights http:///item/896184/hpe-geeft-deep-learning-impuls-met-real-time-insights.html Hewlett Packard Enterprise introduceert een uitgebreid pakket computinginnovaties voor Deep Learning, waarmee organisaties nieuwe mogelijkheden voor analytics en insights krijgen. De innovaties van HPE richten zich op systeemontwerp, samenwerking met partners in het ecosysteem en expertise vanuit HPE Pointnext Services.

Technieken voor geavanceerde kunstmatige intelligentie - zoals deep learning - worden steeds vaker ingezet in meerdere sectoren, zoals finance, wetenschap, productie, energie, overheid en retail. Met het HPE Apollo portfolio heeft HPE laten zien te beschikken over uitgebreide workload geoptimaliseerde compute oplossingen voor kunstmatige intelligentie en deep learning. Dit portfolio versterkt performance, schaalbaarheid en efficiëntie. De recente innovaties zijn specifiek gericht op Deep Learning en worden mogelijk gemaakt door de overname van SGI. Met geïntegreerde oplossingen en services biedt HPE nu meer keuze voor grotere schaalbaarheid en dichtheid van GPU-omgevingen. Verder leveren de diensten volgens HPE een oplossing voor tekortkomingen in integratie van technologie en expertise.

De mogelijkheden zijn:
• De nieuwe HPE SGI 8600 is gebaseerd op de SGI ICE XA architectuur. Het High Performance Computing platform beschikt over ondersteuning voor een optimale combinatie van watergekoelde GPU-performance, NVIDIA Tesla GPU-accelerators en NVLink interconnect technologie. Dit biedt schaalbaarheid en efficiëntie voor de meest complexe en grote omgevingen, tot duizenden nodes met doelmatig energieverbruik.
• Interactieve rendering van het datacenter met de HPE Apollo 6500 en NVIDIA Tesla GPU’s, gecertificeerd met NVIDIA VCA software.
• Ondersteuning voor NVIDIA’s volgende generatie Tesla GPU’s, gebaseerd op Volta-architectuur indien beschikbaar in productiehoeveelheden in de Apollo 2000, Apollo 6500 en ProLiant DL380 servers.

Rand van het netwerk
Klanten die Deep Learning-projecten nastreven, hebben te maken met een gebrek aan een goede IT-infrastructuur of beperkte technologische mogelijkheden en daar lijden de performance, efficiëntie en time-to-value onder, meent Bill Mannel, Vice President en General Manager High Performance Computing en Artificial Intelligence bij Hewlett Packard Enterprise. “HPE introduceert nieuwe GPU compute platforms, een verbeterde samenwerking met NVIDIA en HPE Pointnext Services van het kerndatacenter tot aan de rand van het netwerk.”

Fraudedetectie op basis van Deep Learning
Onderdeel van HPE’s partnerecosystem is de samenwerking met Kinetica. Deze softwareleverancier maakt gebruik van Deep Learning frameworks voor oplossingen die real-time fraudedetectie, bijvoorbeeld bij credit card transactieverwerking, kunnen automatiseren met GPU-inzet.

Meer informatie: HPE

]]>
Mon, 15 May 2017 16:27:26 +0200 HPE geeft deep learning impuls met real-time insights http:///item/896184/hpe-geeft-deep-learning-impuls-met-real-time-insights.html&field=Foto1&rType=crop&height=165&width=165.jpg
Regine Dhaene over data privacy en security met GDPR http:///item/895997/regine-dhaene-over-data-privacy-en-security-met-gdpr.html Datalekken en data privacy zijn tegenwoordig hot topics en menig organisatie heeft nog de nodige voorbereiding en kennis nodig voor de GDPR wetgeving die vanaf mei 2018 in zal gaan. Regine Dhaene, practice lead GDPR bij Inpuls en certified DPO, geeft daarom een workshop data privacy en databescherming met GDPR bij Adept Events om organisaties ervoor klaar te stomen. In dit video-interview bespreekt zij de grootste vraagstukken die veel organisaties op dit moment hebben en hoe zij hen kan helpen deze te beantwoorden tijden haar workshop van een volledige dag. 

Het doel van de workshop is mensen kennis te laten maken met de nieuwe privacy wetgeving en grip te krijgen op wat GDPR en data privacy precies inhouden zodat ze weten welke veranderingen nodig zijn binnen hun organisaties. De workshop wordt afgesloten met een case waarin de deelenemers zelf aan de slag gaan met alles wat ze die dag geleerd hebben.

De eerstvolgende workshop is op 16 november. Meer informatie over de workshop en Regine Dhaene is te vinden op www.adeptevents.nl.

]]>
Mon, 15 May 2017 11:36:24 +0200 Regine Dhaene over data privacy en security met GDPR http:///item/895997/regine-dhaene-over-data-privacy-en-security-met-gdpr.html&field=Foto1&rType=crop&height=165&width=165.jpg
Kaspersky Lab biedt online hub in aanloop naar GDPR deadline http:///item/892887/kaspersky-lab-biedt-online-hub-in-aanloop-naar-gdpr-deadline.html Kaspersky Lab heeft een online hub geïntroduceerd die ondernemingen helpt hun data gezond te maken en hun zakelijke belangen op de lange termijn te bewerkstelligen. Over ruim een jaar moeten bedrijven binnen de EU voldoen aan de Algemene Verordening Gegevensbescherming (AVG maar beter bekend als de GDPR). Met een evaluatietool om te meten in hoeverre hun organisatie klaar is voor de GDPR, en bronnen die praktische adviezen bieden om actie op te ondernemen, beoogt de website bedrijven het duwtje in de rug te geven dat nodig is om binnen de tijd de finish te bereiken.

Ondanks de naderende deadline en verplichtingen voor bedrijven om hun databeschermingspraktijken te versterken voor de opslag en verwerking van persoonsgegevens - en de zware financiële sancties voor niet-naleving daarvan - toont onderzoek van Kaspersky Lab aan dat ruim één op de vijf (20 procent) van de IT-beslissers in Europa nog altijd weinig of geen besef heeft van de GDPR. De Nederlandse IT-beslissers scoren hier niet beter in (22 procent). Wel geeft 39 procent van de Nederlandse respondenten aan enigszins op de hoogte te zijn, echter niet tot in detail.

Online evaluatietool
Juridische en informatiebeveiligingsteams, en beslissers binnen de top van de onderneming, hebben in grote lijnen weliswaar een reactie klaar op de GDPR, maar werknemers die zich in andere delen van het bedrijf in de praktijk bezighouden met gegevensverwerking zijn minder goed voorbereid, of niet eens bekend met wat er van hen verwacht wordt. De online hub is ontwikkeld om de verantwoordelijkheden van bedrijven en individuele werknemers te helpen verduidelijken. Het doet dit door middel van een geanimeerde video, een interactief diagram en een whitepaper dat zich richt op de impact van de GDPR op belangrijke afdelingen binnen de organisatie.
Voor bedrijven die hun hoofd in het zand steken of voor ondernemingen die wel al flink op weg zijn om te voldoen aan de GDPR, stelt een online evaluatietool een reeks vragen om de huidige datagezondheid binnen de hele organisatie te beoordelen. Ook verstrekt dit instrument relevant advies over de aanpak van belangrijke wijzigingen die op hen betrekking hebben.

Verantwoordelijkheid
Volgens Martijn van Lom, General Manager Kaspersky Lab Benelux, is de GDPR op het moment een bijzonder actueel onderwerp vanwege de toenemende bezorgdheid over mogelijke boetes en de snel naderende deadline. “Ondanks alle ophef doen bedrijven echter nog onvoldoende om hun gegevenspraktijken op orde te krijgen voor alle afdelingen en zo hun verplichtingen na te komen. Naast het werken met juridische of zakelijke consultancyspecialisten is het belangrijk om niet voorbij te gaan aan degenen die dagelijks met de data omgaan.”
Aangezien databeveiliging en -bewaking centraal staat bij Kaspersky Lab, ziet Van Lom het als zijn verantwoordelijkheid om bedrijven en individuele werknemers te helpen begrijpen hoe goede datagezondheid er uitziet en waarom het goed is voor het bedrijf. “We willen hen aanmoedigen om na te denken over goede datagezondheid. Niet alleen in het kader van de GDPR-naleving, maar ook voor het succes en welzijn van de onderneming op de lange termijn.”

Via zorgvuldige planning en een proactieve benadering kunnen bedrijven GDPR-compliance bereiken en hun data op orde krijgen. De online kennisbank van Kaspersky Lab is ontworpen om sommige vragen te beantwoorden die bedrijven hebben over de GDPR, en hen in de juiste richting te sturen naar gegevensbescherming en -beveiliging.

Het onderzoek is uitgevoerd voor Kaspersky Lab door Arlington Research in april 2017. Ruim 2.300 IT-beslissers uit heel Europa, binnen bedrijven met 50 of meer werknemers, werden ondervraagd over hun opvattingen over en bekendheid met GDPR.

Meer informatie: Kaspersky Lab

]]>
Fri, 12 May 2017 00:03:44 +0200 Kaspersky Lab biedt online hub in aanloop naar GDPR deadline http:///item/892887/kaspersky-lab-biedt-online-hub-in-aanloop-naar-gdpr-deadline.html&field=Foto1&rType=crop&height=165&width=165.jpg
iFusion Analytics en Interoute leveren edge analytics http:///item/892701/ifusion-analytics-en-interoute-leveren-edge-analytics.html iFusion Analytics is een samenwerking aangegaan met Interoute, eigenaar en operator van een van Europa's grootste netwerken en een wereldwijd cloud services platform, om edge analytics aan te bieden. iFusion Analytics is aanbieder van geïntegreerde big data as a Service (iBDaaS).

Door iFusion’s iBDaaS platform te combineren met Interoutes wereldwijde netwerk van verbonden Virtuele Datacenters (VDC’s), worden organisaties in staat gesteld om data dichter bij de originele bron te verwerken en binnen enkele minuten analytische inzichten te verkrijgen, in plaats van uren te wachten op de resultaten van een query uitgevoerd op een vergrendelde fysiek lokale server.

Overkoepelend systeem
Het partnerschap maakt het mogelijk dat iFusion snel on-demand rekentijd en storage kan opstarten om snellere database queries dicht bij de oorspronkelijke gegevensbron uit te voeren, zodat bedrijven direct van informatie worden voorzien.
Big Data wordt aan de rand van het netwerk van Interoute verwerkt, alvorens deze wordt verzameld, geverifieerd en verzonden naar een centraal systeem. Het centrale iFusion analytics systeem geeft een overkoepelende weergave van alle regionale ingangen.
Door Interoute’s Object Storage en connectoren te gebruiken, kunnen Big Data analytische toepassingen kleinschaliger worden en als pre-loaded templates in de Virtuele Datacenters op regionale ingangen worden toegepast.

Meer informatie: Interoute

]]>
Fri, 12 May 2017 00:02:00 +0200 iFusion Analytics en Interoute leveren edge analytics http:///item/892701/ifusion-analytics-en-interoute-leveren-edge-analytics.html&field=Foto1&rType=crop&height=165&width=165.jpg
Deloitte Nederland en PTC stimuleren zakelijke IoT-adoptie http:///item/892477/deloitte-nederland-en-ptc-stimuleren-zakelijke-iot-adoptie.html Consultancy-organisatie Deloitte Nederland en PTC starten een samenwerking om het gebruik van en innovatie met Internet of Things voor klanten te stimuleren op basis van het Industrial Internet of Things-platform ThingWorx van PTC. PTC is aanbieder van Product Lifecycle Management-oplossingen.

In het kader van een wereldwijd initiatief ontwikkelen Deloitte Digital en PTC gezamenlijk branchespecifieke oplossingen die klanten in staat stellen om meer toegevoegde waarde uit het IoT te putten. De eerste IoT-oplossingen zijn ontwikkeld met het oog op bedrijven in de maakindustrie, olie- en aardgassector en de energie- en nutssector. De primaire focus ligt daarbij op een snelle ontwikkeling en implementatie van oplossingen voor ‘condition based monitoring’, voorspellend onderhoud, digitale toevoernetwerken en ‘connected factories’. Deloitte en PTC zullen daarnaast oplossingen ontwikkelen op het gebied van retail en consumentengoederen, gezondheidszorg, biowetenschap en smart cities.

Digital Agility
Sectorspecifieke vraagstukken en het bieden van toegevoegde waarde staan centraal binnen de aanpak van Deloitte Digital. Dit, in combinatie met zijn wereldwijde netwerk en brede dienstenaanbod, stelt Deloitte in staat om de beloften van het IoT in te lossen. “Met PTC’s erkende IoT-platform ThingWorx kunnen onze teams snel machines, apparaten en sensoren met elkaar verbinden om nieuwe inzichten op te doen en op basis daarvan acties te ontwikkelen die onze klanten snel meerwaarde en een hogere ROI kunnen opleveren. We zijn blij om als eerste land in EMEA deze samenwerking handen en voeten te geven”, zegt Stephen Ward, managing partner bij Deloitte Digital Nederland.
Binnen het samenwerkingsverband gaat het Digital Transformation Network van Deloitte, Digital Agility genaamd, aan de slag met de kant-en klare tools voor het ontwikkelen van IoT-toepassingen van ThingWorx. Digital Agility zet IoT-technologieën in om zakelijke transformatie mogelijk te maken binnen ieder onderdeel van een organisatie.

Partnernetwerk
PTC ThingWorx is volgens Helena Lisachuk, Director en Global IoT Deloitte Initiative lead, een van de belangrijkste leveranciers van IoT-platforms binnen het partnernetwerk. “Dankzij het gebruiksgemak van het ThingWorx-platform en de ervaring van PTC binnen onze focusmarkten kunnen we in nauwe samenwerking met onze klanten snel prototypes ontwikkelen die de waarde en het potentieel van IoT duidelijk maken. We zien dit als een strategische stap in het uitbreiden van de samenwerking die in de VS is opgestart en binnen de introductie bij een bredere groep van klanten in EMEA.”
System integrators spelen volgens Mohamed Ennassiri, Director, Global Strategic Alliances EMEA bij PTC, een belangrijke rol binnen de partnerstrategie en zijn essentieel voor verdere ontwikkeling van markten. “Deloitte vormt dankzij zijn schaalomvang en brede dienstenaanbod een gewaardeerde partner met een sterke visie. We kijken er naar uit om ons samen te richten op de ontwikkeling van innovatieve IoT-oplossingen en het aanbieden ervan voor onze klanten.”
 
Meer informatie: Deloitte

]]>
Thu, 11 May 2017 12:35:15 +0200 Deloitte Nederland en PTC stimuleren zakelijke IoT-adoptie http:///item/892477/deloitte-nederland-en-ptc-stimuleren-zakelijke-iot-adoptie.html&field=Foto1&rType=crop&height=165&width=165.jpg
HPE lanceert starterkit voor versnellen en vereenvoudigen van GDPR-compliance http:///item/892438/hpe-lanceert-starterkit-voor-versnellen-en-vereenvoudigen-van-gdpr-compliance.html De softwaredivisie van Hewlett Packard Enterprise kondigt de beschikbaarheid van een GDPR Starter Kit aan. Deze starterkit vormt voor organisaties de belangrijke eerste stap in de voorbereidingen op de naderende General Data Protection Regulation (GDPR) van de Europese Unie.

Deze gebundelde set softwareoplossingen moet organisaties helpen met automatische identificatie, classificatie en het nemen van actie om informatie te verkrijgen over de nieuwe regelgeving. GDPR zorgt voor een bijzondere uitdaging bij organisaties over de hele wereld. De regelgeving is immers van toepassing op elke instantie die gegevens van mensen binnen de EU verzamelt of verwerkt. GDPR legt zware sancties op aan organisaties die hier in mei 2018 niet aan voldoen. 54 procent van C-level directeuren bij grote multinationals stelt dat GDPR bovenaan de prioriteitenlijst staat als het gaat om hun dataprivacy en security, stelt recent onderzoek van PwC Pulse. Bovendien zegt 77 procent van de respondenten van plan te zijn om minimaal 1 miljoen dollar te besteden aan de GDPR-compliance.

Eerste stap
De start van dit proces is volgens Joe Garber, Vice President Marketing van Informatie Management & Governance bij HPE Software, voor veel organisaties een grote uitdaging. “Vaak bestaan data uit miljarden objecten en hebben organisaties te maken met een beperkt tijdsbestek. Bovendien is het vaststellen wat binnen de GDPR-regelgeving omslachtig en complex. De GDPR Starter Kit biedt klanten een eenvoudig te integreren set oplossingen voor het beoordelen van data. Hiermee nemen ze de eerste stap voor data- en risicomanagement zoals het staat omschreven in de regelgeving.”

Combinatie
De GDPR Starter Kit combineert sterke software, waaronder HPE ControlPoint, HPE Structured Data Manager, HPE Content Manager en HPE SecureData in gebundelde oplossingen om klanten te helpen bij de uitvoering van een Personal Data Assessment en optionele encryptie van data die onderhevig is deze regelgeving. Deze combinatie van classificatie, governance- en datasecurityproducten levert volgens HPE belangrijke voordelen op:
• Automatiseer de beoordeling van gestructureerde en ongestructureerde data om het traditioneel handmatige en foutgevoelige proces te verzachten.
• Versleutel snel en kosteneffectief GDPR-gevoelige data automatisch om beveiligingslekken te beperken.
• Neem de belangrijke stap richting lifecycle en retentiemanagement om compliance van additionele GDPR-artikelen en corporate governancevoorwaarden mogelijk te maken.

Meer informatie: HPE

]]>
Thu, 11 May 2017 11:47:13 +0200 HPE lanceert starterkit voor versnellen en vereenvoudigen van GDPR-compliance http:///item/892438/hpe-lanceert-starterkit-voor-versnellen-en-vereenvoudigen-van-gdpr-compliance.html&field=Foto1&rType=crop&height=165&width=165.jpg
Atos en Dell EMC bundelen krachten in Internet of Things markt http:///item/892437/atos-en-dell-emc-bundelen-krachten-in-internet-of-things-markt.html Atos en Dell EMC gaan hun krachten bundelen om de groeiende vraag op het gebied van Internet of Things (IoT) en business analytics beter te kunnen bedienen. Deze samenwerking is gebaseerd op de vooruitstrevende hard- en software van Dell EMC, gecombineerd met Atos Codex, een compleet pakket van oplossingen en vaardigheden om slimme data business services, dataplatforms en Internet of Things te ontwerpen, bouwen, managen en te beveiligen.

Tegen 2020 zal bijna 40 procent van de IoT-gerelateerde omzet komen uit dienstverlening, volgens onderzoeksbureau Markets and Markets. Dit percentage zal naar verwachting jaarlijks stijgen als gevolg van een toenemende vraag naar IT- advies en ondersteuning. De omzet in 2016 voor professionele IoT-dienstverlening bedroeg wereldwijd 57 miljard dollar, en de verwachting is dat dit cijfer groeit naar 158 miljard dollar in 2021. Een CAGR van meer dan 22 procent.

End-to-end service management
De enorme groei van het aantal door internet verbonden apparaten, de hoeveelheid data die dit genereert en de toepassingen die weer waarde afleiden uit deze connecties, leiden tot een vraag naar een sterk aanbod van end-to-end service management. Zeker in het licht van de enorme omvang en complexiteit van de netwerken die voortkomen uit de IoT.
De benadering van Atos om IoT in te zetten om operationele efficiëntie te bereiken, klantenbetrokkenheid en business transformatie voldoet volgens Practice Director Yugal Joshi bij Everest Group aan een duidelijke marktbehoefte. “Haar expertise in IoT, versterkt door strategische investeringen, partnerships, zoals met Dell EMC, en ervaring in het uitvoeren van grootschalige projecten zorgt voor continue verbeterde bedrijfsresultaten voor de klanten.”

Meerwaarde
Atos en Dell EMC werken samen aan de bouw van een IoT service management framework dat ervoor zorgt dat klanten altijd zelf controle uitoefenen en er zeker van kunnen zijn dat alle gebruikers doorlopend meerwaarde halen uit hun door internet verbonden apparaten. Dit service management framework heet Atos Codex IoT Services. Het Atos Codex IoT Services framework bevat een catalogus van diensten, waaronder het management van apparaten, connectiviteit, data en opslag, change & release control, incident management, een service- en helpdesk en diensten die voorzien in het weerbaarder maken van systemen tegen fouten en storingen. Deze dienstverlening wordt geleverd met per gebruiker gedefinieerde servicelevels, inclusief de benodigde beveiligingsmaatregelen op het gebied van toegang en data-encryptie. Het framework definieert ook blauwdruk voor de architectuur, waarbij gebruik wordt gemaakt van hard- en software oplossingen van Dell EMC en van software oplossingen en integratie services van Atos.

De samenwerking heeft betrekking op twee gebieden:
- Gezamenlijke ontwikkeling en ontwerp van het Service Delivery Framework, gebruikmakend van bestaande producten en diensten van beide ondernemingen.
- Gezamenlijke marktbenadering, bouwend op de kracht van beide merken en op het vermogen oplossingen te bouwen en te verkopen die tegemoet komen aan de vraag van de klant.
De eerste Atos Codex IoT Services framework services zijn per direct beschikbaar en worden aangevuld met nieuwe diensten en producten op basis van de marktvraag.

]]>
Thu, 11 May 2017 11:37:42 +0200 Atos en Dell EMC bundelen krachten in Internet of Things markt http:///item/892437/atos-en-dell-emc-bundelen-krachten-in-internet-of-things-markt.html&field=Foto1&rType=crop&height=165&width=165.jpg
Information Builders stelt trends rond self-service BI centraal op International Summit http:///item/891606/information-builders-stelt-trends-rond-self-service-bi-centraal-op-international-summit.html Information Builders organiseert op dinsdag 30 mei 2017 haar jaarlijkse relatiedag in Holland Casino in Breda. International Summit 2017 is onderdeel van een internationale reeks van eendaagse seminars, waarin bezoekers bijgepraat worden over trends en ontwikkelingen. De andere events vinden plaats in Duitsland, Engeland, Spanje en Mexico. Information Builders is leverancier in Business Intelligence en analytics, integratie en data-integriteit.

Tijdens International Summit 2017 informeert Information Builders de bezoekers onder meer over de roadmap van zijn producten en over de laatste trends in self-service business intelligence en analytics. Daarbij komen onderwerpen aan de orde als datavisualisatie, in-document analytics, data governance, big data en informatiemanagement.

Break-outsessies
Een van de keynotesprekers is Rodney Monroe, oud-politiechef van de Amerikaanse stad Charlotte-Mecklenburg in North-Carolina. Hij wist met behulp van predictive analytics de misdaad in de stad terug te dringen. Michael Corcoran, SVP en Chief Marketing Officer van Information Builders, verzorgt een plenaire sessie over ‘Monetizing Data, Analytics and IoT’, en Christopher Barnes, Competitor Intelligence Manager bij het bedrijf, belicht de belangrijkste innovatiegebieden van Information Builders.
Bezoekers kunnen tijdens het middagprogramma nader kennismaken met de functionele en technische mogelijkheden van de oplossingen van Information Builders. Dat kan in break-outsessies die geleid worden door specialisten op verschillende gebieden. Ook zijn de nieuwe partners Avnet en Plainwater aanwezig tijdens het event.

Solide informatiestrategie
Dennis Bartels, VP en Country Manager Benelux van Information Builders, ziet nog steeds dat organisaties niet alles halen uit de informatie die ze bezitten. “Daardoor missen ze kansen. Bovendien zullen ze moeten inspelen op belangrijke, actuele trends, waaronder cloud, big data en het Internet of Things, als ze concurrerend willen blijven. Dat alles vraagt om een solide informatiestrategie ondersteund door de juiste technologie. Wij voorzien daarin met ons bekroonde WebFOCUS Business Intelligence-platform en de software van iWay voor enterprise-integratie. Die staan tijdens International Summit 2017 volop in de spotlights, waarbij we de brede features en voordelen uitvoerig belichten.”

International Summit 2017
De Information Builders International Summit 2017 vindt plaats op dinsdag 30 mei 2017 van 09.00 uur tot 18.00 uur in Holland Casino, Kloosterplein 20, 4811 GP Breda. De ochtend staat in het teken van plenaire sessies. ’s Middags zijn er verschillende break-outsessies met diepgaande informatie over de producten. Aanmelden is mogelijk via de website van Information Builders.

]]>
Wed, 10 May 2017 13:02:08 +0200 Information Builders stelt trends rond self-service BI centraal op International Summit http:///item/891606/information-builders-stelt-trends-rond-self-service-bi-centraal-op-international-summit.html&field=Foto1&rType=crop&height=165&width=165.jpg
Oracle Gebruikersclub Holland wijzigt naam in nlOUG http:///item/891089/oracle-gebruikersclub-holland-wijzigt-naam-in-nloug.html De Oracle Gebruikersclub Holland (OGh) is al bijna 30 jaar een begrip in de Nederlandse Oracle community. Met ingang van 1 juli aanstaande zal de vertrouwde naam plaatsmaken voor een nieuwe naam: nlOUG (onder voorbehoud van goedkeuring door de ALV).

Het OGh bestuur wil met de wijziging de naam van de Nederlandse Oracle gebruikersvereniging meer in lijn brengen met de naamgeving van de internationale Oracle User Groups. Tech Experience 2017, dat plaatsvindt op 15 en 16 juni in de Rijtuigenloods in Amersfoort, is het eerste grootschalige event dat onder de vlag van de nlOUG wordt gehouden.

Naamsbekendheid
Het bestuur verwacht dat de nieuwe naam nlOUG daarnaast zal leiden tot een grotere naamsbekendheid, zowel in Nederland als bij Oracle-gebruikers en -partners in Europa en de VS. De nieuwe naam sluit ook beter bij het steeds sterker wordende internationale karakter van de OGh. Zoals bekend is de OGh al geruime tijd ook buiten de landsgrenzen actief, onder meer via het lidmaatschap van de overkoepelende organisatie van Europese Oracle gebruikers, de EOUG.
Het door de OGh georganiseerde tweedaagse event APEX World trekt jaarlijks een toenemend aantal buitenlandse deelnemers. APEX World 2017, dat onlangs werd gehouden in Rotterdam, telde bijvoorbeeld ruim 380 bezoekers uit 13 landen. Het internationaal georiënteerde programma vermeldde tal van keynotes en parallelsessies over een breed scala van APEX-gerelateerde onderwerpen. Een belangrijk deel van de gerenommeerde sprekers was afkomstig van Oracle Corp in de VS en Oracle-partners uit Europa.

Complete Oracle Technology stack
Ook Tech Experience 2017 dat op 15 en 16 juni a.s. voor het eerst wordt gehouden, kent een uitgebreid en internationaal georiënteerd programma. Onder het motto An inspiring source of Oracle knowledge zal het tweedaagse event de complete Oracle Technology stack bedienen, van Engineered Systems en DBMS tot Development en BI. Keynote sprekers zijn Maria Colgan (Oracle), Duncan Mills (Oracle) en Lucas Jellema (AMIS). Met meer dan 50 sprekers, waaronder Tim Hall, Christian Berg, Chris Saxon, Toon Koppelaars, Geertjan Wielenga, Grant Ronald, Ralf Muller, Frank Nimphius en Steven Davelaar, verdeeld over 9 parallel tracks, wacht de deelnemers een interessant en leerzaam programma.

Selfservice pagina
Het bestuur heeft tevens de intentie om de website van de OGh aan te passen. Niet alleen veranderen de naam en het logo, maar ook zullen er aanpassingen en verbeteringen worden doorgevoerd in de opbouw, toegankelijkheid en navigatie binnen de website. Zo komt er bijvoorbeeld een selfservice pagina, waar individuele leden een persoonlijk account kunnen aanmaken, dat onafhankelijk is van het type (bedrijfs)lidmaatschap. De toename van het aantal individuele lidmaatschappen is mede de reden geweest voor deze verandering. Ook kan de OGh/nlOUG in de nieuwe opzet een betere service bieden en de informatievoorziening nauwkeuriger afstemmen op de individuele behoefte en persoonlijke interesse van haar leden.

De voorgenomen naamswijziging zal in de komende algemene ledenvergadering ter goedkeuring aan de OGh-leden worden voorgelegd.

]]>
Wed, 10 May 2017 00:51:46 +0200 Oracle Gebruikersclub Holland wijzigt naam in nlOUG http:///item/891089/oracle-gebruikersclub-holland-wijzigt-naam-in-nloug.html&field=Foto1&rType=crop&height=165&width=165.jpg
Info Support behaalt ISO27001 en NEN7510 certificeringen http:///item/891088/info-support-behaalt-iso-en-nen-certificeringen.html ICT-dienstverlener Info Support heeft de ISO27001 en NEN7510 certificeringen behaald. De certificeringen, die door de onafhankelijke certificeringsinstantie DEKRA zijn toegekend, bevestigen dat Info Support voldoet aan alle eisen op het gebied van informatiebeveiliging.

Met deze accreditatie zijn opdrachtgevers van Info Support ervan verzekerd dat hun informatie bij Info Support in veilige handen is en vertrouwelijk blijft. Opdrachtgevers kunnen op hun beurt richting hun klanten aangeven dat zij onderdelen van hun dienstverlening aan een betrouwbare partij uit handen hebben gegeven. Info Support was al gecertificeerd voor ISO9001 (Kwaliteitsmanagement) en ISO20000-1 (servicemanagement). De normeisen van de nieuwe certificeringen zijn volledig geïntegreerd in het managementsysteem dat Info Support al in gebruik had voor die andere certificeringen.

Manager Managed Services Oscar Lubbers bij Info Support is trots op deze mijlpaal. “Veel van de maatregelen die vanuit het certificeringstraject gevraagd worden, hadden wij al ingericht, maar nu is dit conform de norm vastgelegd en onderdeel van ons managementsysteem. Hierdoor vindt er aantoonbaar continue sturing en verbetering op plaats. Voor onszelf, maar zeker ook voor onze opdrachtgevers geeft dit het vertrouwen dat we volgens de gestelde richtlijnen werken.”

De ISO27001 is een internationale standaard voor informatiebeveiliging; de NEN7510 is de Nederlandse norm voor informatiebeveiliging in de zorg.

Meer informatie: Info Support

]]>
Wed, 10 May 2017 00:43:01 +0200 Info Support behaalt ISO27001 en NEN7510 certificeringen http:///item/891088/info-support-behaalt-iso-en-nen-certificeringen.html&field=Foto1&rType=crop&height=165&width=165.jpg
InterSystems dataplatform biedt gedragswetenschappers inzicht in patiëntdata http:///item/890675/intersystems-dataplatform-biedt-gedragswetenschappers-inzicht-in-patia-laquo-ntdata.html Netsmart heeft het InterSystems dataplatform geselecteerd om met behulp van de ingebouwde analytische functionaliteit de tot voor kort verborgen informatie over het gedrag van patiënten te halen uit electronische gezondheidsdossiers. Netsmart is leverancier van technologie voor Amerikaanse GGZ instellingen.

Netsmart brengt het systeem myAvatar op de markt, dit is een informatiebeheersysteem voor behandelaars die zich toeleggen op de geestelijke gezondheidszorg en die informatie willen uitwisselen met andere disciplines uit de zorgsector. Onderdeel van het door InterSystems geleverde platform is het product iKnow waarmee zich relevante informatie uit ongestructureerde, veelal tekstuele databronnen laat destilleren.
InterSystems werkte nauw samen met Netsmart bij de implementatie van het platform bij Mental Health Center of Denver (MHCD), een instelling die in de Verenigde Staten bekend staat om de innovatieve en kwalitatieve wijze van het behandelen van psychiatrische patiënten. Voorheen koste het MHCD veel moeite om verbeteringen in het genezingsproces te constateren uit de diagnose- en gespreksverslagen, zowel vanuit het perspectief van de patiënt als vanuit de visie van de behandelaar. Doorgaans leggen patienten de voortgang in hun behandeltraject vast via een beknopte vragenlijst, waaruit artsen aan de hand van verschillende criteria hun conclusies trekken.

Ongestructureerde informatie
De Netsmart oplossing levert een voor de behandelaars begrijpelijk beeld van het rijke potentieel aan informatie die in de klinische verslaglegging verborgen zit. Ongestructureerde informatie in de vorm van psychiatrische evaluaties, notities van het instellingsmanagement, aantekeningen van de case manager of bewindvoerder, intake verslagen en behandelplannen zijn moeilijk te analyseren vanuit een traditionele gestructureerd opgezet elektronische zorgdossier. Door het gebruik van InterSystems technologie, waarmee conceptuele data extracten uit zowel gestructureerde als ongestructureerde gegevensbronnen zijn te ontsluiten, was MHCD in staat verder te kapitaliseren op de data ondergebracht in het Netsmart system. Artsen kunnen, terwijl ze gewoon blijven werken volgens de gebruikelijke klinische werkwijze, het verhaal van hun cliënten/patiënten terugbrengen naar de formele data voor de besluitvorming.
InterSystems and Netsmart werkten heel nauw samen met behandelaars om te vernemen welke data in welke vorm voor hen van belang is. Deze aanpak wordt ook aanbevolen door American College of Physicians (ACP) in een notitie aangeduid als: Clinical Documentation in the 21st Century, gepubliceerd in Annals of Internal Medicine.

Omvangrijke analyses
Door het toepassen van InterSystems oplossing voor het analyseren van ongestructureerde data binnen het Netsmart systeem, kan MHCD nu omvangrijke analyses los laten op alle patiëntendata zonder complexe aanpassingen aan de bestaande IT infrastructuur. Daardoor kunnen artsen gemakkelijker de voortgang in het behandelproces van een patiënt beoordelen en een besluit nemen over de volgende stappen. De kwaliteit van de zorg is daarmee gediend, terwijl er tevens doelmatiger wordt gewerkt. Ook in Nederland zijn er in de zorgsector met het toepassen van de iKnow functionaliteit voor tekstuele analyse spectaculaire resultaten behaald, onder meer bij het voortijdig herkennen van indicatoren in psychiatrische verslagen en verpleegkundige logboeken.

Meer informatie: InterSystems

]]>
Wed, 10 May 2017 00:02:00 +0200 InterSystems dataplatform biedt gedragswetenschappers inzicht in patiëntdata http:///item/890675/intersystems-dataplatform-biedt-gedragswetenschappers-inzicht-in-patia-laquo-ntdata.html&field=Foto1&rType=crop&height=165&width=165.jpg
How Machine Learning is Revolutionizing Digital Enterprises http:///item/890558/how-machine-learning-is-revolutionizing-digital-enterprises.html According to the prediction of IDC Futurescapes, two-thirds of global 2000 enterprises CEO's will center their corporate strategy on digital transformation. A major part of the strategy should include machine-learning (ML) solutions. The implementation of these solutions could change how these enterprises view customer value and internal operating model today.

If you want to stay ahead of the game, then you cannot afford to wait for that to happen. Your digital business needs to move towards automation now while ML technology is developing rapidly. Machine learning algorithms learn from huge amounts of structured and unstructured data, e.g. text, images, video, voice, body language, and facial expressions. By that it opens a new dimension for machines with limitless applications from healthcare systems to video games and self-driving cars.

In short, ML will connect intelligently people, business and things. It will enable completely new interaction scenarios between customers and companies and eventually allow a true intelligent enterprise. To realize the applications that are possible due to ML fully, we need to build a modern business environment. However, this will only be achieved, if businesses can understand the distinction between Artificial Intelligence (AI) and Machine Learning (ML).

Understanding the Distinction Between ML and AI
Machines that could fully replicate or even surpass all humans’ cognitive functions are still a dream of Science Fiction stories, Machine Learning is the reality behind AI and it is available today. ML mimics how the human cognitive system functions and solves problems based on that functioning. It can analyze data that is beyond human capabilities. The ML data analysis is based on the patterns it can identity in Big Data. It can make UX immersive and efficient while also being able to respond with human-like emotions. By learning from data instead of being programmed explicitly, computers can now deal with challenges previously reserved to the human. They now beat us at games like chess, go and poker; they can recognize images more accurately, transcribe spoken words more precisely, and are capable of translating over a hundred languages.

ML Technology and Applications for Life and Business
In order for us to comprehend the range of applications that will be possible due to ML technology, let us look at some examples available currently:
• Amazon Echo, Google Home:
• Digital assistants: Apple’s Siri, SAP’s upcoming Copilot

Both types of devices provide an interactive experience for the users due to Natural Language Processing technology. With ML in the picture, this experience might be taken to new heights, i.e., chatbots. Initially, they will be a part of the apps mentioned above but it is predicted that they could make text and GUI interfaces obsolete!

ML technology does not force the user to learn how it can be operated but adapts itself to the user. It will become much more than give birth to a new interface; it will lead to the formation of enterprise AI.

The limitless ways in which ML can be applied include provision of completely customized healthcare. It will be able to anticipate the customer’s needs due to their shopping history. It can make it possible for the HR to recruit the right candidate for each job without bias and automate payments in the finance sector.

Unprecedented Business Benefits via ML
Business processes will become automated and evolve with the increasing use of ML due to the benefits associated with it. Customers can use the technology to pick the best results and thus, reach decisions faster. As the business environment changes, so will the advanced machines as they constantly update and adapt themselves. ML will also help businesses arrive on innovations and keep growing by providing the right kind of business products/services and basing their decisions on a business model with the best outcome.

ML technology is able to develop insights that are beyond human capabilities based on the patterns it derives from Big Data. As a result, businesses would be able to act at the right time and take advantage of sales opportunities, converting them into closed deals. With the whole operation optimized and automated, the rate at which a business grows will accelerate. Moreover, the business process will achieve more at a lesser cost. ML will lead businesses into environs with minimal human error and stronger cybersecurity.

ML Use Cases
The following three examples show how ML can be applied to an enterprise model that utilizes Natural Language Processing:

• Support Ticket Classification
Consider the case where tickets from different media channels (email, social websites etc.) needs to be forwarded to the right specialist for the topic. The immense volume of support tickets makes the task lengthy and time consuming. If ML were to be applied to this situation, it could be useful in classifying them into different categories.
API and micro-service integration could mean that the ticket could be automatically categorized. If the number of correctly categorized tickets is high enough, a ML algorithm can route the ticket directly to the next service agent without the need of a support agent.

• Recruiting
The job of prioritizing incoming applications for positions with hundreds of applicants can also be slow and time consuming. If automated via ML, the HR can let the machine predict candidate suitability by providing it with a job description and the candidate’s CV. A definite pattern would be visible in the CVs of suitable candidates, such as the right length, experience, absence of typos, etc. Automation of the process will be more likely to provide the right candidate for the job.

• Marketing
ML will help build logo and brand recognition for businesses in the following two ways:
- With the use of a brand intelligence app, the identification of logos in event sponsorship videos or TV can lead to marketing ROI calculations.
- Stay up to date on the customer’s transactions and use that behavior to predict how to maintain customer loyalty and find the best way to retain them.

How Enterprises Can Get Started Implementing Machine Learning
Businesses can step into the new age of ML and begin implementing the technique by letting the machines use Big Data derived from various sources, e.g. images, documents, IoT devices etc to learn. While these machines can automate lengthy and repetitive tasks, they can also be used to predict the outcome for new data. The first step in implementation of ML for a business should be to educate themselves about its nature and the range of its applications.

Another step that can bring a business closer to ML implementation is data preparation in complex landscapes. The era of information silos is over and there is an imperative need for businesses to gather data from various sources, such as customers, partners, and suppliers. The algorithms must then be provided open access to that data so they can learn and evolve. The Chief Data Officer of the company can oversee the ML integration process.

To start with completely new use cases for Machine Learning is not easy and requires a good understanding of the subject and having the right level of expertise in the company. A better starting point for many companies would be to rely on ML solutions already integrated into standard software. By that it will connect seamless with the existing business process and immediately start to create value.

Lastly, businesses should start gathering the components necessary for building AI products. Among the requirements would be a cloud platform capable of handling high data volume that is derived from multiple sources. The relevant people are as important to this step as are the technology and processes. After all, they would be the ones who will be testing the latest digital and ML technologies.

]]>
Tue, 09 May 2017 11:24:47 +0200 How Machine Learning is Revolutionizing Digital Enterprises http:///item/890558/how-machine-learning-is-revolutionizing-digital-enterprises.html&field=Foto1&rType=crop&height=165&width=165.jpg
Coders Co. wint Gfk Insights Challenge met RAX tijdens Wakoopa Datathon http:///item/890557/coders-co-wint-gfk-insights-challenge-met-rax-tijdens-wakoopa-datathon.html Het Amsterdamse data scientists team Coders Co. heeft op 23 april 2017 de Gfk Insights track gewonnen van de Wakoopa WHAT datathon. Dankzij de RAX-technologie visualiseerde het team binnen 16 uur het winkelgedrag over verschillende online shops uit duizenden clickstreams in een interactief dashboard.

Hoe haal je zinvolle gedragsdata uit duizenden clickstreams van online modeshoppers? De deelnemers aan de Datathon ontvingen gebruiksgegevens van een maand uit de PC’s, tablets en smartphones van een Nederlands panel: welke websites en apps zij gebruikten, wanneer en hoelang. De duizenden webclicks en zoektermen werden aangeleverd door organisator Wakoopa, die deze gegevens met haar ‘passive metering technology’ met toestemming anoniem registreert bij diverse panels.

Customer journeys
Volgens Gosia Wrzesinska, CEO van Coders Co., kunnen de meeste online winkeliers inmiddels het klantgedrag in hun eigen shop achterhalen. “Maar wat ze niet weten is: hoe verhoudt dit klantgedrag zich tot dat bij andere shops en hoe navigeren mensen door verschillende shops op hun pad naar aankoop? Ons doel was het klantgedrag over de verschillende online modeshops te visualiseren om interessante patronen en klantsegmenten te ontdekken.”

Uitdaging
Elk pad dat een klant doorloopt is echter uniek. Hoe maak je daar zinvolle visualisaties van? Met hiërarchische clustering algoritmen en de eigen RAX-programmeertaal leverde Coders Co. een interactief dashboard op. Dat toont in één oogopslag de negen relevant te onderscheiden customer journeys. “Dankzij RAX, dat zeer efficiënt overweg kan met (big) gedragsdata, behaalden we dit resultaat in 16 uur. Kun je nagaan wat mogelijk is als we drie dagen hebben”, aldus Wrzesinska.
Het interactieve dashboard maakt volgens Wrzesinska interessante conclusies mogelijk. “Zoals te verwachten was, zijn langere surfsessies een duidelijke indicator voor koopintentie. Verrassender is dat in ieder geval Nederlandse modeshoppers vooral aan het begin van hun customer journey veel verschillende webshops bezoeken. Nog opvallender is dat vooral de grote webshops veel customer journeys hebben van het type ‘wel kijken, niet kopen’ met lage conversie, terwijl de kleinere shops vaak een meer betrokken koperspubliek hebben.”

Ongestructureerd
Marktonderzoekers doen interviewonderzoek. Maar mensen zeggen of weten vaak niet helemaal wat ze doen. Gedragsdata via registratie, de passive metering technology, zoals die van Wakoopa, wordt daarom steeds belangrijker. Deze data zijn vooral ongestructureerd en daardoor moeilijk te analyseren. De tijdsdimensie maakt de analyse nog ingewikkelder. Als marktonderzoekers deze data al verzamelen, weten ze vaak niet wat ze ermee moeten. Of het verwerken is te duur. Tijdens de Datathon heeft Coders Co. aangetoond dat er met RAX in zeer korte tijd waardevolle inzichten uit te halen zijn. RAX opent volgens Wrzesinska voor marktonderzoekers de deur naar een nieuw type op gedrag gebaseerde inzichten tegen een betaalbare prijs.

Meer informatie: Coders Co.

]]>
Tue, 09 May 2017 11:10:42 +0200 Coders Co. wint Gfk Insights Challenge met RAX tijdens Wakoopa Datathon http:///item/890557/coders-co-wint-gfk-insights-challenge-met-rax-tijdens-wakoopa-datathon.html&field=Foto1&rType=crop&height=165&width=165.jpg
Pieter den Hamer over Internet of Data http:///item/886476/pieter-den-hamer-over-internet-of-data.html Naar aanleiding van zijn sessie over Internet of Data tijdens de Datawarehousing & Business Intelligence Summit 2017 vertelt Pieter den Hamer meer hierover tijdens dit interview met Sjoerd Janssen. De relatie met semantic web en toepassingen als Smart City worden besproken.

De Datawarehousing & Business Intelligence Summit van dit jaar vond plaats op 28 en 29 maart in Amsterdam. Mark Madsen, William McKnight, Jos Kuipers en Rick van der Lans waren de keynote sprekers van dit jaar. De andere sessies werden gevuld door welbekende sprekers uit de Benelux regio, waaronder Bart Baesens, Pieter den Hamer, en Kishan Shri. Meer informatie over het congres is te vinden op www.dwbisummit.com

]]>
Tue, 09 May 2017 10:00:00 +0200 Pieter den Hamer over Internet of Data http:///item/886476/pieter-den-hamer-over-internet-of-data.html&field=Foto1&rType=crop&height=165&width=165.jpg
Toename cyberaanvallen op overheid en financiële sector http:///item/889704/toename-cyberaanvallen-op-overheid-en-financia-laquo-le-sector.html Het aantal cyberaanvallen op de overheid is vorig jaar verdubbeld. In 2015 was nog 7 procent van alle cybersecurityaanvallen gericht op de overheid, in 2016 was dat gestegen naar 14 procent. Het aantal aanvallen op de financiële sector nam ook drastisch toe: van slechts 3 procent van alle aanvallen in 2015 tot 14 procent in 2016.

De productiesector kwam op de derde plaats terecht met 13 procent van alle aanvallen, terwijl de detailhandel – in 2015 nog bovenaan op de lijst van sectoren met de meeste cybersecurityaanvallen – naar de vierde plaats zakte (11 procent). Dit alles blijkt uit de Executive Guide van Dimension Data voor het Global Threat Intelligence Report 2017 van NTT Security. Dit rapport is samengesteld op basis van gegevens die NTT Security en andere NTT-werkmaatschappijen, waaronder Dimension Data, verzamelden uit netwerken van tienduizend klanten verspreid over vijf continenten, 3,5 biljoen security logs, 6,2 miljard aanvalspogingen en wereldwijde honeypots (lokmiddelen) en sandboxes (testomgevingen) in meer dan honderd verschillende landen.

Het rapport stipt een aantal wereldwijde, geopolitieke gebeurtenissen aan, die mogelijk hebben bijgedragen aan het feit dat de overheid een doelwit is geworden van cybersecurityaanvallen. Dat zijn onder meer:
• de Amerikaanse presidentiële verkiezingscampagne;
• een nieuwe Amerikaanse regering met een meer agressieve houding ten opzichte van China en Noord-Korea;
• China, dat een meer agressieve beleidspositie heeft aangenomen om zijn vitale kernbelangen te waarborgen;
• door de VS en de Europese Unie geleide economische sancties tegen Rusland;
• door de Russische staat ondersteunde entiteiten die de cyberactiviteiten tegen westerse doelwitten voortzetten;
• groeiend negatief sentiment in het Midden-Oosten tegen westerse inmenging in Syrië.

Gevoelige informatie
Volgens Matthew Gyde, Group Executive Security bij Dimension Data, hebben overheden over de gehele wereld voortdurend te maken met de dreiging van geavanceerde aanvallen geïnitieerd door rivaliserende naties, terroristische groepen, hacktivisten en cybercriminelen. “Dit komt doordat overheidsinstanties beschikken over enorme hoeveelheden gevoelige informatie: van persoonsinformatie, budgettaire gegevens en gevoelige correspondentie tot en met bevindingen van inlichtingendiensten. Wat interessant is, is dat we dit jaar tal van incidenten hebben gezien, waarbij het ging om bedreigingen van binnenuit.” Volgens Gyde zijn de aanhoudende aanvallen op de financiële sector geen verrassing. “Die organisaties hebben grote hoeveelheden digitale activa en gevoelige klantgegevens. Als cybercriminelen hier toegang toe krijgen, hebben ze de mogelijkheid persoonsgegevens en creditcardgegevens te gelde te maken in de ondergrondse economie.”

Andere resultaten uit het rapport
• 63 procent van alle cyberaanvallen is afkomstig van IP-adressen in de Verenigde Staten, gevolgd door het Verenigd Koninkrijk (4 procent) en China (3 procent). De VS is wereldwijd de voornaamste locatie van in de cloud gehoste infrastructuur. Daders maken vaak gebruik van een public cloud om aanvallen op te zetten dankzij de lage kosten en de stabiliteit van deze infrastructuur.
• Het Internet of Things (IoT) en apparatuur voor operationele technologie (OT) moeten niet alleen als een potentiële bron, maar ook als een doel van aanvallen worden beschouwd. Bij de IoT-aanvallen die in 2016 werden gedetecteerd, werd in circa 66 procent van de gevallen geprobeerd specifieke apparaten te ontdekken – zoals een bepaald model videocamera –, werd in 3 procent van de gevallen gezocht naar een webserver of ander type server, en werd in 2 procent van de gevallen een poging gedaan om een database aan te vallen.
• De grootste cybersecuritybedreigingen waar digitale bedrijven mee te maken hebben, zijn phishing, social engineering en ransomware, aanvallen op zakelijk e-mailverkeer, IoT- en distributed-denial-of-service-aanvallen (DDoS), en aanvallen gericht op eindgebruikers.

Bekijk het rapport.

]]>
Mon, 08 May 2017 12:21:06 +0200 Toename cyberaanvallen op overheid en financiële sector http:///item/889704/toename-cyberaanvallen-op-overheid-en-financia-laquo-le-sector.html&field=Foto1&rType=crop&height=165&width=165.jpg
Dell EMC presenteert Cloud Platform for Microsoft Azure Stack http:///item/886628/dell-emc-presenteert-cloud-platform-for-microsoft-azure-stack.html Dell EMC introduceert Dell EMC Cloud for Microsoft Azure Stack. Dit is een gebruiksklaar hybrid cloud-platform dat voorziet in simpele en snelle implementatie en beheer van hybrid clouds op basis van Microsoft Azure Stack.

Het platform wil organisaties helpen te standaardiseren op het Microsoft Azure-ecosysteem. Het nieuwe aanbod complementeert de platformen Dell EMC Enterprise Hybrid Cloud, dat meer dan drie jaar geleden werd geïntroduceerd en Dell EMC Native Hybrid Cloud dat hardware, software en automation integreert voor eenvoudigere IT service delivery en de time-to-market reduceert.

Consistente ervaring
Interoperabiliteit tussen public en private clouds is een topprioriteit geworden voor IT-infrastructuren in veel organisaties. De gebruiksklare Dell EMC Cloud for Microsoft Azure Stack biedt volgens Dell EMC een consistente ervaring in de Azure public en private cloud op basis van de Azure Stack. De oplossing is gemaakt met Dell EMC PowerEdge-servers en Dell EMC Networking en is gebouwd als enkelvoudig Hybrid Cloud Platform met een ‘turnkey’ stack.
Dell EMC Cloud for Microsoft Azure Stack omvat een hybrid cloud die zorgt voor snellere applicatieontwikkeling en inzet dankzij een consistente programmeerlaag tussen Azure en Azure Stack. Hierdoor kunnen organisaties volgens Dell EMC op een kostenefficiënte en veilige manier traditionele en cloud-native applicaties benaderen, creëren en delen in Azure en Azure Stack, zonder dat de security, kwaliteit van de service en beschikbaarheid in het geding komen.

De integratie met Dell EMC backup- en encryptietechnologie zorgt voor beveiliging van data in public en on-premise cloud-omgevingen van klanten. Pivotal Cloud Foundry is door Azure geadopteerd en kan worden gebruikt met Dell EMC for Microsoft Azure Stack. Hiermee kan worden voldaan aan de beloftes van hybride modellen met consistente services, API’s en consumptiemodellen, zowel on- als off-premise.

Dell EMC Services
Dell EMC services zijn beschikbaar voor elke stap in het proces: van strategische planning tot en met de implementatie, operations en ondersteuning. Dell EMC-experts bieden hands-on sturing om het hybrid cloud-platform van klanten te optimaliseren en uit te breiden. Dit is inclusief het ontwikkelen en personaliseren van service-catalogi, de inzet van identity and access management-systemen en het uitbreiden van monitoring- en meetsystemen in Azure Stack.
Dell EMC biedt ondersteuning voor het volledige platform waarbij elke component wordt ondersteund door automatische, proactieve, voorspelbare tools en een dedicated Technical Account Manager met ProSupport Plus. Door gebruik te maken van Hybrid Cloud Platforms met ondersteuning door Dell EMC Services, kunnen organisaties focussen op het bieden van gedifferentieerde applicatiediensten in plaats van het bouwen en beheren van hun infrastructuur.

The Power of Hybrid Cloud
Om erachter te komen hoe bedrijven transformeren en inzicht te krijgen in de voordelen, kosten en beweegredenen voor cloud-modellen, heeft Dell EMC analistenbureau IDC gevraagd onderzoek te doen onder 1.000 middelgrote tot grote organisaties die reeds gebruikmaken van private en public clouds, of dat overwegen te gaan doen. De resultaten van dit onderzoek zijn te vinden in de IDC whitepaper The Power of Hybrid Cloud.

Dell EMC Cloud for Microsoft Azure Stack is naar verwachting vanaf het tweede kwartaal van 2017 beschikbaar via het wereldwijde partnerkanaal.

]]>
Fri, 05 May 2017 01:39:32 +0200 Dell EMC presenteert Cloud Platform for Microsoft Azure Stack http:///item/886628/dell-emc-presenteert-cloud-platform-for-microsoft-azure-stack.html&field=Foto1&rType=crop&height=165&width=165.jpg
KPMG: Europese durfinvesteringen in Fintech nemen fors toe http:///item/886588/kpmg-europese-durfinvesteringen-in-fintech-nemen-fors-toe.html De durfinvesteringen in Europese Fintech-bedrijven zijn in de eerste drie maanden van dit jaar aanzienlijk gestegen vergeleken met het laatste kwartaal van 2016. In de eerste drie maanden van 2017 investeerden durfkapitalisten voor een bedrag van 610 miljoen dollar in Fintech, twee keer zoveel als in het laatste kwartaal van vorig jaar. Dit blijkt uit de Pulse of Fintech, een onderzoek dat KPMG iedere drie maanden uitvoert naar de investeringen die wereldwijd gedaan worden in Fintech.

De forse toename in Europa was met name een gevolg van een drietal investeringen van 100 miljoen+ dollar. Zo kon het Zweedse iZettle een investering tegemoet zien van 175,2 miljoen dollar en verwierven de Britse Fintech startups Atom Bank en Funding Circles investeringen van respectievelijk 103,6 miljoen en 101,1 miljoen dollar.
In Europa toonden vooral ondernemingen met hun investeringsfondsen belangstelling voor Fintech startups. Hun aandeel in het aantal transacties steeg van ruim 5 procent in het laatste kwartaal van vorig jaar tot iets meer dan 20 procent in de eerste drie maanden van 2017.

Prestatie en rendement staan voorop
Wereldwijd werd in de eerste drie maanden van 2017 voor een bedrag van 2,3 miljard dollar aan durfkapitaal in Fintech geïnvesteerd. Iets meer dan de helft van dit bedrag werd in de Verenigde Staten geïnvesteerd, 1,2 miljard dollar. De investeringen in Azië daalden tot een bedrag van 406 miljoen dollar.
In de Verenigde Staten, het Verenigd Koninkrijk en China kijken investeerders volgens Ank van Wylick, Fintech-partner bij KPMG, in toenemende mate naar de prestatie en het rendement van de bedrijven waarin zij investeren. “Dat betekent dat Fintech-bedrijven gedwongen worden om hun schaalbaarheid aan te tonen en duidelijker moeten laten zien hoe ze winstgevend willen worden. Overigens zien we nieuwe Fintech bedrijven opstaan in gebieden waar je dat in eerste instantie niet zou verwachten, zoals Polen en Slowakije. Een bewijs dat Fintech wereldwijd steeds diverser wordt.”

Weinig invloed van Brexit
De onzekerheid over Brexit lijkt weinig gevolgen te hebben voor de Europese investeringen in Fintech. Het Verenigd Koninkrijk was in de afgelopen drie maanden goed voor de helft van de tien grootste investeringen in Fintech. Het land wist in het eerste kwartaal van 2017 ook aanzienlijke buitenlandse investeringen aan te trekken. Zo wist het in Londen gevestigde CurrencyCloud 25 miljoen dollar aan te trekken van Google Ventures.
Van Wylick: “Deze investering vormt de eerste stap van Google Ventures op de Europese markt. Overigens doet ook Duitsland goed mee in de lijst van grootste investeringen in Europa, getuige de investeringen die de Berlijnse startups BillPay, Raisin en SolarisBank tegemoet konden zien. De investering in het Zweedse iZettle laat zien dat het Fintech ecosysteem in Scandinavië steeds meer volwassen wordt.”

Invoering PSD stimuleert investeringen
Van Wylick verwacht dat de aanstaande invoering van de Payment Service Directive 2 de Fintech-investeringen in Europa de komende maanden aanzienlijk zal stimuleren. “De belangstelling voor open banking- en API platformen zal hierdoor aanzienlijk toenemen en investeerders zullen veel geld willen steken in allerlei aanvullende technologieën, zoals data & analytics. Voor ondernemingen zal kunstmatige intelligentie een belangrijk aandachtsgebied blijven als het gaat om investeringen. Banken bijvoorbeeld zoeken nog steeds naar manieren om kosten te reduceren en zien het gebruik van kunstmatige intelligentie als een belangrijk mechanisme om dit te realiseren.”

Download hier het rapport Pulse of Fintech.

]]>
Fri, 05 May 2017 00:52:28 +0200 KPMG: Europese durfinvesteringen in Fintech nemen fors toe http:///item/886588/kpmg-europese-durfinvesteringen-in-fintech-nemen-fors-toe.html&field=Foto1&rType=crop&height=165&width=165.jpg
Pyramid Analytics op tweede plaats in Dresner Collective Insights 2017 marktonderzoek http:///item/886139/pyramid-analytics-op-tweede-plaats-in-dresner-collective-insights-marktonderzoek.html Pyramid Analytics heeft de tweede plaats behaald van achttien Business Intelligence-leveranciers in de Collective Insights Market Study van Dresner Advisory Services, een onafhankelijk adviesbureau.

Medeoprichter en CEO van Pyramid Analytics Omri Kohl is blij met de wereldwijde erkenning. “Dit is een positieve erkenning voor onze inzet om klanten een ​​robuust collaboratief business analytics platform te leveren. Het Pyramid-platform blijft disruptief in de markt door de toonaangevende mogelijkheden voor samenwerking, governance en storytelling, waarmee iedereen in een organisatie gezamenlijk datagedreven beslissingen kan nemen.”

Samenwerking
Het rapport van Dresner bevestigt dat Pyramid Analytics de sterkste mogelijkheden biedt op de volgende kritische gebieden.
• Samenwerking: Annoteren, delen, beoordelen en onderhouden van discussies over content.
• Governance: Data lineage, versiebeheer, sign-on, gedefinieerde toegangsniveaus, gebruiksmonitoring, en de mogelijkheid om officiële gegevensbronnen te certificeren.
• Data storytelling: Author highlighting, navigatiehulpmiddelen, gebruikersinteracties en door de gebruiker gedefinieerde flows.
• Integratie met Enterprise Collaboration Frameworks: Bevat functionaliteit en ondersteuning voor de meest populaire enterprise samenwerkingsframeworks van vandaag, waaronder Yammer, Jive en Chatter. Gebruikers kunnen de content die zij hebben gemaakt in Pyramid Analytics in deze frameworks integreren en commentaar geven op alle niveaus van de applicatie.
 
Pyramid Analytics is een compleet analytisch platform dat self-service analytics combineert met centrale governance, wat een optimale samenwerking oplevert voor organisaties. Deze samenwerking rond datasets en rapporten gaat verder dan enkel content, context en een enkele bron van de waarheid.
 
Sterke prestaties
Het Collective Insights onderzoek verschijnt voor het tweede jaar. Het biedt een wereldwijde analyse van collaboratieve Business Intelligence tools en is gebaseerd op een eigen meetinstrument voor leveranciersprestaties. Dit onderzoek helpt gebruikers van Business Intelligence technologie om een leverancier te kiezen die het beste past bij hun organisatorische eisen.
“Vorig jaar hebben we ons onderzoeksrapport voor collaboratieve Business Intelligence uitgebreid met gebruikersbeheer en data storytelling om een volledig beeld te krijgen van hoe gebruikers op technologie vertrouwen om de consistentie van informatie te verbeteren en besluitvorming in groepen te versnellen. Wij feliciteren Pyramid Analytics wederom met zijn zeer sterke prestaties in dit jaarverslag,” zegt Howard Dresner, oprichter en chief research officer van Dresner Advisory Services.
 
Klik hier om de Dresner Collective Insights 2017 Market Study te downloaden.

]]>
Thu, 04 May 2017 12:53:58 +0200 Pyramid Analytics op tweede plaats in Dresner Collective Insights 2017 marktonderzoek http:///item/886139/pyramid-analytics-op-tweede-plaats-in-dresner-collective-insights-marktonderzoek.html&field=Foto1&rType=crop&height=165&width=165.jpg
Bedrijfsleven benut mogelijkheden data-storytelling nog onvoldoende http:///item/886138/bedrijfsleven-benut-mogelijkheden-data-storytelling-nog-onvoldoende.html Een kwart van alle Europese bedrijven geeft aan dat zij verhalen vertellen op basis van data, ook wel data-storytelling genoemd. Daarvan gebruikt een op de tien organisaties dit zelfs zeer regelmatig. Daarnaast geeft 15 procent van de organisaties aan momenteel de voordelen van deze techniek te evalueren. Dit blijkt uit onderzoek van Qlik in samenwerking met BARC en Cognizant naar de adoptie van data-storytelling binnen Europese bedrijven.

Van de organisaties die al aan data-storytelling doen, maakt de meerderheid van de respondenten gebruik van presentatiesoftware zoals Prezi of PowerPoint (73 procent) of van Excel (54 procent) en aanverwante oplossingen. Deze oplossingen bieden echter beperkte mogelijkheden voor visuele analyses. Terwijl visuele analyses met 61 procent wel de meest gebruikte functionaliteit is om data-storytelling te faciliteren.

Nieuwe kansen met data-storytelling
Aan de respondenten is ook gevraagd welke voordelen zij zien in data-storytelling. Bijna driekwart (74 procent) geeft aan de omzet te verhogen met data-storytelling door bijvoorbeeld nieuwe diensten en producten te lanceren of nieuwe markten te betreden. 20 procent geeft aan zich met data-storytelling makkelijker van de concurrentie te kunnen onderscheiden en 85 procent zegt hiermee resources efficiënter te kunnen alloceren.

Gebruik beperkt tot dataspecialisten
Het onderzoek laat zien dat van alle functies vooral dataspecialisten profiteren van data-storytelling. Slechts 23 procent van alle lijnmanagers en 12 procent van de medewerkers die wel eens met data werken, omarmen data-storytelling. Kijkend naar de afdelingen die data-storytelling gebruiken, zien we dat het management (56 procent) en de financiële afdeling (46 procent) het meeste gebruikmaken van data-storytelling. Medewerkers van deze afdelingen vertegenwoordigen bijna de helft (46 procent) van alle respondenten die verhalen vertellen aan de hand van data. Dit is te verklaren door het feit dat zij verantwoordelijk zijn voor de rapportages aan het management.

Klassieke Business Intelligence
Verder komt uit de onderzoeksresultaten naar voren dat bijna alle organisaties gebruikmaken van klassieke business intelligence (95 procent). Van de organisaties die data-storytelling-technieken willen implementeren, wil de meerderheid dit op korte termijn doen – binnen twaalf maanden.

Volgens Dan Sommer, Senior Director Global Market Intelligence bij Qlik, is het vertellen van verhalen is niet nieuw. “Denk maar eens terug aan de verhalen voor het slapengaan of de verhalen tijdens het kampvuur. Verhalen vertellen is belangrijker dan ooit in een wereld die gebukt gaat onder een immense hoeveelheid aan data. Het koppelen van data aan een verhaal maakt het mogelijk om een emotionele band met de feiten te creëren. Dat werkt veel beter dan wanneer het verhaal en de data van elkaar gescheiden blijven. Deze aanpak is met name effectief als er sprake is van een directe link naar de oorspronkelijke data en visualisaties. Als je tijdens het hele proces heen en weer kunt gaan en alle data continu kan raadplegen en inzien, kun je meer vertrouwen wekken en een stuk flexibeler te werk gaan.”

Operationele besluitvorming
Data storytelling en visual analytics zijn belangrijke manieren om analyseresultaten te presenteren, meent Karthik Krishnamurthy, Senior Vice President en Global Head Cognizant Digital Business Practices. “Toch beschikken te weinig werknemers over tools die nodig zijn om dit op een effectieve manier te doen. Verhalen die door feiten worden ondersteund dragen bij aan gedragsveranderingen op het gebied van operationele besluitvorming. Organisaties en hun medewerkers kunnen het potentieel van analyses pas optimaal benutten wanneer de doelgroep de inzichten begrijpt en daar actie op onderneemt. We moedigen organisaties daarom aan om hun medewerkers, ongeacht hun rol, uit te nodigen om verhalen op basis van data te vertellen.”

Meer informatie over de data-storytelling-mogelijkheden van Qlik.

]]>
Thu, 04 May 2017 12:45:48 +0200 Bedrijfsleven benut mogelijkheden data-storytelling nog onvoldoende http:///item/886138/bedrijfsleven-benut-mogelijkheden-data-storytelling-nog-onvoldoende.html&field=Foto1&rType=crop&height=165&width=165.jpg
Collaborative data governance: dit is wat we kunnen leren van Wikipedia http:///item/885321/collaborative-data-governance-dit-is-wat-we-kunnen-leren-van-wikipedia.html Er was eens een tijd waarin alleen de IT-afdeling verantwoordelijk was voor 'informatie'. Zij bepaalden wie het te zien kreeg, hoe het werd opgeslagen en hoe het verspreid en beveiligd werd. Slechts een kleine groep van data-professionals spande zich in om de business te voorzien van de benodigde informatie. Een mooi sprookje, maar tegenwoordig is dit model onhoudbaar geworden.

Immers, de behoefte aan en beschikbaarheid van data is enorm toegenomen en dit maakt de rol van IT als hoeder van de informatie bijna onhoudbaar. Naarmate het aantal beschikbare terabytes met de minuut toeneemt, is het des te lastiger om te waken over zaken als governance, kwaliteit, beschikbaarheid en betrouwbaarheid. Een nieuwe aanpak is dus nodig. Gelukkig kunnen we van Wikipedia veel leren.

Collaborative data governance
Dat zaken als datakwaliteit en betrouwbaarheid tegenwoordig een groot goed zijn, blijkt wel uit onderzoek van The Data Warehousing Institute. Zij berekenden dat 'vuile data' bedrijven zo’n 600 miljard dollar per jaar kost. Reden genoeg dus om ervoor te zorgen dat je data schoon, geprepareerd en opgeruimd is. Aangezien het voor IT echter ondoenlijk is geworden om alles zelf te controleren, zal zij samen met de rest van de organisatie die handschoen moeten oppakken. Collaborative data governance, waarbij de business met IT samenwerkt aan compliance en herbruikbare, schone, veilige en kwalitatieve data, is dan ook in opkomst.

Goede crowdsourcing
Wikipedia is een perfect voorbeeld van efficiënt samenwerkende gebruikers in actie. We weten dat de content niet perfect is, maar de nieuwe aanpak heeft zich wel bewezen in het digitale tijdperk. Het succes van deze digitale encyclopedie staat of valt bij goede crowdsourcing en het verzamelen van informatie die accuraat is. Bezoekers moeten immers kunnen vertrouwen op de informatie die Wikipedia geeft. Desalniettemin kan iedereen ter wereld zomaar een bijdrage leveren. Het is aan de community van gebruikers om te controleren of bijdragen en aanpassingen op feiten gebaseerd zijn. De gebruikers controleren dus zelf de kwaliteit van de data. Wikipedia presteert beter dan traditionele benaderingen van contentverzameling door beter aan de eisen zoals kwaliteit, volledigheid, validiteit en beschikbaarheid te voldoen. Het mooie is dat dit model ook toegepast kan worden binnen andersoortige organisaties, wanneer zij zich met big data willen bemoeien.

Experts in actie
De overgang naar collaborative data governance kan lastig zijn, maar biedt ook kansen voor IT-afdelingen om een ​​systeem van vertrouwen te bouwen. Collaborative data governance is een eenvoudige manier voor IT om ervoor te zorgen dat de kwaliteit, veiligheid en de nauwkeurigheid van data worden bewaakt met behulp van self-service. Medewerkers in een organisatie kunnen de data waar zij het meeste verstand van hebben zelf corrigeren, kwalificeren en opschonen. Dat wil zeggen dat de marketeer de lijst met prospects opschoont terwijl sales de belangrijkste contacten bijwerkt en een financieel analist verantwoordelijk is voor het corrigeren en de kwaliteit van de budget sheet. Een win-win voor iedereen. Immers, betrouwbare gegevens zorgen ervoor dat de productiviteit stijgt en er betere resultaten bereikt worden, terwijl aan de andere kant de IT-afdeling geholpen is om de kwaliteit te borgen in de masterdata.

Vertrouwen
Dus mijn eenvoudige boodschap aan bedrijven die meer data-driven willen werken: het is allemaal een kwestie van vertrouwen. Om de hele organisatie toegang te geven tot data, is het wel van belang om alles samen te brengen op één geïntegreerd platform. Hierop kunnen cruciale taken zoals governance, kwaliteitscontrole en validatie aan de juiste personen worden toebedeeld. Zo wordt alles in goede banen geleid en blijven het overzicht en de controle behouden. Met collaborative data governance krijgt iedere onderneming betere controle over zijn meest waardevolle bezit: data.

Auke Jilderda is Country Manager Nederland bij Talend.

]]>
Thu, 04 May 2017 00:06:00 +0200 Collaborative data governance: dit is wat we kunnen leren van Wikipedia http:///item/885321/collaborative-data-governance-dit-is-wat-we-kunnen-leren-van-wikipedia.html&field=Foto1&rType=crop&height=165&width=165.jpg
Security belangrijkste zorg bij adoptie dataopslag in de cloud http:///item/884793/security-belangrijkste-zorg-bij-adoptie-dataopslag-in-de-cloud.html Security is de belangrijkste zorg onder topmanagement bij de adoptie van dataopslag in de cloud. Toch blijkt uit een onderzoek, uitgevoerd door Teradata, dat meer dan de helft van bedrijfskritische gegevens daar in 2019 opgeslagen zullen zijn. Volgens de bevindingen uit het onderzoek noemen acht van de tien managers security als een punt van zorg bij het opslaan van data in de cloud. Desondanks is de hoeveelheid kritische data die er wordt opgeslagen enorm gestegen. Vooruitkijkend naar 2019 voorspellen managers dat meer dan de helft van data van IT (56 procent), klanten (53 procent) en financiële afdelingen (51 procent) in de cloud zullen verblijven.

In het onderzoek wordt benadrukt dat veel bedrijven de komende twee jaar willen investeren in cloud-storage, maar dat ze toch serieuze zorgen hebben over de informatiebeveiliging en datalekken. Verder worden volgende belangrijke trends gesignaleerd:

Security en gebrek aan controle zijn de belangrijkste obstakels voor de opslag van kritieke gegevens in de cloud:
- 40 procent van de respondenten noemt security in het algemeen als een risico, en 25 procent van de respondenten gelooft dat de adoptie van cloud-data tot meer beveiligingsinbreuken zal leiden.
- Een kwart van de ondervraagden gelooft dat de adoptie van cloud-data zal resulteren in een gebrek aan controle.
- 52 procent zegt het beperkte draagvlak voor dataopslag in de cloud bij directies hen tegenhoudt. 22 procent worstelt met het extra personeel dat nodig is om naar de cloud te verhuizen.

Toch zal cloudopslag in de komende twee jaar sterk toenemen:
Hoewel 58 procent van de gegevens van de ondervraagde organisaties nu al in de cloud is opgeslagen, zal het cloudgebruik de komende twee jaar nog verder toenemen. Drie op de tien bedrijven wereldwijd voorspellen voor 2019 een significante toename van de dataopslag in de cloud.

De meerderheid van juridische data wordt buiten de cloud gehouden:
- Juridische gegevens worden voor het grootste deel nog op fysieke servers bewaard. Slechts 27 procent van de ondervraagde bedrijven verwacht zijn juridische gegevens de komende twee jaar naar de cloud te verhuizen.

Telecombedrijven maken het meest gebruik van de cloud, marketing/communicatie-afdelingen zetten de grootste stappen binnen organisaties:
- 48 procent van de ondervraagde organisaties anticipeert voor 2019 een aanzienlijke toename van het gebruik van cloudopslag.
- 48 procent van de marketing- en communicatie-afdelingen van de ondervraagde organisaties verwacht in 2019 meer gegevens in de cloud op te slaan.

Gezondheidszorg gaat zijn klantgegevens naar de cloud verplaatsen, nutsbedrijven geven voorrang aan IT- en R&D-data:
59 procent van de respondenten zegt dat de gezondheidszorg de komende twee jaar gegevens van klanten naar de cloud zal verhuizen. Nutsbedrijven geven prioriteit aan IT-infrastructuur (64 procent) en R&D/engineering data (52 procent).
 
Volgens Marc Clark, director of cloud-strategy en deployment bij Teradata, laat het onderzoek bezorgdheid zien, maar groeit de feitelijke adoptie van cloudopslag snel. “Cloudopslag blijft zeer kosteneffectief en er zijn bovendien manieren om het veilig te beheren. Securityprocessen rond cloud computing moeten ontworpen worden in overeenstemming met de beveiligingsmaatregelen van de cloud-provider. Dit is nodig om de beveiliging van gegevens te garanderen, maar ook om privacy en naleving van regelgeving te handhaven, en zakelijke continuïteit en een data backup-plan te bieden.”

Het onderzoek werd in januari 2017 uitgevoerd door RSI Corporation in negen landen: Australië, Frankrijk, Duitsland, Japan, Groot-Brittannië, de VS, India, Spanje en Rusland, met 100 respondenten uit elk land. De respondenten waren senior executives met beslissingsrecht, en met een breed scala aan functies binnen organisaties.

]]>
Thu, 04 May 2017 00:02:00 +0200 Security belangrijkste zorg bij adoptie dataopslag in de cloud http:///item/884793/security-belangrijkste-zorg-bij-adoptie-dataopslag-in-de-cloud.html&field=Foto1&rType=crop&height=165&width=165.jpg
Sogeti VINT publiceert rapport over de angst voor AI http:///item/885360/sogeti-vint-publiceert-rapport-over-de-angst-voor-ai.html Verkenningsinstituut voor Nieuwe Technologie (VINT) van Sogeti lanceert een nieuw rapport in de reeks over kunstmatige intelligentie. In dit rapport met de titel 'De FrankensteinFactor; Anatomie van de angst voor AI' pleit VINT voor het serieus nemen van de angst die mensen hebben voor de technologische ontwikkelingen, waarbij de computer het denkwerk van mensen overneemt.

De auteurs van dit derde rapport in het vierluik over kunstmatige intelligentie adviseren IT-managers te kiezen voor een zogenaamde therapeutische benadering.

Anatomie van de angst voor AI
Kunstmatige intelligentie helpt het brein van mensen verder te verbeteren. Zo kondigde Facebook onlangs aan bezig te zijn met een breincomputer interface die gedachten om kan zetten in tekst. Ook technologiepionier Elon Musk wil met zijn bedrijf Neuralink het menselijk brein direct koppelen aan computers. Naast ontzag roepen dergelijke initiatieven ook angstgevoelens op. Of anders gezegd, de zogenaamde Frankensteinfactor gaat een rol spelen.
Menno van Doorn, Directeur van VINT en één van de auteurs, wil in het rapport een belangrijk signaal afgeven dat angst serieus genomen moet worden bij de ontwikkeling van kunstmatige intelligentie projecten. “Het onderbewustzijn speelt daarbij een grote rol. Inzichten vanuit de psychotherapie zijn nodig om angsten beter te begrijpen. Het plaatsen van een menselijke robot bij de bedrijfsreceptie zorgt voor onrust over banenverlies bij medewerkers. Hetzelfde geldt voor een plaatje van een simpele robot dat gepresenteerd wordt in een directie-overleg. Dat leidt tot onbedoelde reacties die gesprekken ongewenste kanten opsturen.”

Verschillende typen angsten
Het FrankensteinFactor rapport geeft een overzicht van verschillende typen angsten voor kunstmatige intelligentie. Inzicht in deze zogenaamde ‘Frankenstein factoren’ vergroot de kans op succes bij de inzet van Artificial Intelligence. IT-managers en organisatiebestuurders krijgen een nieuwe rol, zo verwachten de VINT-trendwatchers: het benoemen van de angsten en daarover de dialoog aangaan.
VINT onderscheidt vier factoren die angst voor kunstmatige intelligentie verklaren: angst voor superintelligentie en superdomheid; angst voor onszelf; angst voor het verlies van cultuur; angst voor de ‘big four’ van het menselijk bestaan.

Toenemende computerintelligentie
Volgens de auteurs moet IT-efficiëntie en -effectiviteit aangevuld worden met een focus op het menselijk bestaan. De organisatie moet niet langer alleen oog hebben voor een bijdrage aan sneller en beter werken, en de omzet helpen vergroten, maar ook actief het debat aangaan volgens een therapeutische benadering; bespreekbaar maken wat toenemende computerintelligentie betekent voor de mens en welke angsten daarmee gepaard gaan. Bestuurders moeten transparant zijn over de effecten van AI. Tenslotte stelt het VINT rapport dat de werking van AI afgestemd moet worden op menselijke behoeften. Volgens de VINT-auteurs is dit een absolute voorwaarde voor succes.

Vier rapporten over kunstmatige intelligentie
De FrankensteinFactor: Anatomie van de angst voor AI, is het derde rapport in een serie van vier rapporten over kunstmatige intelligentie. Dit vierluik is gestart met een ‘executive introductie’ die een verklaring geeft voor de doorbraak van kunstmatige intelligentie. ‘The Bot Effect: Friending Your Brand’ is het tweede rapport in de rij, dat vertelt over de opkomst van slimme chatbots. Het vierde en laatste rapport in deze serie over Algoritmische Organisaties verschijnt in december van dit jaar. Menno van Doorn, Sander Duivestein en Thijs Pepping zijn de auteurs van dit VINT rapport over de FrankensteinFactor in IT.

Download het nieuwste VINT-trendrapport.

]]>
Wed, 03 May 2017 15:05:14 +0200 Sogeti VINT publiceert rapport over de angst voor AI http:///item/885360/sogeti-vint-publiceert-rapport-over-de-angst-voor-ai.html&field=Foto1&rType=crop&height=165&width=165.jpg
Cloudera haalt 225 miljoen dollar op met beursgang http:///item/884832/cloudera-haalt-miljoen-dollar-op-met-beursgang.html Cloudera heeft met haar beursgang 225 miljoen dollar opgehaald. Voor een verkoopkoers van 15 dollar zijn 15 miljoen aandelen aangeboden.

Cloudera, dat aan de New York Stock Exchange geregisteerd is als CLDR, is bij de beursgang ondersteund door onder andere BofA Merrill Lynch, Morgan Stanley, JP Morgan, Citigroup en Deutsch bank Securities. Na een aanvankelijke stijging naar ruim 19 dollar, ligt de koers rond de 17 dollar. De marktwaarde van het bedrijf wordt op 2,3 miljard dollar geschat.

CEO Tom Reilly van Cloudera ziet met de beursgang een grotere flexibiliteit voor zijn bedrijf om op de lange termijn te focussen en met de juiste investeringen en partnerschappen het marktleiderschap veilig te stellen. De beursgang is ook goed ontvangen bij Cloudera’s big data partners Trifacta en Pentaho. Trifacta’s CEO Adam Wilson ziet Hadoop het centrale punt blijven van de analytics strategiën van veel bedrijven.

Meer informatie: Cloudera

]]>
Wed, 03 May 2017 02:16:51 +0200 Cloudera haalt 225 miljoen dollar op met beursgang http:///item/884832/cloudera-haalt-miljoen-dollar-op-met-beursgang.html&field=Foto1&rType=crop&height=165&width=165.jpg
Internet of Things versterkt behoefte aan 'Fast Data' http:///item/884532/internet-of-things-versterkt-behoefte-aan-fast-data.html Het aantal nuttige toepassingen van het Internet of Things neemt enorm toe. Hoe verschillend deze toepassingen ook zijn, ze hebben allemaal gemeen dat er voor ieder product een centrale plek moet zijn die de stortvloed aan data efficiënt en doeltreffend verwerkt en daarop reageert. De groei van IoT voedt daarmee de ontwikkeling van het snel verwerken van grote hoeveelheden data, oftewel 'Fast Data'.

Een mooie toepassing van IoT zou een volledig automatisch werkend systeem kunnen zijn dat verkeersstromen over snelwegen in goede banen leidt. Onder de weg liggen de bekende detectielussen die van iedere rijbaan bijhouden hoeveel verkeer er overheen rijdt, met welke snelheid en wat de eventuele acceleratie is. Dat levert in de spitsuren van de dag al enorme hoeveelheden data op.
Het verkeer zelf produceert tegelijkertijd nog veel meer data. Mobiele telefoons die het netwerk 'vertellen' waar ze zijn, Google die van ieder mobieltje met geactiveerd Google-account weet waar het zich bevindt, de routeplanners die bestuurders gebruiken, en in de nabije toekomst produceren de 'automatische piloten' in vervoersmiddelen allemaal grote hoeveelheden data.

Om optimaal te kunnen functioneren zou een verkeersregelsysteem al deze verschillende soorten informatie, afkomstig van verschillende bronnen en in afwijkende datatypen, direct kunnen verwerken, normaliseren, analyseren en - nog belangrijker - direct en zonder menselijke tussenkomst kunnen terugkoppelen aan bijvoorbeeld de verkeersborden die boven de snelweg hangen. Zo kunnen automatische piloten van de vervoersmiddelen bijvoorbeeld doorgeven dat er verderop een file ontstaat.

IoT voorbereid op datastortvloed?
Er zijn grofweg vier ontwikkelingsfases te onderscheiden van het IoT. In de eerste fase vindt de informatie-uitwisseling plaats tussen een gebruiker en een menselijke analist, met daar tussenin het databasesysteem. De verwerking van alle data door de transactionele database, de normalisering van data en opslag in het datawarehouse (fase 2) kosten relatief veel tijd. Het aanmaken van de rapporten en de menselijke analyse (fase 3) ook. De terugkoppeling (fase 4) verloopt dus altijd met vertraging. Het is duidelijk dat IoT in deze fase bij lange na niet voldoet aan de eisen om bijvoorbeeld het hiervoor geschetste verkeersregelsysteem in goede banen te leiden.

Berichtenbus
De vierde fase van IoT wordt steeds efficiënter. De uitwisseling van informatie verloopt hier volledig zonder menselijke tussenkomst. Alle data van de invoerapparaten komt binnen in een 'berichtenbus' die de data ofwel direct doorstuurt naar het realtime analysesysteem, of de transactiedatabase inpompt. Rapporteren is er niet meer bij, het analysesysteem koppelt direct terug naar de invoerapparaten en eventuele apparaten die aan de 'andere kant' van de IoT-toepassing zijn gekoppeld.

Dit type databasesysteem kan veel meer data verwerken dan systemen die zich nog in de eerste fase van IoT bevinden. Toch hebben ook deze geavanceerde databasesystemen een Achilleshiel die echte Fast Data in de weg staat. Ze maken nog steeds gebruik van een transactiedatabase, een apart ETL-systeem voor normalisering en doorvoer naar het eveneens van de rest gescheiden datawarehouse. Hoe krachtig deze systemen tegenwoordig ook zijn, het kost tijd om data op deze manier te verwerken en door te voeren van systeem naar systeem en dat levert toch enige vertraging op in de analyse en terugkoppeling van data. Te veel om Fast Data mogelijk te maken.

Behoefte aan database omnivoor
De toename van Big Data en IoT creëren dus een behoefte aan één universeel databasesysteem dat kan omgaan met vele typen data, verschillende databasestructuren en enorme hoeveelheden data zelf normaliseert en real time analyseert. De transactiedatabase, het ETL-systeem en de datawarehouse zijn in zo'n systeem vervangen door één systeem dat de data normaliseert en analyseert. InterSystems ontwikkelt dit soort systemen al jaren voor de medische wereld en andere grote organisaties. De voordelen van zo'n 'database omnivoor' zijn overduidelijk: IoT-toepassingen werken zonder vertraging, er hoeft niet te worden geïnvesteerd in de ontwikkeling en het onderhoud van allerlei integratiesystemen en het gehele systeem is relatief eenvoudig op te schalen. Hiermee komt Fast Data binnen handbereik.

David Majster is Marketing Manager bij InterSystems Benelux.

]]>
Wed, 03 May 2017 00:03:00 +0200 Internet of Things versterkt behoefte aan 'Fast Data' http:///item/884532/internet-of-things-versterkt-behoefte-aan-fast-data.html&field=Foto1&rType=crop&height=165&width=165.jpg
IoT-hackathon tijdens Paaspop verwerkt 15 miljoen events http:///item/884533/iot-hackathon-tijdens-paaspop-verwerkt-miljoen-events.html Combineer een groot festivalterrein vol met sensoren die gigabytes aan data verzamelen met twintig enorm enthousiaste studenten en je krijgt er een mooie Paaspop-hackathon voor terug. De eerste editie van deze hackathon was zo’n succes, dat een vervolg er wellicht ook nog in zit.

Stel je eens voor dat je zelf slimme Internet of Things-oplossingen kunt bedenken voor een evenement als Paaspop. Wat zou je dan doen? Dat was de opdracht die deelnemers aan de hackathon meekregen van de organisatie, bestaande uit Info Support, Microsoft en natuurlijk Paaspop zelf. Ze werkten twee dagen in teams aan deze opdracht. Dat niet alle teams met dezelfde ideeën kwamen, werd al gauw duidelijk. “Je kunt grofweg twee soorten aanpakken kiezen: bedenken wat je kunt doen met de data die je hebt, of beginnen met je afvragen welke data je allemaal zou kunnen verzamelen op zo’n terrein en daar een oplossing voor bedenken”, vertelt Hans Geurtsen, Principal Data Solutions Architect bij Info Support en een van de medewerkers die de studenten begeleidden.

UB20
Aan creativiteit ontbrak het de deelnemers geenszins. Geurtsen: “Zo hield een aantal teams zich bezig met de klimaatbeheersing in de tenten, omdat uit de briefing van Paaspop bleek dat de organisatie daar nog best moeite mee heeft. Een ander team bedacht een IoT-toepassing waarmee je kunt meten in hoeverre een podium-act de aandacht van het publiek weet vast te houden.” Daaruit bleek onder meer dat de meeste bezoekers het optreden van UB40 al na een minuut of twintig voor gezien hielden, waaruit de studenten dan weer gekscherend concludeerden dat de band zijn naam beter kan veranderen in UB20.

De projecten werden beoordeeld door een jury, bestaande uit Paaspop-organisator Chris Seijkens, Henk Brands van Info Support en Jesse van Leth van Microsoft. Het team dat het winnende concept bedacht, wist gebruik te maken van alle data die door de sensoren op het festivalterrein werden gegenereerd. “En dat was nog best knap”, vindt Geurtsen. “Want in de twee dagen dat de hackathon plaatsvond werden er maar liefst 15 miljoen events verzameld. Het bleek voor de meeste teams best ingewikkeld om te bedenken hoe je met dit soort hoeveelheden events om moet gaan. Het winnende team had die data behapbaar gemaakt door ze in te delen in groepjes, een soort emmertjes met verschillende soorten data.”

Totaalconcept
Het idee mag dan ook gerust een totaalconcept worden genoemd: “Met deze oplossing kun je de reis die een individuele bezoeker aflegt volgen op de kaart van het festivalterrein. Zo kun je zien hoe vaak hij op een bepaalde plek terugkomt, maar er is ook te zien hoeveel bezoekers er in een bepaalde tent zijn op elk moment. Daar hadden ze bovendien nog een zweetindex en een dansindex aan toegevoegd, zodat je als bezoeker kunt zien in welke tent het op dat moment te doen is, of juist niet.”

De hackathon bleef ook in de media niet onopgemerkt, want zowel Radio 1, Brabants Dagblad als 3FM besteedden aandacht aan het initiatief. De organisatie van Paaspop vond volgens Geurtsen de hackathon zo geslaagd dat de kans groot is dat deze volgend jaar weer plaats vindt.

Meer informatie: Info Support

]]>
Wed, 03 May 2017 00:01:00 +0200 IoT-hackathon tijdens Paaspop verwerkt 15 miljoen events http:///item/884533/iot-hackathon-tijdens-paaspop-verwerkt-miljoen-events.html&field=Foto1&rType=crop&height=165&width=165.jpg
Atos lanceert Virtual Assistant http:///item/884419/atos-lanceert-virtual-assistant.html Atos introduceert Atos Virtual Assistant (AVA) om de capaciteit van haar IT Service Desk te vergroten en klanten een betere gebruikerservaring te bieden. Samen met CogniCor, een in Barcelona gevestigde startup gespecialiseerd in Artificial Intelligence, wordt AVA gezamenlijk in de markt gezet als onderdeel van het toekomstige aanbod van AI-oplossingen voor de klanten van Atos.

AVA is gebouwd op het AI-platform van CogniCor en op maat ontworpen om het inkomende telefoonverkeer bij Level One IT Service Desks zonder tussenkomst van medewerkers te verwerken. Door het volledig automatiseren van de contacten met Level One Service Desks biedt AVA een betere gebruikerservaring door menselijke handelingen te situeren in augmented reality en in een recordtijd te laten verwerken door een Virtual Assistant.

Hoge kwaliteit van klantcontact
AVA lost niet alleen direct klantproblemen op, maar anticipeert ook op toekomstige vragen gebaseerd op basis van verzamelde trenddata, zoals IT-tickets, FAQ’s, en user-generated content. Door de continue verbondenheid met het web, levert AVA voortdurend de meest nauwkeurige en beschikbare oplossing. Hiermee reduceert AVA de tijd waarin een klant op antwoord wacht aanzienlijk.
Volgens Michael Kollar, Chief Digital Officer Atos Noord-Amerika, biedt AVA een geïntensiveerde gebruikerservaring voor klanten van servicedesks. “De Virtual Assistant heeft een zelflerend vermogen en kan op een dynamische manier tot oplossingen komen voor gangbare vragen die via alle platforms aan onze service desks worden voorgelegd”.

Door haar kennis en kunde op het gebied van machine-learning en Natural Language Processing (NLP) in te zetten, speelt CogniCor een belangrijke rol als co-innovatie partner van Atos. Beide partijen trekken samen op om AI-oplossingen aan te bieden aan klanten van Atos in Europa en Noord-Amerika.
Meer informatie: Atos

]]>
Tue, 02 May 2017 15:52:18 +0200 Atos lanceert Virtual Assistant http:///item/884419/atos-lanceert-virtual-assistant.html&field=Foto1&rType=crop&height=165&width=165.jpg
Xomnia sluit partnerschap met Domino Data Lab http:///item/884335/xomnia-sluit-partnerschap-met-domino-data-lab.html Xomnia heeft aangekondigd een partnerschap met Domino Data Lab te hebben gesloten voor de verkoop van diens data science platform. Domino's Data Science Platform biedt data science teams mogelijkheden als snelle uitrol van modellen, collaboration en snelle analysemogelijkheden. Xomnia is de eerste reseller partner van Domino en zal zich richten op verkoop in de Benelux.

Xomnia levert een brede verzameling van data services, waaronder projecten, consultancy, training, traineeships en ondersteuning. Het bedrijf wil een betrouwbare partner zijn voor organisaties die ondersteuning willen voor big data platforms, machine learning en predictive analytics. Gecombineerd bieden Domino’s data science platform en de diensten en ondersteuning van Xomnia bedrijven een platform voor data science ondersteuning.

Data science lifecycle
Volgens oprichter William van Lith van Xomnia zijn, nu data science teams in omvang groeien, een flexibele infrastructuur, verbeterde tools en efficiënte samenwerking noodzakelijk voor het succes van organisaties. “Domino is een geïntegreerd platform dat in deze vereisten voorziet om het proces in de gehele data science lifecycle te ondersteunen. Xomnia beschouwt Domino als het ‘system of record’ voor data science teams.”

Het in San Francisco gevestigde Domino Data Lab is opgericht door drie financiële experts voor betere data-analyses.
Meer informatie: Xomnia

]]>
Tue, 02 May 2017 13:39:39 +0200 Xomnia sluit partnerschap met Domino Data Lab http:///item/884335/xomnia-sluit-partnerschap-met-domino-data-lab.html&field=Foto1&rType=crop&height=165&width=165.jpg
Dutch digital delta en NWO presenteren call Big Data en Gezondheid http:///item/884297/dutch-digital-delta-en-nwo-presenteren-call-big-data-en-gezondheid.html Dutch digital delta en NWO hebben tijdens de Commit2Data Kick-off conferentie een nieuwe call gepresenteerd op het gebied van Big Data & Gezondheid. De call Data2Person is opengesteld voor consortia van wetenschappers en publieke/private partijen.

Met deze call in het COMMIT2DATA programma stimuleren NWO, ZonMW en het Ministerie van Economische Zaken, Big Data onderzoek (Data Science) om in samenwerking met private en publieke partners en diverse wetenschappelijke disciplines een bijdrage te leveren aan de ontwikkeling van effectieve, efficiënte en verantwoorde personal empowerment methodes voor een gezonde samenleving in de toekomst.

Gepersonaliseerd aanbod
Centraal staat de manier waarop Data Science een bijdrage kan leveren aan gepersonaliseerd aanbod en mogelijkheden van zelf- en samenmanagement van de individuele gezondheidssituatie. Voor deze call belangrijke vragen zijn: Wat werkt wél en wat niet? Waarom wél of niet? Voor wie wéll en voor wie niet?
Het totale budget van de call bedraagt 5,225 miljoen euro. Aanvragen kunnen tot en met 5 september 14.00 uur ingediend worden. Bekijk de call.

Matchmaking
Een matchmaking tussen academische, publieke en private partijen staat gepland op 22 mei 2017. Partijen die interesse hebben in deelname kunnen zich tot 10 mei aanmelden via DATA2PERSON@nwo.nl en zullen per mail meer informatie over dit evenement ontvangen. De locatie zal centraal in het land zijn.
Bekijk hier de PDF met de voorwaarden.

]]>
Tue, 02 May 2017 12:59:10 +0200 Dutch digital delta en NWO presenteren call Big Data en Gezondheid http:///item/884297/dutch-digital-delta-en-nwo-presenteren-call-big-data-en-gezondheid.html&field=Foto1&rType=crop&height=165&width=165.jpg
Nederlands bedrijfsleven besteedt ERP steeds vaker uit http:///item/883410/nederlands-bedrijfsleven-besteedt-erp-steeds-vaker-uit.html Steeds meer Nederlandse organisaties kiezen voor een hostingpartner voor hun ERP-applicatie. Dit percentage is vanaf 2012 gegroeid met meer dan 400 procent, blijkt uit een analyse door Computer Profile.

Inmiddels geldt voor bijna 3 op de 10 locaties dat de gebruikte ERP-toepassing draait in een datacenter van een externe dienstverlener. Van de bedrijfsvestigingen heeft 38 procent de ERP-software draaien op de eigen locatie. Dit percentage daalt gestaag. In 2012 gaf nog meer dan de helft van de ERP-gebruikers aan dat het pakket on premise draaide. Dezelfde dalende lijn is ook zichtbaar voor remote-gebruik van de ERP-oplossing. Daaronder vallen ERP-oplossingen die op een zuster- of moederlocatie in Nederland of in het buitenland draaien. Dit percentage is van 43 procent van de ERP-gebruikers teruggelopen naar 31 procent. Tot slot gebruikt 6 procent van de Nederlandse bedrijfsvestigingen ERP uit de cloud. De cloudoplossingen betreffen hoofdzakelijk AFAS, Exact en SAP. Dit blijkt uit analyse van Computer Profile op basis van 6.000 interviews met ICT-functionarissen van Nederlandse bedrijfsvestigingen met 50 of meer werknemers over het gebruik van bedrijfsapplicaties.

ERP-vendoren
Voor de Nederlandse markt is SAP met 30 procent nog altijd de meest voorkomende ERP-leverancier. SAP dankt haar nummer 1-positie met name aan haar positie in het publieke segment, maar nog meer aan haar aanwezigheid bij multinationals. In dit laatste segment geeft net iets meer dan 60 procent van de locaties aan gebruik te maken van SAP. Bij national enterprises ligt Microsoft een neuslengte voor op SAP. In het medium sized businesses-segment is het een nek-aan-nekrace tussen Microsoft en Exact. Ook maatwerk ERP-software heeft nog altijd een aanzienlijke gebruikersbase in Nederland. Circa 7 procent van de locaties met ERP heeft een eigen ontwikkeld (intern of extern) pakket in gebruik.

Voor de meeste ERP-leveranciers is een redelijk gelijkblijvende penetratie waarneembaar. Zo ligt het percentage SAP-gebruikers de laatste vijf jaar net boven de 30 procent. 2017 lijkt een daling met enkele procentpunten te laten zien ten opzichte van de afgelopen vijf jaar. Microsoft schommelt iets. Toch is de lijn over de afgelopen zeven jaar duidelijk stijgend, van net onder de 15 procent in 2010 tot net onder de 19 procent nu. Exact handhaaft haar positie in de laatste vijf jaar. Oracle kende eerst een aantal jaren van groei, maar lijkt de laatste drie jaar weer langzaam prijs te moeten geven. Maatwerk is tot slot duidelijk aan het afnemen. In 2010 bedroeg dit nog 14 procent. Dit loopt lineair terug naar de huidige 7 procent.

ERP-ontwikkeling
De penetratiegraad van ERP-software is in Nederland de laatste jaren nauwelijks aan verandering onderhevig. Dit blijkt ook uit de weergave van het ERP-gebruik per branche voor 2011 tot nu. De meeste commerciële sectoren kennen een kleine groei in deze periode. De overheid is hierbij de uitschieter. Er vond bij overheidsinstanties de afgelopen jaren een grote consolidatieslag plaats. Dit lijkt de daling in 2017 te veroorzaken.

Meer informatie: Computer Profile

]]>
Mon, 01 May 2017 13:43:23 +0200 Nederlands bedrijfsleven besteedt ERP steeds vaker uit http:///item/883410/nederlands-bedrijfsleven-besteedt-erp-steeds-vaker-uit.html&field=Foto1&rType=crop&height=165&width=165.jpg
IntoDQ levert Self Service Data Quality Analytics van Alteryx http:///item/882965/intodq-levert-self-service-data-quality-analytics-van-alteryx.html IntoDQ is met Alteryx Inc. een partnerschap aangegaan voor de levering van het totale Alteryx productenpakket. Duizenden data-analisten gebruiken Alteryx om alle gegevens die zij nodig hebben om te vormen voor analyse, vanuit spreadsheets, cloudapplicaties, datawarehouses, social media, en meer.

Het Alteryx portfolio biedt IntoDQ en haar klanten mogelijkheden om nog sneller resultaten te boeken in business analyses. Het is een welkome aanvulling op de datakwaliteitproducten van zowel Trillium Software als Semanta, die door IntoDQ op de Nederlandse markt worden vertegenwoordigd.  

IntoDQ kan met haar kennis en ervaring van datakwaliteitvraagstukken een belangrijk accent leggen in Alteryx projecten. Aan Self Service Analytics projecten kan door IntoDQ nu een datakwaliteitcomponent worden toegevoegd: Self Service Data Quality Analytics.

Kijk hier voor meer informatie of probeer de Alteryx software via een gratis download.

]]>
Mon, 01 May 2017 01:09:28 +0200 IntoDQ levert Self Service Data Quality Analytics van Alteryx http:///item/882965/intodq-levert-self-service-data-quality-analytics-van-alteryx.html&field=Foto1&rType=crop&height=165&width=165.jpg
Veeam: availability gap drempel voor digitale transformatie http:///item/882890/veeam-availability-gap-drempel-voor-digitale-transformatie.html Van de bedrijven in de Beneluxregio is 91 procent bezig met initiatieven op het gebied van digitale transformatie. Er is duidelijk een grote drang om te innoveren en dit legt een forse druk om continu toegang te bieden tot diensten, data en apps. Maar volgens een CIO-onderzoek door Veeam Software bestaat er een diepe kloof tussen gebruikersverwachtingen en wat de IT-afdeling kan leveren en geeft 51 procent van de deelnemers aan het onderzoek aan dat ze last hebben van een availability gap.

Veeam deed voor het zesde achtereenvolgende jaar onderzoek onder meer dan duizend IT-managers in 24 landen, waaronder ook de Benelux. Het 2017 Veeam Availability Report laat zien dat 65 procent van de Benelux-bedrijven van mening is dat beschikbaarheid (de continue toegang tot diensten) een vereiste is voor digitale transformatie. Echter, de meerderheid heeft het gevoel dat ze hierin belemmerd worden door ongeplande downtime van services door cyberaanvallen, uitval van de infrastructuur of het netwerk, en natuurrampen (serverstoringen die per incident gemiddeld 66 minuten duurden). Hoewel veel organisaties hun transformatie nog aan het plannen zijn of aan het begin ervan staan, zegt twee derde dat het om kritische initiatieven gaat, die erg belangrijk zijn voor het management en voor de verschillende bedrijfsonderdelen.

Kosten uitval
Het 2017 Veeam Availability Report laat opnieuw de echte impact zien van downtime op bedrijven. Hoewel de downtimekosten variëren, laten de uitkomsten zien dat de gemiddelde jaarlijkse kosten van downtime voor elke organisatie in deze studie uitkomen op 20,4 miljoen dollar ten opzichte van 16 miljoen dollar vorig jaar.  
Downtime en dataverlies leiden ook tot veel publiciteit, met gevolgen die moeilijk uit te drukken zijn in financiële cijfers. De studie van 2017 laat zien dat bij bijna driekwart van de bedrijven het klantvertrouwen afneemt. Zestig procent heeft schade ervaren aan zijn merkintegriteit, wat zowel de merkreputatie als de klantretentie beïnvloedt. Kijkend naar interne implicaties, ziet 42 procent van de respondenten een afnemend medewerkersvertrouwen en 33 procent een verschuiving in het toewijzen van projectresources om ‘troep op te ruimen’.

Multicloud toekomst
Het is niet verrassend dat de cloud en de verschillende gebruiksmodellen de manier veranderen, waarop bedrijven omgaan met hun dataprotectie. Het rapport laat zien dat bedrijven de cloud meer en meer zien als een geschikte springplank voor hun digitale agenda. Naar verwachting zullen de investeringen in Software-as-a-Service in de komende twaalf maanden wereldwijd stijgen met meer dan vijftig procent. Bijna de helft van de businessmanagers denkt dat cloudproviders betere servicelevels voor hun bedrijfskritische data kunnen leveren dan de eigen IT-afdeling. Investeringen in Back-up-as-a-Service (BaaS) en Disaster-Recovery-as-a-Service (DRaaS) stijgen naar verwachting ook naarmate organisaties deze combineren in de cloud.

Beschermingskloof
Verder ervaart 37 procent van de bedrijven een protection gap. Dat is de mate waarin de tolerantie van een organisatie voor dataverlies wordt overschreden door het gebrek aan bescherming van data door IT. Aan verwachtingen op het gebied van uptime wordt consequent niet voldaan door onvoldoende beschermingsmechanismen en beleid. Hoewel Benelux-bedrijven zeggen dat ze slechts 24 minuten per jaar (72 minuten wereldwijd) aan dataverlies kunnen tolereren voor wat betreft ‘hoge prioriteit’-applicaties, laten de resultaten van Veeam zien dat respondenten in de praktijk zestig minuten (127 minuten wereldwijd) aan dataverlies ervaren. Dat is een verschil van bijna een uur. Dit zorgt voor belangrijke risico’s voor elke organisatie.

Geen enkele tolerantie
Consumenten hebben volgens President en COO Peter McKay van Veeam Software geen enkele tolerantie voor downtime, zij het in de bedrijfsomgeving of in hun persoonlijke situatie. “Bedrijven zijn heel sterk gericht op het leveren van de beste gebruikerservaring en of dat lukt, hangt af van beschikbaarheid. Elke vorm van minder dan 24.7.365-toegang tot data of applicaties is onacceptabel. Ons rapport laat echter zien dat continue toegang een waandenkbeeld is. Daarom moeten bedrijven nieuwe vragen stellen op het gebied van transformatieplannen en een andere conversatie starten over de bestaande infrastructuur. Bedrijven staan voor een belangrijke uitdagingen door concurrenten die er wel in slagen deze uptime te realiseren en dat te combineren met de gebruikerservaring.”

Veeam gaf IT-onderzoeksbureau Enterprise Strategy Group (ESG) de opdracht voor het ontwikkelen en uitvoeren van het onderzoek. ESG voerde eind 2016 een online survey uit onder 1.060 IT-beslissers bij overheid en bedrijfsleven met tenminste 1.000 werknemers in 24 landen. Bekijk hier het onderszoeksverslag.

]]>
Sun, 30 Apr 2017 23:35:55 +0200 Veeam: availability gap drempel voor digitale transformatie http:///item/882890/veeam-availability-gap-drempel-voor-digitale-transformatie.html&field=Foto1&rType=crop&height=165&width=165.jpg
KPMG: Nederlander maakt zich zorgen om ‘slimme samenleving’ http:///item/882667/kpmg-nederlander-maakt-zich-zorgen-om-a-slimme-samenlevinga.html Nederlanders maken zich zorgen om de 'slimme samenleving', een samenleving waarin alles en iedereen via het internet met elkaar is verbonden en persoonlijke gegevens steeds vaker in handen van derden terecht komen. Uit onderzoek van het 100-jarige KPMG blijkt dat bijna 60 procent van de Nederlandse burgers zich zorgen maakt over de veiligheid van persoonlijke gegevens op het internet. Slechts 20 procent vindt dat zij voldoende controle heeft op het gebruik van persoonlijke gegevens door derden. En niet meer dan 10 procent vindt dat overheid en bedrijfsleven voldoende transparant zijn over het gebruik van hun persoonlijke gegevens.

Nederlanders zijn niet alleen ongerust over de vraag of hun gegevens veilig zijn, ook de mogelijke aantasting van hun privacy houdt hen bezig. Van alle organisaties waarmee Nederlanders digitaal persoonlijke gegevens uitwisselen, vertrouwen zij hun bank het meest. Ruim 30 procent van de consumenten geeft aan bij de bank het grootste gevoel van veiligheid te hebben. De bank wordt gevolgd door de rijksoverheid met 22 procent en de sociale media met zo’n 10 procent. Telecom- en nutsbedrijven genieten bij de Nederlander het minste vertrouwen.

Steeds meer maatregelen in eigen hand
“Burgers willen duidelijk meer controle als het gaat om het gebruik van het internet en eisen ook meer maatregelen die privacy en veiligheid garanderen”, zegt Koos Wolters, partner bij KPMG Cyber en deskundige op het gebied van privacy. “Als we kijken naar de maatregelen die mensen zelf kunnen nemen, dan zien we dat de helft inmiddels browsercookies verwijdert en dat iets meer dan 40 procent de zichtbaarheid van persoonlijke informatie op de sociale media beheert. Zo’n 70 procent controleert bovendien eerst de afzender van een e-mail alvorens de link in een bericht te openen. En ook het gebruik van verschillende wachtwoorden bij verschillende accounts is bij een meerderheid inmiddels een gewoonte.”
Opvallend volgens Wolters is wel dat informatie over het privacy beleid van een website nauwelijks gelezen wordt. “Niet meer dan 20 procent leest bij een bezoek aan een website het privacyreglement en de meldingen over cookies. En ook andere mogelijkheden worden relatief onbenut gelaten. Zo’n 10 procent heeft de incognito modus in de webbrowser geactiveerd om te voorkomen dat gebruikers van dezelfde computer het internetgedrag kunnen volgen. De mogelijkheid tot encryptie, één van de meest effectieve manieren om te voorkomen dat persoonlijke informatie door buitenstaanders kan worden gelezen, wordt door niet meer dan 10 procent gebruikt.”

Vaak dezelfde zoekmachine
Uit het onderzoek van KPMG blijkt dat de Nederlander in het algemeen steeds dezelfde zoekmachine gebruikt. Zo’n 70 procent maakt standaard gebruik van dezelfde zoekmachine, waarbij 90 procent de voorkeur geeft aan Google. Slechts 25 procent maakt gebruik van verschillende zoekmachines. Ook bij deze groep geniet Google de voorkeur, gevolgd door Bing, Ask.com en Yahoo.
Dat is bijzonder, stelt Wolters, gezien het feit dat ruim 70 procent van de Nederlanders zich ervan bewust is dat het bedrijf achter de zoekmachine op deze manier steeds meer over hen te weten komt. En bijna de helft realiseert zich dat dezelfde zoekvraag aan een zoekmachine niet altijd hetzelfde antwoord oplevert. Een duidelijk signaal dat mensen zich bewust zijn van het feit dat hun gedrag voortdurend wordt gemonitord door zoekmachines en dat de resultaten op basis daarvan worden aangepast.

Bijna 70 procent is van mening dat zoekmachines op dezelfde vraag steeds hetzelfde antwoord zouden moeten geven. Volgens 80 procent moet een zoekmachine altijd het meest waarheidsgetrouwe antwoord geven in plaats van een antwoord dat commercieel het best uitkomt. Zo’n 60 procent van de burgers vindt het een zorgelijke ontwikkeling dat een klein aantal zoekmachines wereldwijd de gegevens van heel veel mensen in handen hebben en dat het bedrijf achter de zoekmachine steeds meer over hen te weten komt als zij de zoekmachine vaak gebruiken.

]]>
Sun, 30 Apr 2017 17:06:03 +0200 KPMG: Nederlander maakt zich zorgen om ‘slimme samenleving’ http:///item/882667/kpmg-nederlander-maakt-zich-zorgen-om-a-slimme-samenlevinga.html&field=Foto1&rType=crop&height=165&width=165.jpg
SAP stimuleert innovatie met 'hackathon op wielen' http:///item/882629/sap-stimuleert-innovatie-met-hackathon-op-wielen.html SAP trekt de komende maanden het land in om innovaties bij organisaties te realiseren. De speciaal daarvoor ingerichte SAP Run Live Truck tourt langs diverse organisaties door heel Nederland. Met dit 'ontwikkellaboratorium op wielen' wil het technologiebedrijf samen met hen uitdagingen en ideeën omzetten in werkende oplossingen. Intel en Amazon Web Services sponsoren het project.
 
Deelnemende organisaties konden voorafgaand aan het project een innovatiecase opstellen. Het team van de Run Live Truck levert in samenwerking met de klant gegarandeerd binnen vijf werkdagen een 'minimal viable product' op, ofwel een werkende oplossing met minimale functionaliteit. Daarna rijdt de truck door naar de volgende klant.
 
Divers pluimage
Binnen het team is veel kennis en expertise aanwezig. De bezetting van de truck is een mix van datawetenschappers, programmeurs en UX-designexperts. Het team bestaat uit experts van SAP, partners van SAP en externe specialisten. Deze diversiteit moet zorgen voor gevarieerde inzichten en inspiratie. Een Scrum/Agile-coach begeleidt het team voor maximale effectiviteit.

Deelnemers
De deelnemende bedrijven zijn onder andere:
Kankerbestrijding
Kinderen lopen een verhoogd risico op huidkanker door zonverbranding. KWF Kankerbestrijding zoekt een oplossing om hen op een gamification-achtige manier op de gevaren te wijzen van de zon en zonbescherming te stimuleren. De basis voor het idee werd gelegd tijdens de recent gehouden Code4Good Hackathon.

Monitoren van voorraden
Bavaria is continu bezig met innovatie en wil samen met SAP de mogelijkheden die het Internet of Things biedt onderzoeken. In de week dat de Run Live Truck bij Bavaria staat, zal er gekeken worden naar de kansen om bijvoorbeeld biervoorraden te monitoren. Op die manier wil de bierbrouwer klanten proactief van advies kunnen voorzien en de dienstverlening verder verbeteren.

Duurzame landbouw
Waterwatch Cooperative zet zich wereldwijd in voor een duurzamere landbouw door middel van data- en ICT-toepassingen. De organisatie wil een app ontwikkelen die locatieafhankelijk weet welke gewassen er groeien, en deze informatie combineren met meteorologische data. Op basis daarvan moet de app waarschuwen welke ziektes de komende dagen waarschijnlijk een bedreiging vormen, zodat de boer tijdige en gerichte maatregelen kan nemen en op duurzame wijze zijn oogst kan beschermen en vergroten.

Het Run Live Truck-initiatief loopt door tot na de zomer. Op website www.runlivetruck.nl plaatst SAP wekelijks een video van een klantcase.

]]>
Sun, 30 Apr 2017 16:55:33 +0200 SAP stimuleert innovatie met 'hackathon op wielen' http:///item/882629/sap-stimuleert-innovatie-met-hackathon-op-wielen.html&field=Foto1&rType=crop&height=165&width=165.jpg
Datagedreven innovatie van Atos verbetert oogst boeren http:///item/882628/datagedreven-innovatie-van-atos-verbetert-oogst-boeren.html Atos zet haar expertise op het gebied van dataanalyse met Atos Codex in om data te verzamelen via satellieten en deze te transformeren naar strategische informatie voor boeren. In samenwerking met startup TerraNIS zet Atos data om in waardevolle informatie voor de landbouwsector te ontsluiten. Atos Codex is het Atos-merk voor business gedreven data-analyses, het Internet of Things en cognitieve oplossingen bestaande uit methodologie, design labs en een open industriële platform-factory evenals highperformance data analytics.

Om in te spelen op de groeiende behoeften van consumenten, de steeds striktere regulering, en om de kosten onder controle te houden, is zeer accurate informatie van groot belang. Met Atos Codex kunnen boeren heel eenvoudig de juiste hoeveelheid kunstmest gebruiken op de juiste locaties en op het juiste tijdstip om de vruchtbaarheid van hun areaal te verbeteren. De reactietijd is versneld, en de keuze van bemesting en voeding kan doelgericht op de juiste plekken worden ingezet.

Voordelen op korte en lange termijn:
Optimalisering van grondstoffenbeheer waardoor kostenbesparingen kunnen oplopen tot 15 procent.
Betere kwaliteit doordat de oogsten en productiekwaliteit duurzamer en betrouwbaarder worden.
Een diepgaand inzicht in en kennis van operaties door jaarlijkse evaluaties van de impact van verschillende landbouwmethodes. Dit helpt de agrariër verbeteringen in hun vakgebied door te voeren.

Flexibiliteit
Volgens Philippe Miltin, Global SVP Manufacturing & Retail van Atos, is Atos in staat om, met de kracht en de flexibiliteit van de nieuwe data analytische tools, de waarde van deze bronnen in hun volle omvang te ontsluiten. “Het biedt onze klanten in de agrarische sector industrie de mogelijkheid hun werkwijze te verfijnen en zich aan te passen aan nieuwe economische, wettelijke, sociale en milieutechnische voorwaarden. Samen met startup TerraNIS gaan we deze uitdaging aan door het combineren van geavanceerde imaging met de mogelijkheden van Atos Codex.”
De keuze voor de Atos Codex-technologie resulteert volgens Dominique Grelet, hoofd Atos Codex, in een hoge mate van flexibiliteit en maakt het mogelijk om een vergelijkbaar aanbod aan klanten wereldwijd in de markt te zetten. “We zijn er trots op om deze baanbrekende technologie aan onze klanten te kunnen aanbieden, waarbij we satellietbeelden transformeren in waardevolle informatie voor het realiseren van resultaten op de korte en lange termijn.”,

Eerste klant
De laatste generatie van Sentinel-2 Earth-satellieten – ontwikkeld door de Europese Ruimtevaartorganisatie ESA – biedt beelden met gebruikmaking van zichtbaar, bijna infrarood licht met een resolutie van 10 tot 60 meter, een reikwijdte van 290 kilometer en herhaalde observaties met een frequentie van vijf dagen, wat ideaal is voor het monitoren van gewassen. De satelliet observeert ruim 100.000 hectare met gewassen voor een eerste klant in Canada inclusief 6.000 velden met gewassen als graan, maïs, bonen en groenten - en biedt bio-fysieke indicatoren over de ontwikkeling van gewassen. Door deze monitoring kunnen afwijkingen of discrepanties tussen delen van het areaal worden achterhaald, en beschikken experts over de mogelijkheid om diagnoses uit te voeren en voorstellen te doen voor het verbeteren van landbouwmethodes.

]]>
Sun, 30 Apr 2017 16:45:10 +0200 Datagedreven innovatie van Atos verbetert oogst boeren http:///item/882628/datagedreven-innovatie-van-atos-verbetert-oogst-boeren.html&field=Foto1&rType=crop&height=165&width=165.jpg