Nieuws Nieuws http://biplatform.nl http:///item/25/nieuws.html Mon, 27 Feb 2017 15:35:31 +0100 FeedCreator 1.7.2-ppt (info@mypapit.net) Pyramid Analytics voor vierde keer erkend in Gartner Magic Quadrant for Business Intelligence ... http:///item/828604/pyramid-analytics-voor-vierde-keer-erkend-in-gartner-magic-quadrant-for-business-intelligence-and-analytics-platforms.html Pyramid Analytics, leverancier van een next-generation business analytics platform, is door Gartner, Inc. opgenomen in het Magic Quadrant voor Business Intelligence en Analytics Platforms 2017. Dit is het vierde achtereenvolgende jaar dat het bedrijf een plaats heeft verdiend in het rapport van Gartner.


Pyramid Analytics is gericht op uitgebreide compatibiliteit. Haar sterk onderscheidende platform combineert flexibele self-service analytics met gecentraliseerd beheer, en voldoet aan de veranderende behoeften van organisaties. BI Office blinkt uit door de gemakkelijke implementatie, krachtige mogelijkheden voor gebruikers, en de unieke ondersteuning voor gebruikersgedreven en IT-enabled datamodellen voor in-company clouds en traditionele on-premises servers.
Het Gartner Magic Quadrant is het resultaat van onderzoek naar business intelligence en analytics platformen, en geeft een breed overzicht van de relatieve posities van concurrenten in de markt. Het Magic Quadrant helpt zakelijke beslissers snel na te gaan hoe goed technologieproviders hun beoogde visie uitvoeren hoe ze presteren volgens Gartner’s beeld van de markt.
Om het Business Intelligence en Analytics Platform Magic Quadrant 2017 rapport van Gartner te downloaden, klik hier.

Over Pyramid Analytics

Pyramid Analytics is de internationale leverancier van BI Office, een business analytics-platform waarmee individuen - van power users tot kenniswerkers en beleidsmakers - hun organisatie kunnen transformeren naar een datagedreven organisatie. Dit complete webgebaseerde platform biedt een combinatie van self-service analytics met gecentraliseerde governance. Voor meer informatie, bezoek www.pyramidanalytics.com.

]]>
Mon, 27 Feb 2017 11:35:15 +0100 Pyramid Analytics voor vierde keer erkend in Gartner Magic Quadrant for Business Intelligence and Analytics Platforms http:///item/828604/pyramid-analytics-voor-vierde-keer-erkend-in-gartner-magic-quadrant-for-business-intelligence-and-analytics-platforms.html&field=Foto1&rType=crop&height=165&width=165.jpg
Eight Steps to Becoming a Data-Driven Organization http:///item/817494/eight-steps-to-becoming-a-data-driven-organization.html In today's fast-paced, global economy, it is generally understood that companies must become data-driven in order to remain competitive. In fact, a report from McKinsey Global Institute indicates companies that are data-driven - meaning those that can gather, process and analyze data in real-time as it flows through the enterprise - make better decisions. According to the report, being data driven results in a 23x greater likelihood of customer acquisition, six times greater likelihood of customer retention, and a 19x greater likelihood of profitability.

But how exactly does a company become data-driven? There are, in fact, many ways to respond to this question. One might consider the use of technology, or having a solid strategy for data quality, governance and access, but perhaps the most important factor in becoming data driven is having the right leadership to create a culture that places data at the heart of the organization.

Change Management, is defined by CIO magazine as “a systematic approach to dealing with change both from the perspective of an organization and the individual” instituting a culture around putting data at the core of every business function can be very useful in helping your employees and company understand and believe in the importance and use of data to make more informed decisions.

Many of the senior IT leaders at my previous companies used the Kotter change management model, developed by John P. Kotter, a widely-recognized authority on leadership and change, to bring about change in their organizations. There are eight phases in Kotter’s model and I want to detail how organizations can apply each to become more data-driven themselves.

1. Create a Sense of Urgency
This first, and perhaps most important phase in Kotter’s Change Management Model can be used to demonstrate the benefits of becoming data driven. The aim of this activity is to demonstrate to stakeholders how the company can use data for greater insights, underscoring some of the opportunity costs of not using data efficiently.  This phase can be driven by a team of change agents, comprised of senior execs, who can tackle some of the organization’s most important issues by using data. A simple business intelligence report, showing some interesting insights around the various ways that customer service impacts sales, could serve as an excellent example. Similarly, running an analysis showing where competitors are in their data journey on the maturity models and comparing that with the organization’s own status in its data-driven transformation can also underscore the importance of data.

2. Build a Guiding Coalition
In this phase, the change agent needs a commitment from other leaders in the organization to drive the interest generated during phase one of the process. The bigger the change and the company, the more senior leaders that are needed as part of the change team. While the change agent will need buy-in from business team senior leaders, IT will ultimately need to execute this portion of the strategy. Ideally, the members of these teams are drawn from the departments that will realize the greatest benefit from a data-driven strategy. For example, in a huge consumer products company, having leadership from the Supply Chain as part of the coalition would be a great win for the change agent.

3. Develop a Vision and Strategy
It’s important to define a forward-looking data driven strategy using clear and concise language. This vision creates a platform that helps the organization work toward a common goal, and the framework against which it can begin to develop a strategy. When properly developed and presented, the strategy can help bolster credibility, and encourage more leaders to join the coalition, particularly those with any doubts regarding the mission. A typical strategy would use a phased approach, with interim goals and milestones defined. One example of creating a Data drive strategy is to create a Data Center of Excellence. This team would handle all Data Governance, Data Integration and Analytics initiatives.

4. Communicate the Vision
The vision needs to be communicated continuously and consistently across the organization. Everyone in the organization, from business users to IT developers, need to understand why the change is happening, what impact it will have on their teams and where are they going with it. If employees understand and believe in the vision, the organization as a whole will be motivated and will strive for the change, ultimately creating more change agents.

5. Empowerment
As a data-driven culture starts to develop within the organization, it is important to identify and tackle any obstacles head on. Leadership needs to ensure the right processes are in place that allow employees to raise concerns about how data is being leveraged and ensure those concerns are reviewed, considered and addressed if changes do indeed need to be made. This activity also involves giving business workers the right tools that allow IT maintain governance and security over the data, such as self-service data preparation tools.

6. Generate Short Term Wins
In this phase, a company’s cultural change is maintained by savoring the success of winning projects and recognizing the efforts that led to that success. At the outset, a company can identify low-hanging fruit – projects that can be executed without much initial investment. These projects avoid the need for significant upfront monetary or staffing resources, and provide the added benefit of h shorter life cycles, allowing project managers to more easily define the specific goals and objectives that can help maintain momentum and foster a sense of accomplishment.  As these projects become successful, leaders need to keep looking at other opportunities to make data an asset to the company.

7. Keep Track of Lessons Learned and Keep Looking Ahead
By keeping long-term goals in mind and using some of the lessons learned from short-term projects, a company can start implementing some longer term projects. For example, a company can invest in building a Data Warehouse and Business Intelligence (BI) capabilities within the company. A company can also invest in Big Datatechnologies and create a Data Science team. IT will also need to take an even more pro-active role in the change management process by helping every employee within the organization understand the value of Data Quality and Data Governance. The company should also create more change agents by showcasing successful data-driven projects to other company departments.

8. Institutionalize Change
Clear communication can play a central role in demonstrating how the data driven changes are directly related to performance improvements of the company. Leaders that champion the change should be placed in roles that allow them to drive the overall ‘data enablement’ vision, such as a chief data officer (CDO), while other leaders take up new roles and responsibilities. The final stage in a data driven transformation occurs when the changes become ingrained in the corporate the culture and that shift can then serve as the final platform on which the company can sustain the change.

Leadership needs to embrace the fact that bringing about change within a company is challenging and often long process. And that’s the reason it is worthwhile to follow a framework such as the one outlined above, which suggests a phased approach and gives an opportunity to correct errors along the way and thereby realize the full potential of embracing big data. This is what Talend does incredibly well. Talend helps companies become data driven by making data more accessible, improving its quality and quickly moving data where it’s needed for real-time decision making. By simplifying big data through these steps, Talend enables companies to act with insight based on accurate, timely information about their business, customers, and industry.

]]>
Mon, 27 Feb 2017 00:04:00 +0100 Eight Steps to Becoming a Data-Driven Organization http:///item/817494/eight-steps-to-becoming-a-data-driven-organization.html&field=Foto1&rType=crop&height=165&width=165.jpg
PK koppelt CURAZorg cliëntendossier aan medisch dossier met Ensemble http:///item/817753/pk-koppelt-curazorg-clia-laquo-ntendossier-aan-medisch-dossier-met-ensemble.html Bij de Zorggroep Noordwest-Veluwe (ZNWV) is de Enterprise Service Bus (ESB) Ensemble van InterSystems operationeel. PK Automatisering uit Assen realiseerde een eerste koppeling tussen het CURAZorg cliëntendossier en het YSIS medische dossier, waarin de behandelaars van de instelling hun bevindingen registreren.

PK werkt inmiddels al aan een tweede koppeling naar de specifieke, voor de care sector ontwikkelde Business Intelligence omgeving, waarin de prestaties van de diverse afdelingen van de organisatie en de tevredenheid van de cliënten worden gemeten en via een SharePoint dashboardpresentatie weergegeven.

Transparantie
Deze structuur sluit goed aan op de transparantie die de Veluwse zorginstelling nastreeft bij het nemen van maatregelen rond de uitbraak van de MRSA-bacterie. Een zoektocht naar een specifieke software oplossing waarmee het gehele proces rondom de registratie en controles met lab testen wordt bijgehouden, leverde geen resultaat op. Vandaar dat is besloten om zelf een dergelijk systeem te laten maken. Een eerste tijdelijke oplossing van de GGD met een Excel-applicatie wordt door PK omgezet naar een veilige Ensemble-toepassing, zodat de service bus alle informatie in samenhang vergaart en ook weer via het SharePoint venster op dashboards presenteert.
Met het systeem gaat ZNWV het gehele proces rondom de registratie en controles nauwgezet bijhouden en integreren met de lab-uitslagen van de testen, uitgevoerd bij cliënten en instellingmedewerkers.

Cloud
ZNWV nam een jaar geleden afscheid van zijn datacentrum. De operationele informatiesystemen worden voortaan zoveel mogelijk uit de cloud of als ’managed’ service afgenomen. De ICT-afdeling focust zich op de regiefunctie bij de informatievoorziening die de dagelijkse registratie en operationele besluitvorming ondersteunt.

]]>
Fri, 24 Feb 2017 00:03:00 +0100 PK koppelt CURAZorg cliëntendossier aan medisch dossier met Ensemble http:///item/817753/pk-koppelt-curazorg-clia-laquo-ntendossier-aan-medisch-dossier-met-ensemble.html&field=Foto1&rType=crop&height=165&width=165.jpg
Azure SQL Database autotuning is not just a wizard http:///item/817776/azure-sql-database-autotuning-is-not-just-a-wizard.html SQL Server provides custom recommendations by using the Azure SQL Database Advisor, enabling maximal performance. The SQL Database Advisor makes recommendations for creating and dropping indexes, parameterizing queries, and fixing schema issues.

Why is the SQL Database Engine Tuning Advisor (DTA) so different?
The SQL Server Database Engine Tuning Advisor (DTA) has a notoriously bad name in the DBA community for spawning a lot of rubbish indexes, even to the point that it hinders performance more than it helps it forward. Just the sign of _dta_ index on a production server will strike fear in the hearts of seasoned DBAs. As a result, I looked into this Database Advisor with a lot of scepticism and treaded carefully.

One of the mayor differences of the Azure DTA is that it assesses performance by analysing your SQL database usage history. At first, I thought the Azure Advisor used DMVs, but apparently, it works much more intelligently. The Azure DTA generates recommendations that are matched to the database’s workload. We learn that the power of the cloud resides behind this wizard and it actually uses machine learning to decide its actions. Knowing this, it should get better the more people use it. The DTA even provides the option to auto-tune and apply its recommendations automatically. This is an option I can only recommend after carefully testing the results. Once the advisor has gotten to know your database, however, it becomes a very solid option and it came up with some very refreshing solutions.

Pitfall – the clustered index
It is key that the Azure DTA will not reanalyse your clustered indexes. If there is a misaligned clustered index, the Azure DTA will generate a lot of heavy indexes to compensate that misalignment. If you see this behaviour, you should rethink whether you have picked the best possible clustered index. Once you have solved this issue, the advisor’s advice will become to the point and very usable. The impact of a misaligned clustered index in a cloud environment is easily overlooked, but in this case, it will also make this tool less efficient.

Time needed
To generate a valid recommendation, the Azure DTA needs enough of samples for successful machine learning. So, you need data. And the more, the better. If you’re not using your database, the Azure DTA will not produce usable results. This gotcha also makes it rather hard to demo. Why? Well for starters, it requires 18 hours of data just to produce index recommendations, during which you also need enough load to produce adequate results. Besides that, the Azure DTA still needs load to assess if its recommendations were valid and decide to rollback or not. This is more visible when you summarize the auto tuning’s capabilities:
• Time to produce new index recommendations (for a database with daily usage): ± 18 hours
• Delay before T-SQL statement is executed (CREATE INDEX or DROP INDEX): immediately (starts within minutes)
• Time to react to any regressions and revert bad tuning actions: 1 hour
• Delay between implementing consecutive index recommendations: immediately (starts within minutes)
• Time to implement (for a DB with 3 active recommendations): ± 24 hours

Auto evolve with your usage
One of the most frustrating things involved with index maintenance is checking whether it is still adequate and/or, due to query pattern changes, an expensive index has become obsolete. This is where the Azure DTA wizard can really shine. Its recommendations are based on historical database usage, and as the workload evolves over time, the recommendations will automatically adjust to stay relevant. In its current release, it will only drop duplicate indexes to save disk space, so it will not touch so-called unused indexes yet. Once this is completely implemented, it really will provide the database with a possibility to assess expensive indexes in a very straightforward manner. The second great feature is sniffing out parameterization issues. The advisor will propose parameterization fixes when one or more queries that are constantly being recompiled end up with the same query execution plan. This condition opens an opportunity to apply forced parameterization, allowing query plans to be cached and reused in the future improving performance and reducing resource usage.

Fixing schema issues
The fix schema issues recommendations appear when the SQL Database service notices an anomaly in the number of schema-related SQL errors happening on your Azure SQL Database. This typically happens when your database encounters multiple schema-related errors (invalid column name, invalid object name, etc.) within an hour. But what if it made an oopsy? The Azure DTA even has a safety mechanism that automatically reverts the applied recommendation in case a performance regression has been detected.

Even more power?
By combining the Azure DTA with query insight (built on top of the query store), we gain even more insight into the processes of your Azure Database. Similar to the Azure DTA, you do need enough data to work with. If the database has no activity or Query Store was not active during a certain time period, the charts will be empty when displaying that time period. You can enable Query Store at any time if it is not running. Its key features are actually showing the same resource graphs now available in the Query Store, mainly Top Consuming Queries, and the ability to customize these graphs.
The most important one for this blog is the possibility to understand and verify the tuning annotations.


afb01.png

By hovering over one of these annotations, you will see detailed information about this. And if it is an active recommendation, you can even choose to implement it right away, allowing you to assess what kind of impact the applied recommendations have on your database.
So start using them, and you might be pleasantly surprised.

Karel Coenye is senior SQL Server trainer, consultant en Azure Teamlead bij Kohera.

]]>
Wed, 22 Feb 2017 00:02:00 +0100 Azure SQL Database autotuning is not just a wizard http:///item/817776/azure-sql-database-autotuning-is-not-just-a-wizard.html&field=Foto1&rType=crop&height=165&width=165.jpg
Cloudera is Platina sponsor van DW&BI Summit 2017 http:///item/824937/cloudera-is-platina-sponsor-van-dwenbi-summit.html Cloudera heeft zich als vierde Platina sponsor verbonden aan de komende Datawarehouse & Business Intelligence Summit, komende 28 en 29 maart te Amsterdam.

Cloudera is een van de leidende leveranciers van Apache Hadoop gebaseerde software (data management en analytics). Met CDH, Cloudera's 100% open source platform, de meest populaire distributie van Hadoop, bieden zij een vernieuwende en met andere pakketten geïntegreerde oplossing voor dataopslag en -verwerking aan hun klanten in diverse branches. 

Meer informatie over Cloudera

Uitgebreid programma

De Datawarehousing & Business Intelligence Summit vindt plaats op 28 en 29 maart 2017 in het Mercure Hotel Amsterdam. De DW&BI Summit biedt net als voorgaande jaren weer een uitgebreid tweedaags programma met lezingen door diverse sprekers uit het Datawarehouse en Business Intelligence-vakgebied. Onderwerpen die aan bod zullen komen zijn onder andere Fast Data, Data Lakes, Datavirtualisatie, Analytics, Logical Datawarehouse, Data Vault en nog veel meer. Kijk hier voor het volledige programma.

Meer informatie op de website van de DW&BI Summit 2017.

]]>
Mon, 20 Feb 2017 15:52:12 +0100 Cloudera is Platina sponsor van DW&BI Summit 2017 http:///item/824937/cloudera-is-platina-sponsor-van-dwenbi-summit.html&field=Foto1&rType=crop&height=165&width=165.jpg
Wanneer is NoSQL nuttig? http:///item/819446/wanneer-is-nosql-nuttig.html Veel organisaties worstelen met de vraag in welke gevallen ze een van de nieuwe NoSQL-producten moeten gebruiken. In deze blog worden enkele eisen beschreven waaraan systemen moeten voldoen wil het gebruik van NoSQL-technologie nuttig zijn.

Deze blog richt zich voornamelijk op de volgende categorieën van NoSQL-producten: de key-value stores (zoals DynamoDB en Riak), de document stores (zoals CouchDB en MongoDB), de column-family stores (zoals Apache HBase en Cassandra), maar niet de graph stores. Deze drie categorieën NoSQL-producten verschillen in de manier waarop ze gegevens organiseren, welke gegevensstructuren ze ondersteunen, hoe ze hun transactiemechanismen geïmplementeerd hebben, enzovoorts. Zelfs binnen een categorie kunnen de producten zeer divers zijn. In feite, als alle individuele producten in detail vergeleken worden, dan is de enige overeenkomst dat ze tot de NoSQL-categorie behoren. Dit is dus geen homogene verzameling van producten zoals de SQL-producten dat wel zijn.

Ongeacht deze verschillen zijn de meeste het best toepasbaar bij het ontwikkelen van systemen die aan de volgende eisen voldoen:

Transactioneel: Het systeem moet transactioneel van aard zijn. De meeste NoSQL-producten zijn niet sterk in hun ondersteuning voor analyses en complexe rapportages. Ze ondersteunen hiervoor niet de juiste interne functionaliteit. Wel zijn ze buitengewoon goed in het uitvoeren van transacties. Dit is dan ook waar de kracht van de NoSQL-producten ligt.

Zware transactionele workload: Het systeem moet een groot aantal transacties en/of concurrent gebruikers ondersteunen. Het zou overdreven zijn om een transactioneel systeem met een NoSQL-product te ontwikkelen dat hooguit vijftig transacties per uur verwerkt. Dan is een traditionelere technologie meer op zijn plaats. NoSQL-producten zijn ontworpen voor het bouwen van systemen die big data manipuleren en een zware transactionele workload ondersteunen.

Single-record transacties: Eén van de technische redenen waarom NoSQL-producten een grote transactionele werklast aankunnen, is dat zij een eenvoudig concurrency-mechanisme ondersteunen dat weinig overhead kent. Dit mechanisme ondersteunt echter geen multi-tabel of multi-record transacties. Transacties zijn beperkt tot verwerken van één record in één tabel. Dit vereenvoudigt het concurrency-mechanisme en verbetert daardoor de transactionele schaalbaarheid. Het systeem moet dan wel met deze beperking kunnen werken.

‘Massive Data Ingestion’: Het systeem moet in staat zijn enorme hoeveelheden gegevens in een korte periode te laden. NoSQL-producten kunnen uitstekend omgaan met dergelijke hoeveelheden, waardoor zij geschikt zijn voor, bijvoorbeeld, weblog- en sensoromgevingen.

Eenvoudige rapportage: Het systeem hoeft uitsluitend eenvoudige queries uit te voeren, zoals point queries. Voorbeelden van point queries zijn: Zoek factuur AB457 of Zoek de omschrijving van product 5792. Dit soort queries zullen de transactionele werklast niet verstoren. De meeste NoSQL-producten hebben geen functionele eigenschappen voor het specificeren van complexe queries noch de benodigde optimalisatiemogelijkheden.

Dynamische gegevensstructuren: Voor sommige systemen is het noodzakelijk dat gegevensstructuren gemakkelijk gewijzigd kunnen worden. NoSQL-producten ondersteunen dynamische gegevensstructuren. Bij dynamische gegevensstructuren kunnen kolommen of elementen gemakkelijk toegevoegd of gewijzigd worden. Wanneer een nieuw record wordt toegevoegd en het bevat een nieuw element of nieuwe kolom, dan zal het NoSQL-product dit record verwerken zonder dat alle andere records in de tabel gereorganiseerd moeten worden.

Complexe gegevensstructuren: Sommige systemen zijn gemakkelijker te ontwerpen wanneer de gegevens die logisch bij elkaar horen ook bij elkaar opgeslagen zijn, ook als dat betekent dat de gegevensstructuren sterk gedenormaliseerd worden. NoSQL-producten zijn juist ontworpen om te werken met gedenormaliseerde structuren, zoals arrays, hiërarchieën, sets en repeating groups.

‘Smal’ gegevensmodel: Als het systeem een complex gegevensmodel vereist dat uit honderden tabellen en onderlinge relaties bestaat, dan is NoSQL niet de juiste keuze. NoSQL-producten functioneren goed als het gegevensmodel ‘smal’ is, of met andere woorden, als het niet uit te veel tabellen bestaat.

Uiteraard kunnen NoSQL-producten verschillen wat betreft de ondersteuning van deze vereisten. Zoals aangegeven is het een heterogene groep producten, maar hopelijk helpt deze blog organisaties bij, enerzijds, het beslissen of zij een NoSQL-product moeten en kunnen gebruiken voor het systeem dat zij willen ontwikkelen, en anderzijds bij het grofweg bepalen welk product de juiste keuze voor hen is.

]]>
Mon, 20 Feb 2017 09:15:00 +0100 Wanneer is NoSQL nuttig? http:///item/819446/wanneer-is-nosql-nuttig.html&field=Foto1&rType=crop&height=165&width=165.jpg
A modern stack for data analysis in a microservice world http:///item/822402/a-modern-stack-for-data-analysis-in-a-microservice-world.html The face of enterprise solutions is changing rapidly. We are making smaller solutions at a larger scale by deploying microservice architectures. This brings many advantages to developers and customers because solutions become more flexible to change and scale better. Microservices also bring a number new of challenges. Especially for companies that want insight in how their business is doing.

Since data is no longer coming from one source, but from many sources and since data is no longer of a uniform shape you need a solution that is up to the challenge. Processing data in a microservice world requires a stack that can process streams, unstructured data and structured data. And it should do it fast.

In this post I will show what a modern data analysis stack looks like and how you can use open source tools to setup a modern data analysis solution in your company.

Rapids, rivers and lakes

Data in a microservice environment basically comes in three types. Rapids, rivers and lakes.

The largest portion of data you will encounter is coming from events in the environment. These events come in two shapes. First there’s business events. These events come by quite frequently, but only go as fast as your business. Typically this means that a large company will have many business events and a a smaller company will have less.

The second kind of event data you will see within a business is actually coming from log sources. This is data that is logged when a system does it’s job. The amount of log events is an order of magnitude greater than data generated based on business events.

You can consider the log data within a microservice landscape a rapid. It produces a large flow of data that you can consider rather fluid. It has little value in the long run, but still useful to alert people of things as they happen.

Business events flow much slower. This kind of data is considered a river. This data is useful for longer. You can use it to alert people of important things that are happening in your company. But you can also use it to get a clear picture of what is happening over time in the company.

Analysing business events can help you get information about anomalies in orders. Business events are also useful for predictions. But they cannot be used for anything else.

Finally there’s a category of data that is considered stale. These bodies of data are typically kept for historical reasons. For example you keep old transaction records around because of government regulations. The data in a data lake is very useful for reporting over longer periods of time, for example to get trends over several years.

Making sense of the rapids, rivers and lakes

To make sense of data from the rapids, rivers and lakes in your company you need a solution that is capable of handling all three of these categories of data.

Let me give you two examples why I think that it is important that you learn how to use data from rapids (log streams), rivers (business events) and lakes (long term data storage). Data within a microservice landscape isn’t stored in one big database. Instead each service has its own store that contains the data it needs. Data is flowing between the services through the event bus. It means that there is a complete picture of what is going on in your business, but you need to listen to the event bus to get that picture.

In order to get an overview of the effect of your ad campaign on sales you need to gather up the business events related to sales and relate them to data gathered about products. This you can then aggregate in your data lake and use that to produce an overview of the effects of your ad campaign on sales.

Data in this scenario typically flows from your rapids (a log stream of the clicks on your websites) to your rivers (the business events related to completed business orders and products) to your lakes (the data lake).

Data can also be used in a reverse direction. Since you have data about orders/transactions in your data lake you can do some pretty interesting things. For example to be able to detect fraudulent transactions within your business you need to learn a model from data that you gathered in the past few years within your data lake. This stale data is actually quite valuable when you want to use machine learning.

After you learned a model based on the data in your data lake you can then use this model to predict whether an incoming transaction event is related to a fraudulent transaction. When you detect such a transaction you can then warn the right people within the company about the transaction and stop it real time.

The tools of the trade

Both scenarios that I showed you in the previous section require that you have a solution that is capable of working with streams of data that flow rapidly and large bodies of data that don’t fit in the memory of a single server.

Luckily there are tools that provide just the right functionality for the job. Most of which are open source. For example, Apache Flink and Apache Storm are tools that are capable of processing large volumes of streaming data.

If you need something to process stale bodies of data you can use Apache Hadoop. This tool is slower, but since the data in your data lakes evolves at a slower pace you need something that isn’t necessarily fast, but does a great job at processing terabytes of data.

Flink, Storm and Hadoop are great tools. And when it comes to the motto “Do one thing and do it well” these are the tools to have. But you have to learn three tools to get the most out of your analytics data. There is an alternative that does all three of these things.

Apache Spark is a general purpose tool that is capable of reading data from streams, graphs, databases and data lakes without breaking a sweat. This tool is the thing to have if you want to get the most out of your logdata, business events and data lakes.

Let me explain why. As you have noticed, the problems that modern businesses need to solve require a combination of data coming from streams and data lakes. Building such a solution with three separate products is though.

A general purpose tool like Apache Spark makes it easier to combine several kinds of data sources because it provides a generalized engine that can connect to streams, graphs, general purpose databases and distributed file storage. The unified API it provides makes the life of developers a lot easier since they don’t need to learn new patterns to work with the different kinds of data sources.

Run it in the cloud if you can

Of course you can run all of these tools on premise. But since you will be dealing with large amounts of data you’re going to need a cluster setup to keep things in check.

Data coming from a data lake doesn’t fit on one machine. So you need multiple machines to process all the data into a single usable model. This means you get to deal with clustering and the setup and management of multiple machines.

I know that most companies can do this kind of thing. We’ve gotten used to running multiple servers within our company. However is this really want you want to occupy your people with?

I think that it would be much more useful if you deploy your workload to the cloud so you can focus on what matters for your company.

Azure for example offers a complete set of tools that allow you to convert data from your rapids, streams and lakes into useful insights. For example, Azure Event Bus is a great tool to implement an event bus to transport log data and business events between microservices and your data analysis solution. HDInsight is actually Apache Spark in the cloud without the hassle of setting up a cluster manager. Finally you can use Azure Data Lake to store your long term data.

Because Microsoft spend so much time working on manageability of these solutions you can set up a data analysis solution in Microsoft Azure within ours rather than weeks when you run it on your own hardware.

Conclusion and more information

When you run microservices, spend some time thinking about analytics too and look for tools that can handle log streams, business events and data lakes.

]]>
Fri, 17 Feb 2017 09:09:00 +0100 A modern stack for data analysis in a microservice world http:///item/822402/a-modern-stack-for-data-analysis-in-a-microservice-world.html&field=Foto1&rType=crop&height=165&width=165.jpg
Software testspecialist Polteq ISO 9001 gecertificeerd http:///item/822121/software-testspecialist-polteq-iso-gecertificeerd.html Software testspecialist Polteq heeft onlangs het vernieuwde ISO 9001:2015 certificaat behaald. Polteq is onafhankelijk specialist in Nederland en België in software testen en aanbieder op het gebied van testopleidingen.

Een externe en onafhankelijke partij heeft door middel van enkele audits vastgesteld dat het kwaliteitsmanagementsysteem van Polteq aan alle normeisen voldoet. ISO 9001 is de internationale norm voor kwaliteitsmanagement. De ISO 9001 normering toont aan dat het bedrijf voldoet aan de wet- en regelgeving die op haar dienstverlening van toepassing is.

Polteq ziet de ISO-certificering niet alleen als tool voor kwaliteitsmanagement, maar vooral als een belangrijk hulpmiddel om haar dienstverlening richting klanten, klanttevredenheid en de eigen prestaties continu te evalueren en te optimaliseren. Polteq heeft ook Business Intelligence testen in haar portfolio.

Meer informatie: Polteq

]]>
Fri, 17 Feb 2017 00:02:00 +0100 Software testspecialist Polteq ISO 9001 gecertificeerd http:///item/822121/software-testspecialist-polteq-iso-gecertificeerd.html&field=Foto1&rType=crop&height=165&width=165.jpg
Ordina sluit 2016 winstgevend af http:///item/823012/ordina-sluit-winstgevend-af.html Na een matig vierde kwartaal, sluit Ordina 2016 winstgevend en schuldenvrij af. De omzet is het afgelopen jaar gedaald, met name in de overheidsmarkt en financiële dienstverlening in Nederland. In België/Luxemburg is de omzet en winstgevendheid sterk toegenomen. In Nederland is een sterke prestatie neergezet door de onderdelen die gespecialiseerd zijn in requirements, software development en testing. Alle aandacht is nu gericht op het ombuigen van de krimp naar groei in Nederland. Een goede basis hiervoor vormen de 11 raamovereenkomsten voor ICT-inhuur bij de Nederlandse overheid die Ordina recentelijk heeft gewonnen.

De omzet daalt 1,3% naar EUR 343,6 miljoen (2015: EUR 348,3 miljoen), de nettowinst bedraagt EUR 5,0 miljoen (2015: nettoverlies EUR 3,2 miljoen).

Daarnaast is in een krappe arbeidsmarkt het behouden en werven van medewerkers cruciaal. In 2017 verwacht Ordina zevenhonderd professionals aan te nemen in Nederland en België/Luxemburg.

]]>
Thu, 16 Feb 2017 15:22:04 +0100 Ordina sluit 2016 winstgevend af http:///item/823012/ordina-sluit-winstgevend-af.html&field=Foto1&rType=crop&height=165&width=165.jpg
Trillium Software bij Dela ingezet voor masterdatakwaliteit http:///item/821588/trillium-software-bij-dela-ingezet-voor-masterdatakwaliteit.html IntoDQ heeft voor uitvaartcoöperatie Dela Trillium datakwaliteitsoftware ingezet om consistente data uit klantsystemen te verkrijgen. Tientallen miljoenen records konden daardoor automatisch gevalideerd worden. IntoDQ is de Nederlandse distributeur van Trillium Software.

Bij Dela waren voor het onderhouden van de klantrelaties twaalf systemen in gebruik. Om de interne organisatie minder te belasten, en ook vanwege het gevoelige karakter van de klantinformatie, heeft Dela aan IntoDQ gevraagd een enkelvoudige portal voor klantinformatie te bouwen, om zowel de klantwaardering te verhogen als intern accurate en consistente data te verkrijgen.
De oplossing werd gevonden door de data in Microsoft Dynamics 2013 als de bron van de masterdata te beschouwen, en de Trillium Software Plug-in for Microsoft Dynamics CRM daarbij in te zetten voor opschoning en validatie van de data en uitvoeren van real-time datakwaliteitchecks. Hierdoor werd voorkomen dat een kostbare MDM hub zou moeten worden ingezet.

Geautomatiseerde datamatching
De uitdaging was om de tientallen miljoenen records van Dela, die over twaalf datasilo’s verspreid waren, consistent en zonder duplicaten te krijgen. IntoDQ heeft daartoe datastandaarden vastgelegd, de migratie van de data verzorgd en daarbij de Trillium datakwaliteitsoftware geïmplementeerd om een uniek klantdatabestand te genereren. Het gehele datamatching proces over de twaalf silo’s heen is met Trillium geautomatiseerd.

Data stewards
Personeel van Dela is door IntoDQ getraind in onderhoud en monitoring van Microsoft Dynamics, waarbij data stewards aangewezen zijn die binnen Dela blijven zorgen voor data governance en de datakwaliteit handhaven.

Meer informatie: IntoDQ

]]>
Thu, 16 Feb 2017 00:02:00 +0100 Trillium Software bij Dela ingezet voor masterdatakwaliteit http:///item/821588/trillium-software-bij-dela-ingezet-voor-masterdatakwaliteit.html&field=Foto1&rType=crop&height=165&width=165.jpg
HPE kondigt wereldwijd reseller agreement met Mesosphere aan http:///item/821404/hpe-kondigt-wereldwijd-reseller-agreement-met-mesosphere-aan.html Hewlett Packard Enterprise (HPE) kondigt een Original Equipment Manufacturing (OEM)- en resellerovereenkomst aan met Mesosphere. De overeenkomst moet klanten helpen bij de transformatie en modernisering van datacenters door hybride IT-oplossingen voor traditionele infrastructuren en private, publieke en managed clouddiensten aan te bieden.

Dankzij de overeenkomst wordt HPE wereldwijd leverancier van de zakelijke oplossingen van Mesosphere. HPE bouwt en levert infrastructuuroplossingen - zoals server-, opslag- en technologiediensten - die ontworpen zijn voor Mesosphere DC/OS. Dit open source platform (gebouwd op Apache Mesos) richt zich op de ontwikkeling, implementatie en flexibele schaling van technologieën die de basis vormen voor moderne applicaties.

Mijlpaal
De overeenkomst met Mesosphere is volgens HPE een nieuwe mijlpaal. Het bedrijf blijft hiermee haar positie in containeroplossingen uitbreiden, zodat klanten de voordelen en flexibiliteit van hybride IT volledig kunnen benutten. Zo hebben klanten de mogelijkheid hun performances te optimaliseren en een snellere time-to-market te realiseren.
Dankzij deze resellerovereenkomst kunnen klanten de voordelen van cloud native platformdiensten benutten, versterkt door de diensten en infrastructuur van HPE. Doordat Mesosphere Enterprise DC/OS op HPE servers en opslag draait, kunnen klanten gebruikmaken van een single platform om container applicaties, Platform-as-a-Service, Infrastructure-as-a-Service, gedistribueerde databases, big data analytics en ‘stateful services’ te draaien.

Groeiende relatie
De resellerovereenkomst is het nieuwste hoofdstuk in de groeiende relatie tussen Mesosphere en HPE. Mesosphere kondigt vandaag ook aan dat het zich als technologiepartner aansluit bij de door HPE aangevoerde Cloud28+ community. Het Cloud28+ platform biedt klanten en HPE-partners een 'marktplaats' voor hybride IT-oplossingen en de mogelijkheid om kennis te delen en nieuwe contacten te leggen. Hewlett Packard Pathfinder (HPE’s venture investment en partnership programma), leidde in maart 2016 de Series C financieringsronde van Mesosphere. Dit leverde 73,5 miljoen op dollar.

Beschikbaarheid
Mesosphere DC/OS en de gerelateerde diensten zijn via HPE en wereldwijde channelpartners zijn per direct beschikbaar.
Meer informatie: open source editie van Mesosphere.

]]>
Wed, 15 Feb 2017 00:02:00 +0100 HPE kondigt wereldwijd reseller agreement met Mesosphere aan http:///item/821404/hpe-kondigt-wereldwijd-reseller-agreement-met-mesosphere-aan.html&field=Foto1&rType=crop&height=165&width=165.jpg
AWS lanceert de Academy voor cloudexperts in Nederland http:///item/821381/aws-lanceert-de-academy-voor-cloudexperts-in-nederland.html Bedrijven zijn op zoek naar experts met kennis van transitie naar de cloud. Om aan deze vraag te voldoen, wil Amazon Web Services met de lancering van de AWS Academy de opleiding van getrainde cloudexperts ondersteunen.

De AWS Academy is een educatief programma dat het AWS curriculum aanbiedt bij universiteiten, technische opleidingen en non-profit instellingen. Via deze weg wil AWS studenten ondersteunen bij het ontwikkelen van vaardigheden in cloud computing. Tevens wil het bedrijf studenten voorbereiden op de AWS-certificatie, zodat de markt voorzien kan worden van getrainde en gecertificeerde cloudexperts.

Meer informatie: Amazon Web Services

]]>
Tue, 14 Feb 2017 00:03:05 +0100 AWS lanceert de Academy voor cloudexperts in Nederland http:///item/821381/aws-lanceert-de-academy-voor-cloudexperts-in-nederland.html&field=Foto1&rType=crop&height=165&width=165.jpg
Netsmart gebruikt InterSystems Data Platform voor inzicht in patiëntdata http:///item/821428/netsmart-gebruikt-intersystems-data-platform-voor-inzicht-in-patia-laquo-ntdata.html Netsmart, een leverancier van technologie voor Amerikaanse GGZ-instellingen heeft het InterSystems dataplatform geselecteerd voor het ontsluiten van tot voor kort verborgen informatie over het gedrag van patiënten. Netsmart brengt het systeem myAvatar op de markt, een informatiebeheersysteem voor behandelaars die zich toeleggen op de geestelijke gezondheidszorg en die informatie willen uitwisselen met andere disciplines uit de zorgsector. Onderdeel van het door InterSystems geleverde platform is het product iKnow waarmee zich relevante informatie uit ongestructureerde, veelal tekstuele databronnen laat destilleren.

InterSystems werkte nauw samen met Netsmart bij de implementatie van het platform bij Mental Health Center of Denver (MHCD), een instelling die in de Verenigde Staten bekend staat om de innovatieve en kwalitatieve wijze van het behandelen van psychiatrische patiënten. Voorheen koste het MHCD veel moeite om verbeteringen in het genezingsproces te constateren uit de diagnose- en gespreksverslagen, zowel vanuit het perspectief van de patiënt als vanuit de visie van de behandelaar. Doorgaans leggen patiënten de voortgang in hun behandeltraject vast via een beknopte vragenlijst, waaruit artsen aan de hand van verschillende criteria hun conclusies trekken.

Rijk potentieel
De Netsmart-oplossing levert een voor de behandelaars begrijpelijk beeld van het rijke potentieel aan informatie die in de klinische verslaglegging verborgen zit. Ongestructureerde informatie in de vorm van psychiatrische evaluaties, notities van het instellingsmanagement, aantekeningen van de case manager of bewindvoerder, intakeverslagen en behandelplannen zijn moeilijk te analyseren vanuit een traditionele gestructureerd opgezet elektronische zorgdossier. Door het gebruik van InterSystems technologie, waarmee conceptuele data-extracten uit zowel gestructureerde als ongestructureerde gegevensbronnen zijn te ontsluiten, was MHCD in staat verder te kapitaliseren op de gegevensbestanden van het Netsmart elektronisch zorgdossier. Artsen kunnen, terwijl ze gewoon blijven werken volgens de gebruikelijke klinische werkwijze, het verhaal van hun cliënten/patiënten terugbrengen naar de formele data voor de besluitvorming.

Stabiel platform
InterSystems en Netsmart werkten heel nauw samen met behandelaars om te vernemen welke data in welke vorm voor hen van belang is. Deze aanpak wordt ook aanbevolen door American College of Physicians (ACP) in een notitie aangeduid als: ‘Clinical Documentation in the 21st Century’, gepubliceerd in Annals of Internal Medicine. “We introduceerden 16 maanden geleden de Netsmart oplossing bij MHCD ter vervanging van een elektronisch zorgdossier waar we al 12 jaar mee werkten”, zegt Wes Williams, arts en tevens CIO bij MHCD. “We waren de applicatie voortdurend aan het aanpassen aan nieuwe wensen. Dat houdt een keer op. Omwille van de patiëntveiligheid kozen we voor een nieuw stabiel platform, waardoor we zeker weten dat er geen informatie verloren raakt ongeacht de plaats waar gegevens worden vastgelegd. We willen breed inzicht in iemands gezondheidsdossier zodat we de best mogelijk zorg kunnen verlenen”.

Omvangrijke analyses
Door het toepassen van InterSystems oplossing voor het analyseren van ongestructureerde data binnen het Netsmart systeem, kan MHCD nu omvangrijke analyses los laten op alle patiënten data zonder complexe aanpassingen aan de bestaande IT-infrastructuur. Daardoor kunnen artsen gemakkelijker de voortgang in het behandelproces van een patiënt beoordelen en een besluit nemen over de vervolgstappen. De kwaliteit van de zorg is daarmee gediend, terwijl er tevens doelmatiger wordt gewerkt. Ook in Nederland zijn er in de zorgsector met het toepassen van de iKnow functionaliteit voor tekstuele analyse spectaculaire resultaten behaald, onder meer bij het voortijdig herkennen van indicatoren in psychiatrische verslagen en verpleegkundige logboeken.

Meer informatie: InterSystems

]]>
Tue, 14 Feb 2017 00:02:00 +0100 Netsmart gebruikt InterSystems Data Platform voor inzicht in patiëntdata http:///item/821428/netsmart-gebruikt-intersystems-data-platform-voor-inzicht-in-patia-laquo-ntdata.html&field=Foto1&rType=crop&height=165&width=165.jpg
Interview met Chief Science Officer Giovanni Lanzani van GoDataDriven http:///item/821429/interview-met-chief-science-officer-giovanni-lanzani-van-godatadriven.html Giovanni Lanzani werkt als Chief Science Officer bij GoDataDriven. Met een achtergrond in de Theoretische Natuurkunde is hij voor zijn klanten dagelijks bezig om datamodellen in productie te brengen. Hij wordt daarbij geholpen door een team van data engineers en data scientists. Hij is betrokken vanaf de ruwe data tot en met de aflevering van de producten en toepassingen.

Giovanni vertelt uitgebreid over de praktijk, implementaties bij klanten en heeft ook tips voor zowel beginnende data scientists als bedrijven die datagedreven willen werken. Er zijn zoveel mogelijkheden met de data, daarbij is een cultuur van experimenteren zeer belangrijk om een succesvolle datagedreven organisatie te worden, zo concludeert hij.

]]>
Mon, 13 Feb 2017 15:54:35 +0100 Interview met Chief Science Officer Giovanni Lanzani van GoDataDriven http:///item/821429/interview-met-chief-science-officer-giovanni-lanzani-van-godatadriven.html&field=Foto1&rType=crop&height=165&width=165.jpg
Interview met Funs Jansen tijdens de Tableau Experience in DeFabrique http:///item/821427/interview-met-funs-jansen-tijdens-de-tableau-experience-in-defabrique.html Funs Jansen is werkzaam als Senior Manager Marketing Analytics bij HAVI, een logistieke dienstverlener die onder andere grote franchise-organisaties zoals McDonald's van voorraad voorziet. Om grip en inzicht te houden op het Supply Chain Management wordt Tableau gebruikt.

Funs Jansen hield een presentatie eind 2016 tijdens de Tableau Experience in De Fabrique in Utrecht. Na zijn presentatie vertelde hij in een video-interview met BI-Platform over de toepassing van Tableau binnen zijn organisatie.

]]>
Mon, 13 Feb 2017 15:13:58 +0100 Interview met Funs Jansen tijdens de Tableau Experience in DeFabrique http:///item/821427/interview-met-funs-jansen-tijdens-de-tableau-experience-in-defabrique.html&field=Foto1&rType=crop&height=165&width=165.jpg
Target en Quint introduceren opleiding tot data scientist http:///item/820352/target-en-quint-introduceren-opleiding-tot-data-scientist.html Managementadviesbureau Quint Wellington Redwood en big data analytics bedrijf Target Holding bieden een nieuwe zesdaagse, praktijkgerichte opleiding aan over big data management. In een tijdsbestek van zes opleidingsdagen leren deelnemers hoe ze met big data marktkansen benutten, nieuwe businessmodellen ontwikkelen en belangrijker nog, waarde creëren.

De opleiding is een innovatieve training voor professionals die op zoek zijn naar een heldere en toekomstbestendige datastrategie voor hun onderneming. Onder het motto ‘Bring your own data’ gaan de (toekomstige) data scientists direct aan de slag met hun eigen issues.
McKinsey waarschuwt al vanaf 2011 voor een chronisch wereldwijd tekort aan data scientists. In het nieuwste onderzoeksrapport1 wordt de kloof tussen de vraag en het aanbod nog eens bevestigd. Alleen al in Amerika dreigt een acuut tekort van 250.000 data scientists te ontstaan. Tegelijkertijd constateren de onderzoekers dat pas een fractie van de enorme potentiële waarde van big data is verzilverd. Ook in Nederland ontstaat steeds meer behoefte aan data scientists.

Inhoud
Onderwerpen die tijdens de opleiding aan bod komen en meteen worden toegepast, zijn onder meer:
- machine-learning;
- deep learning;
- neurale netwerken;
- unsupervised learning.
Na het volgen van de opleiding hebben de cursisten iets concreets in handen waarmee ze meteen aan de slag kunnen.

Bring your own data
Professionals, zoals analisten, datawarehouse-specialisten, managers en marketeers die minimaal 3,5 jaar werkervaring hebben en beschikken over een HBO/WO werk- en/of denkniveau vormen de belangrijkste doelgroep voor de nieuwe opleiding. Toepassing van het beginsel ‘Bring your own data’ maakt deze opleiding uniek. Van elke deelnemer wordt namelijk verwacht dat hij zelf input levert vanuit zijn eigen dagelijkse praktijk. Het gaat hierbij om issues, hoofdbrekens, blokkades en andere praktische vragen.

Smaakmakers & thought leaders
Het docententeam wordt gevormd door specialisten van Target en Quint. Kerndoelen van het docententeam zijn: big data direct toepasbaar maken en gezamenlijk werken aan waardecreatie. Minstens zo belangrijk vinden zij echter de passie voor een vak dat niet alleen ondernemingen inspireert, maar ook een bijdrage levert aan het oplossen van de grote wereldproblemen.

Deelnemen en aanmelden
In de opleiding zetten cursisten de eerste stappen in het ontwikkelen van een datastrategie en het inrichten van datamanagement voor hun organisatie. Slimme professionals stappen nu in de wereld van data engineering en machine learning. Ze investeren in het meest sexy beroep van dit moment en stellen hun eigen toekomst (en die van de onderneming) veilig.
De opleiding vindt plaats op 24 april, 2 mei, 12 mei, 15 mei en 24 mei en 2 juni 2017 te Amstelveen. Natuurlijk kan de opleiding ook in een in-company format worden georganiseerd. Cursisten gaan dan met een team van collega’s aan de slag op een in overleg te bepalen data en locatie.

Meer informatie en aanmelding

]]>
Mon, 13 Feb 2017 00:06:00 +0100 Target en Quint introduceren opleiding tot data scientist http:///item/820352/target-en-quint-introduceren-opleiding-tot-data-scientist.html&field=Foto1&rType=crop&height=165&width=165.jpg
Creating Trust in Data with Collaborative Governance http:///item/817496/creating-trust-in-data-with-collaborative-governance.html Today's enterprise IT organizations are once again experiencing a massive upheaval due to pressure from employee forces.

It’s a familiar story. Just think of the turmoil caused by the dawning of the bring-your-own-device (BYOD) era, with employees demanding to use their beloved, personal mobile phones or tablets for work. If IT balked at their requests for mobile, some resourceful users would resort to workarounds – creating ‘shadow IT’ – to get access to corporate systems on their personal devices.  Of course, in the process, those employees also unknowingly put sensitive company information at risk.

Now even more IT agitations are on the way, once again being generated by employee demand. This time, users demand access to the growing pools of big data companies have amassed, and the insights they likely contain. If IT can’t deliver the tools to access the information residing in corporate data lakes, employees will — just as they did in the BYOD era—find a workaround, which will likely put enterprise information at risk. Thus, there is no other option for IT than to deliver data via self-service access across all lines of business. However, IT must find the proper way to do so in order to prevent exposing company assets to unnecessary risk. They must adopt a model of collaborative governance.

The transition from authoritative to collaborative governance of company data might be hard, but there’s an opportunity for corporate IT departments to create a system of trust around enterprise data stores, wherein employees collaborate with IT to maintain and/or increase the quality, governance and security of data. The good news is that IT professionals have a blueprint from the companies that pioneered the use of the World Wide Web for collaborative data governance. Just as Web 2.0 evolved around trends that focused on the idea of user collaboration, sharing of user-generated content, and social networking, so too does the concept of collaborative governance. Collaborative governance breaks down the technological and psychological barriers between enterprise data keepers and information consumers, allowing everyone within an organization to share the responsibility of securing enterprise data.  This concept has the power to transform entire industries.

Wikipedia is a good example of user collaboration in action. Launched in 2001, it is the world’s sixth most popular website regarding overall visitor traffic.  Everyone can contribute or edit entries – a mixed blessing when it comes to reliability and trust.

Or take TripAdvisor, an American travel website company that provides reviews of travel-related content and interactive travel forums.  It was an early adopter of user-generated content.

Airbnb is another excellent example of collaborative governance in action. Founded in 2008 as a “trusted community marketplace for people to list, discover, and book unique accommodations around the world,” including, as the website states, “an apartment for a night, a castle for a week, or a villa for a month,” it is the users themselves that provide the venues, and the company that provides a platform which owners and travelers can leverage to share and book venues.

The greatest challenge – and enabler – for this model has always been trust. Users place their trust in others to accurately update content and information (ratings), meaning consumers are putting their trust solely in the information presented to them. The system works because the data in the system is bountiful and the platform it resides within is designed specifically to enhance user experience.

Now let’s consider the typical IT landscape in an enterprise. Information used to be designed and published by a very small number of data professionals targeting their efforts to “end-users”, or consumers, who were ingesting the information. Today, the proliferation of information within companies is uncontrollable, just like it was on the Web. We’re all experiencing the rise of a growing number of cloud applications coming through sales, marketing, HR, operations or finance to complement centrally designed, legacy IT apps, such as ERP, data warehousing or CRM. Digital and mobile applications connect IT systems to the external world. To manage these new data streams, we are watching new data-focused roles emerging within corporations, such as data analysts, data scientists or data stewards, which are blurring the lines between enterprise data consumers and providers. Just like the adoption of BYOD, these new roles are presenting challenges of corporate data quality, reliability, and trust that must be addressed by IT organizations.

As the Web 2.0 model evolved, trust between consumers and their service providers was established by crowdsourced mechanisms for rating, ranking and establishing a digital reputation (think Yelp). One lesson learned in the consumer world is that the rewards of trust are huge. These same positive returns can be realized by enterprise IT departments that adopt selected strategies embraced by their more freewheeling consumer counterparts.   

Delivering a system of trust through collaborative data governance and self-service is just one of the opportunities available to evolving IT organizations.  Through self-service, line of business users become more involved with the actual collection, cleansing, and qualification of data from a variety of sources, so that they can then analyze that data and use it for more informed decision-making. Currently, many companies—in their mad rush to become data-driven—are increasingly making decisions based on incomplete and inaccurate data. In fact, according to The Data Warehousing Institute, ‘dirty data’ is costing businesses $600B a year. Companies will continue to experience extreme loss and possible failure if they don’t have a sound data governance system in place.

Collaborative data governance is an easy way for IT to help ensure that the quality, security, and accuracy of enterprise information is preserved in a self-service environment. Collaborative governance allows employees in an organization to correct, qualify and cleanse enterprise information. This helps IT because the master data records are being updated by those most familiar with or closest to the data itself (i.e. the marketing analyst who cleanses tradeshow leads, or the financial analyst who rectifies a budget spreadsheet).

Additionally, fostering the crucial shift to more business user involvement with an organization’s critical data leads to numerous other benefits.  For example, users save time and increase productivity when they work with trusted data. Marketing departments improve their campaigns. Call centers work with more reliable, accurate customer information, much to everyone’s satisfaction. And the enterprise gets better control over its most valuable asset: data.  

So my simple message to companies looking to become more data driven: digital transformation can be achieved—it’s all just a matter of trust.

]]>
Mon, 13 Feb 2017 00:03:00 +0100 Creating Trust in Data with Collaborative Governance http:///item/817496/creating-trust-in-data-with-collaborative-governance.html&field=Foto1&rType=crop&height=165&width=165.jpg
Rick van der Lans over ontwikkelingen in Big Data technologie http:///item/820564/rick-van-der-lans-over-ontwikkelingen-in-big-data-technologie.html Rick van der Lans over Big Data en het seminar over dat onderwerp dat Adept Events periodiek organiseert. In deze video geeft Rick een beknopte beschrijving van het seminar dat al sinds 2012 wordt georganiseerd maar dat, begrijpelijkerwijs, is gegroeid van een halve naar een hele dag en dat iedere editie weer veel nieuw materiaal bevat. En dat terwijl het seminar twee maal per jaar wordt georganiseerd. Het accent is meer verschoven naar concrete toepassingen en het HOE van Big Data. Daarnaast kan uiteraard een overzicht van producten en marktspelers niet ontbreken. Meer informatie over deze sessie vindt u op www.adeptevents.nl/bdn.

]]>
Sun, 12 Feb 2017 00:18:58 +0100 Rick van der Lans over ontwikkelingen in Big Data technologie http:///item/820564/rick-van-der-lans-over-ontwikkelingen-in-big-data-technologie.html&field=Foto1&rType=crop&height=165&width=165.jpg
Rick van der Lans over Logisch Datawarehouse architectuur http:///item/820562/rick-van-der-lans-over-logisch-datawarehouse-architectuur.html Rick van der Lans over Logisch Datawarehouse architectuur en het seminar over dat onderwerp dat Adept Events periodiek organiseert. Welke probleem lossen we op met deze architectuur en wat is het verschil met datavirtualisatie? Dit seminar is gegroeid van initieel een halve dag over datavirtualisatie tot uiteindelijk een veel breder en gedetailleerder tweedaags seminar. Hierbij staat vooral het HOE voorop met veel voorbeelden uit de praktijk en een concreet plan van aanpak. Daarnaast kan uiteraard een overzicht van producten en marktspelers niet ontbreken. Meer informatie over deze sessie vindt u op www.adeptevents.nl/ldw.

]]>
Sun, 12 Feb 2017 00:13:45 +0100 Rick van der Lans over Logisch Datawarehouse architectuur http:///item/820562/rick-van-der-lans-over-logisch-datawarehouse-architectuur.html&field=Foto1&rType=crop&height=165&width=165.jpg
Eliantie wordt onderdeel van ProData Consult http:///item/819735/eliantie-wordt-onderdeel-van-prodata-consult.html ProData Consult en Eliantie B.V. hebben per 1 januari 2017 hun krachten gebundeld. Dit betekent dat Eliantie B.V. deel van de ProData Consult Group wordt waarbij ProData Consult Group de meerderheid van de aandelen van Eliantie B.V. verwerft. Eliantie en ProData Consult staan beide bekend om hun professionele IT-consultants die voor de grootste bedrijven in Nederland werkzaam zijn.

Om te kunnen voldoen aan de groeiende vraag naar IT-specialisten, was een fusie tussen beide bedrijven een natuurlijke keuze. Volgens Maurice Blanken, Commercieel Directeur bij Eliantie, wordt zijn bedrijf dankzij de fusie als partner nog aantrekkelijker voor klanten. “We staan nu nog sterker in onze schoenen om hen  te helpen bij het oplossen van hun problemen. Vandaag kunnen we onze klanten een ruim aanbod IT consultancy services aanbieden en zijn we in staat om zowel nationaal als internationaal de juiste consultants te vinden.”    

De fusie is niet enkel een voordeel voor de klanten, maar ook voor het ruime netwerk van IT-consultants. Volgens Toine van Kastel, Country Manager bij ProData Consult, kan het gefuseerde  bedrijf meer kansen aan  consultants bieden. "Samen kunnen we onze consultants een breder portfolio aan klanten en dus ook meer interessante opdrachten aanbieden. We hebben de capaciteit om onze consultants te matchen met de projecten waarnaar ze op zoek zijn."

Alle werknemers en consultants van beide bedrijven blijven in dienst. Het bedrijf zal geleid worden door Jeroen Diederik, Maurice Blanken en Toine van Kastel. De twee bedrijven waren in 2016 samen goed voor een omzet van ongeveer Euro 100 miljoen.

Meer informatie: ProData Consult

]]>
Fri, 10 Feb 2017 12:13:46 +0100 Eliantie wordt onderdeel van ProData Consult http:///item/819735/eliantie-wordt-onderdeel-van-prodata-consult.html&field=Foto1&rType=crop&height=165&width=165.jpg
OLAP-on-Hadoop in opkomst http:///item/819424/olap-on-hadoop-in-opkomst.html Al geruime tijd zijn SQL-interfaces beschikbaar voor het benaderen van gegevens die in Hadoop opgeslagen zijn. Het eerste product was Apache Hive en op dit moment zijn er al meer dan twintig zogenoemde SQL-on-Hadoop engines. De laatste tijd zijn er enkele producten geïntroduceerd waarmee ontwikkelaars met behulp van een OLAP-achtige interface Hadoop-gegevens kunnen benaderen. Voorbeelden van OLAP-on-Hadoop-engines zijn Apache Kylin, AtScale, Kyvos Insights en Platfora. Hun interne structuren verschillen, maar ze staan allemaal toe dat gegevens opgeslagen in Hadoop geanalyseerd en gevisualiseerd kunnen worden middels een MDX-interface. Hier zijn gegevens georganiseerd als multi-dimensionele kubussen.

Aan de buitenkant zien OLAP-on-Hadoop-engines eruit als traditionele OLAP-tools die MDX-interfaces ondersteunen en, zoals gezegd, de gegevens in kubussen organiseren. Aan de binnenkant zijn ze echter zeer verschillend. Dit zijn enkele van de grote verschillen tussen OLAP-on-Hadoop-engines en traditionele OLAP tools:

Lage data latency: OLAP-on-Hadoop-engines analyseren gegevens die in Hadoop opgeslagen zijn. Hadoop-gegevens worden on-demand omgezet naar kubussen. Gegevens hoeven niet eerst in fysieke kubussen opgeslagen te worden. De verwerking van de queries op de kubussen wordt uitgevoerd door ze te transformeren naar queries die rechtstreeks op het Hadoop platform worden uitgevoerd. Het effect is dat gebruikers zero-latency gegevens kunnen analyseren. Met traditionele OLAP-oplossingen moeten gegevens vanuit de bronsystemen naar een datawarehouse gekopieerd worden, vervolgens naar data marts en tenslotte moeten ze naar fysieke kubussen omgezet worden. Dit gehele proces duurt bij sommige organisaties een gehele dag, wat inhoudt dat de data latency ook een gehele dag is. Steeds meer gebruikers vinden deze hoge data latency niet langer acceptabel. OLAP-on-Hadoop kan een zeer lage data latency bieden, zelfs als het om big data gaat.

Data storage schaalbaarheid: Aangezien Hadoop het opslagsysteem is, is de hoeveelheid gegevens die opgeslagen kan worden voor analytische doeleinden vrijwel onbeperkt. Dit is heel anders dan bij enkele traditionele OLAP-producten waarin de maximale hoeveelheid gegevens die opgeslagen kan worden, beperkt wordt door de maximale grootte van de kubus. OLAP-on-Hadoop ondersteunt live OLAP op big data.

Data processing schaalbaarheid: Het merendeel van de OLAP-on-Hadoop-engines gebruiken de gedistribueerde verwerkingskracht van het Hadoop-platform om analytische queries uit te voeren. Bij traditionele OLAP-oplossingen worden de gegevens verstuurd naar het punt waar de analytische verwerking plaatsvindt, terwijl bij OLAP-on-Hadoop de analytische verwerking verplaatst wordt naar de plek waar de gegevens opgeslagen zijn. Zeker in big data-omgevingen is dit veel efficiënter.

Verbeterde time-to-market: Aangezien de kubussen in een OLAP-on-Hadoop-engine geen fysieke kubussen zijn, kunnen hun structuur en (virtuele) inhoud zeer eenvoudig en snel gewijzigd worden, waardoor de time-to-market voor nieuwe rapporten aanzienlijk verbetert. Als een kubus gewijzigd moet worden, hoeft alleen de definitie aangepast te worden. Er is geen noodzaak de kubussen fysiek opnieuw op te bouwen en alle vooraf gedefinieerde en samengevatte gegevens opnieuw te berekenen. Wijzig alleen de definitie van de kubus en de gebruiker kan de nieuwe kubus direct analyseren.

BYOBIT: BYOBIT staat voor Bring-Your-Own-BI-Tool. Door de MDX-interface die de OLAP-on-Hadoop-engines bieden, kunnen gebruikers een veelvoud aan producten inzetten om gegevens te analyseren en visualiseren. Ze worden niet gedwongen een nieuw product te gebruiken, want ze kunnen hun eigen product meenemen, een product waarmee ze vertrouwd zijn. Op een bepaalde manier worden met OLAP-on-Hadoop de gegevens, die in Hadoop zijn opgeslagen, gedemocratiseerd. Hadoop-gegevens zijn op deze manier beschikbaar voor alle gebruikers en niet alleen voor de happy few, de super experts die weten hoe ze in MapReduce, Pig of Python moeten programmeren.

Samenvattend, OLAP-on-Hadoop-engines kunnen dan wel wat jonger zijn dan de SQL-on-Hadoop-engines, maar voor de wereld van analyse, rapportage en gegevensvisualisatie hadden ze niet later moeten verschijnen. Veel organisaties hebben gewacht om hun big data-investering opgeslagen in Hadoop beschikbaar te maken voor analyses zonder een complexe multi-database architectuur met een hoge data latency te hoeven ontwerpen, bouwen en beheren.

]]>
Fri, 10 Feb 2017 00:08:00 +0100 OLAP-on-Hadoop in opkomst http:///item/819424/olap-on-hadoop-in-opkomst.html&field=Foto1&rType=crop&height=165&width=165.jpg
InterSystems TrakCare onderscheiden met twee 2017 Best in KLAS Awards http:///item/819377/intersystems-trakcare-onderscheiden-met-twee-best-in-klas-awards.html InterSystems heeft aangekondigd dat analysebedrijf KLAS twee awards heeft toegekend aan TrakCare, het informatiesysteem voor de zorgsector van InterSystems.

De prijzen die zijn toegekend zijn 2017 Best in KLAS Global (Non-US) Acute Care EMR en 2017 Best in KLAS Global (Non-US) Patient Administration System. Het is de eerste keer dat KLAS aan InterSystems TrakCare de Best in KLAS Global (Non-U.S.) Patient Administration System award heeft toegekend. In 2016 ontving TrakCare de 2015/2016 Best in KLAS Global (Non-US) Acute Care EMR award en twee Category Leader awards.

In aanvulling op de Best in KLAS awards werd InterSystems TrakCare onderscheiden met drie Category Leader awards voor Global (Non-US) Acute EMR – Asia/Oceania Region, Global (Non-US) Acute EMR – Middle East Region, en Global (Non-US) Patient Administration System – Asia/Oceania Region.

Volgens KLAS belonen haar awards uitstekende systemen om zorgprofessionals in staat te stellen betere zorg te leveren.

Meer informatie: InterSystems

]]>
Fri, 10 Feb 2017 00:03:00 +0100 InterSystems TrakCare onderscheiden met twee 2017 Best in KLAS Awards http:///item/819377/intersystems-trakcare-onderscheiden-met-twee-best-in-klas-awards.html&field=Foto1&rType=crop&height=165&width=165.jpg
Trifacta presenteert upgrade van Wrangler http:///item/819376/trifacta-presenteert-upgrade-van-wrangler.html Leverancier van data wrangling software Trifacta lanceert een update van de gratis versie van haar zakelijk product Wrangler. Mogelijkheden uit de R4 release van Wrangler Enterprise waarmee klantgedrag meer inzichtelijk wordt zijn hierdoor voor iedereen beschikbaar.

Tienduizenden gebruikers bij meer dan 4.500 bedrijven in 133 landen kunnen nu zonder kosten gebruik maken van nieuwe mogelijkheden:
• Builder, een interface met een intuïtieve manier om logische stappen in het datawrangling proces te zetten.
• Photon Compute Engine met verbeterde schaling en performance en een geheel vernieuwde data processing engine.
• Directe Live chat ondersteuning vanuit de Wrangler applicatie, waardoor gebruikers direct op vragen hulp kunnen krijgen van specialisten.
• Fuzzy Join, waarmee gebruikers datasets kunnen combineren.

Meer informatie: Trifacta

]]>
Fri, 10 Feb 2017 00:02:00 +0100 Trifacta presenteert upgrade van Wrangler http:///item/819376/trifacta-presenteert-upgrade-van-wrangler.html&field=Foto1&rType=crop&height=165&width=165.jpg
Microsoft biedt ontwikkelaars gratis testplatform voor Blockchainconcepten http:///item/819225/microsoft-biedt-ontwikkelaars-gratis-testplatform-voor-blockchainconcepten.html Microsoft biedt een gratis testplatform voor ontwikkelaars om de ontwikkeling van concepten rond Blockchain in Nederland te versnellen. De dienst Blockchain-as-a-Service op het Microsoft Azure cloudplatform maakt het mogelijk dat ontwikkelaars hun eigen Blockchain use cases kunnen bouwen en testen.

Steeds meer bedrijven en openbare organisaties maken gebruik van Blockchains. Zij kunnen hiermee vrijwel direct transacties verwerken en verifiëren, en zo bedrijfsprocessen stroomlijnen, kosten besparen en het risico van fraude beperken. Blockchain is in de basis een gegevensstructuur voor het maken van een grootboek voor digitale transacties, die niet in het bezit is van één provider, maar wordt gedeeld in een gedistribueerd netwerk van computers. Het resultaat is een opener, transparanter en volledig openbaar te verifiëren systeem. Het aantal toepassingen waarvoor Blockchains worden gebruikt, is nagenoeg oneindig, variërend van leningen, obligaties en betalingen tot supply chains en identiteitsbeheer en -verificatie.

Blockchain-pilots
Blockchain groeit in populariteit en Nederland loopt hierbij voor op andere landen. Zo heeft de Nederlandse overheid verschillende Blockchain-pilots opgezet, onder meer op het gebied van gemeentelijke dienstverlening. Microsoft vindt het belangrijk om deze innovatie te stimuleren en biedt daarom een gratis testplatform voor ontwikkelaars. Daarnaast is Microsoft lid van de Blockchain Alliance en official partner van de Dutch Blockchain Hackathon die plaatsvindt van 10 tot en met 12 februari 2017 in Groningen. Dit evenement is inmiddels volledig volgeboekt.
Binnen Azure zijn inmiddels voorgeconfigureerde Blockchain-oplossingen beschikbaar, waaronder Ethereum, Emercoin Blockchain Engine en STRATO Blockchain L. Hiermee kunnen Blockchains eenvoudig worden ontwikkeld en binnen een kwartier in de lucht zijn.

Fail fast, learn fast
Volgens Hans Bos, National Technology Officer van Microsoft Nederland, is Blockchain een veelbelovende technologie en gebaat bij eenvoudig beschikbare platforms waar volop ruimte is voor experimenten. “Daarom bieden we onder het motto Fail fast, learn fast deze gratis testomgeving met voorgeconfigureerde blockchain-toepassingen in Azure. Zie dit als onze Blockchain-as-a-Service die op Azure draait. Deze dienst voorziet in een snel inzetbaar, kostenefficiënt en stabiel platform waar organisaties kunnen samenwerken aan echte innovatie rond hun bedrijfsprocessen met behulp van blockchain-technologie.”

Meer informatie: Microsoft Blockchain-as-a-Service
Github code via: Getting Started with Azure Blockchain as a Service

]]>
Thu, 09 Feb 2017 13:33:11 +0100 Microsoft biedt ontwikkelaars gratis testplatform voor Blockchainconcepten http:///item/819225/microsoft-biedt-ontwikkelaars-gratis-testplatform-voor-blockchainconcepten.html&field=Foto1&rType=crop&height=165&width=165.jpg
SAP S/4HANA Cloud krijgt intelligentie op basis van machine learning http:///item/819202/sap-s-hana-cloud-krijgt-intelligentie-op-basis-van-machine-learning.html SAP stelt nieuwe functies beschikbaar voor de cloud-ERP-oplossing SAP S/4HANA Cloud. Deze nieuwe functies zijn onder andere gebaseerd op machine-learningtechnologie. Daarnaast kondigt het bedrijf nieuwe functionaliteiten aan die later dit jaar beschikbaar komen.
 
SAP S/4HANA Cloud combineert de voordelen van de SAP S/4HANA-business suite met de schaalbaarheid, ontzorging, lage instapkosten en korte implementatieperiode van een SaaS-oplossing. Op die manier ondersteunt het organisaties in hun digitale transformatie.
 
Een overzicht van de vernieuwingen:
• Machine learning legt automatische koppelingen. De module S/4HANA Finance kan voortaan betalingen automatisch koppelen aan de juiste factuur. Zo besparen organisaties veel manuren en kunnen het inzetten voor bijvoorbeeld meer strategische en innovatieve doeleinden. De oplossing gebruikt hiervoor een machine-learningalgoritme.
Eenzelfde algoritme koppelt ook cv's aan openstaande vacatures, zodat hr-professionals hun recruitmentworkflow kunnen versnellen.
• End-to-end projectmanagement voor de dienstensector. S/4HANA Cloud voorziet nu in volledig end-to-end projectmanagement voor dienstverlenende organisaties.
• Directe analytics op iedere transactie. S/4HANA Cloud is voorzien van 'Intelligent ERP'. Dat betekent dat de oplossing op iedere businesstransactie direct contextuele analytics toepast. Daardoor weet de boardroom direct wanneer iets plaatsvindt en kunnen ze nog sneller actie ondernemen.
 
Innovatieroadmap
De nu beschikbaar gestelde functies vormen de eerste update in een reeks van vier updates die voor 2017 op de innovatieroadmap staan. SAP heeft ook details vrijgegeven over de drie updates die in het tweede, derde en vierde kwartaal van dit jaar volgen:
- Intelligente setup-wizards. De kwartaalupdates van SAP bevatten onder andere setup-wizards die dankzij machine learning en kunstmatige intelligentie steeds intelligenter worden.
- Betere integratie met andere cloudoplossingen. Ook bevatten deze updates verbeteringen voor cloudintegratie en verbeteringen in de API's voor een hechtere integratie met andere applicaties en legacysystemen.
- Internet of Things- en blockchain-ondersteuning.

Daarnaast komen nieuwe functies beschikbaar op het gebied van Internet of Things en blockchain, waarmee organisaties hun digitale businessmodellen kunnen versterken. Ten slotte gaan partners uitbreidingen ontwikkelingen voor specifieke verticals en verdere lokalisatie.
De focus die SAP legt op de SaaS-markt is niet voor niets. Onderzoeksbureau IDC becijferde dat deze markt jaarlijks met 17 procent groeit, tot 103,9 miljard dollar in 2020.
 
Nieuwe generatie cloud-ERP
Decennia geleden ontwikkelde SAP de eerste generatie ERP-oplossingen en werd daarin marktleider, vertelt Darren Roos, president van SAP S/4HANA Cloud. "Enkele jaren later waren we, samen met enkele andere cloudvendoren, een van de eerste met een cloudgebaseerde ERP-oplossing. Veel cloud ERP-vendoren blijven zich baseren op die oude architectuur, maar SAP heeft geïnvesteerd in de innovatie van een nieuwe generatie cloud-ERP. SAP S/4HANA is gebaseerd op de nieuwste architectuur en bevat de laatste technologische innovaties. Die innovaties in combinatie met SAP's expertise op het gebied van businessmanagement luidt een nieuw tijdperk in van intelligente ERP-oplossingen in de cloud.”

]]>
Thu, 09 Feb 2017 12:53:35 +0100 SAP S/4HANA Cloud krijgt intelligentie op basis van machine learning http:///item/819202/sap-s-hana-cloud-krijgt-intelligentie-op-basis-van-machine-learning.html&field=Foto1&rType=crop&height=165&width=165.jpg
Ambities op terrein open science in stroomversnelling http:///item/819201/ambities-op-terrein-open-science-in-stroomversnelling.html NWO overhandigt, samen met 9 andere partijen, het Nationaal Plan Open Science aan staatssecretaris Sander Dekker van Onderwijs, Cultuur en Wetenschap. Het plan is een volgende stap in het realiseren van vrije toegang tot alle wetenschappelijke artikelen en optimaal hergebruik van onderzoeksdata.

NWO is zeer actief op terrein van open access en datamanagement. Sinds 1 december 2015 moeten onderzoekers publicaties die voortkomen uit door NWO gefinancierd onderzoek direct openbaar toegankelijk – open access – maken. Ook onderzoeksdata die voortkomen uit NWO-onderzoek moeten optimaal vindbaar, toegankelijk, en herbruikbaar zijn voor andere onderzoekers. Daartoe heeft NWO vorig jaar in de gehele organisatie een datamanagementbeleid geïmplementeerd. Volgens NWO-voorzitter Stan Gielen leidt Open science tot een duurzamer onderzoeksproces en uiteindelijk tot snellere kennisontwikkeling. “NWO gaat nu onderzoeken hoe open science ook breder een plaats kan krijgen in de beoordeling van onderzoeksaanvragen. Daarbij zoeken we nadrukkelijk de aansluiting bij internationale ontwikkelingen.”

Nationaal Platform Open Science
Tegelijkertijd met de presentatie van het plan door de tien partijen NWO, VSNU, KNAW, Vereniging Hogescholen, KB, SURF, NFU, ZonMw, Promovendi Netwerk Nederland en GO FAIR, wordt het Nationaal Platform Open Science gelanceerd. Dit platform moet de komende jaren zorgen voor een gecoördineerde inzet voor open science in dialoog met de gehele onderzoeksgemeenschap. Met deelname aan het platform kan NWO haar ambities op het gebied van open science versneld en in samenhang met de activiteiten van andere organisaties realiseren. “Indien we open science echt mogelijk willen maken, dan vergt dat forse investeringen in infrastructuur om dit te kunnen realiseren. NWO wil graag een bijdrage leveren aan de strategische discussie hierover om daarmee haar missie waar te maken: het bevorderen van excellente wetenschap en het beschikbaar stellen van de resultaten hiervan aan de samenleving”, aldus Stan Gielen.

Internationale voortrekker
Nederland heeft open science de afgelopen jaren zowel nationaal als internationaal op de kaart gezet. Publiek gefinancierd onderzoek moet publiek toegankelijk zijn. Onder Nederlands voorzitterschap van Dekker hebben de Europese ministers voor Onderzoek en Innovatie unaniem besloten om vrije toegang tot alle wetenschappelijke artikelen als norm te hanteren in Europa en een optimaal hergebruik van onderzoeksdata na te streven. Het Nationaal Plan Open Science is de volgende stap om het in Nederland te realiseren.

Meer informatie

]]>
Thu, 09 Feb 2017 12:41:33 +0100 Ambities op terrein open science in stroomversnelling http:///item/819201/ambities-op-terrein-open-science-in-stroomversnelling.html&field=Foto1&rType=crop&height=165&width=165.jpg
Vernieuwde website Adept Events toont overzichtelijk aanbod evenementen http:///item/818724/vernieuwde-website-adept-events-toont-overzichtelijk-aanbod-evenementen.html Adept Events heeft haar website totaal vernieuwd, waardoor haar aanbod aan evenementen nog overzichtelijker is geworden. Adept Events organiseert seminars, workshops, expert meetings en congressen op het gebied van onder andere Business Intelligence, Datawarehousing en Data Management enerzijds en Software Engineering, Requirements en Business Analyse anderzijds.

Op de homepage van Adept Events is het door de heldere lay-out voor bezoekers nu zeer eenvoudig om een selectie te maken uit het aanbod. Op dynamische wijze worden de aangeboden seminars, evenementen of thema’s gegroepeerd en op chronologische volgorde geplaatst. Alle informatie over het gekozen evenement en de inschrijving wordt op een pagina gepresenteerd. Uniek is dat er bij de meeste evenementen een video gepresenteerd wordt, waarin de trainer in een interview uitleg geeft over zijn vakgebied en het aangeboden seminar.

Data Warehousing & Business Intelligence Summit
Met de workshops en seminars van Adept Events wordt één specifiek onderwerp door een gerenommeerde trainer/spreker behandeld in één of meerdere dagen. De workshops kenmerken zich door sterke interactie tussen trainer en cursist. Op de congressen treedt een keur van onafhankelijke sprekers op die hun sporen reeds hebben verdiend in het vakgebied.
Op 28 en 29 maart 2017 organiseert Adept Events in Amsterdam de jaarlijkse Data Warehousing & Business Intelligence Summit, waar diverse top-analisten en thought leaders aan professionals de laatste inzichten en trends zullen presenteren.

De door Adept Events georganiseerde evenementen zijn inhoudelijk verbonden aan de professionele IT-portals BI-Platform.nl en Release.nl.
Meer informatie: Adept Events

]]>
Wed, 08 Feb 2017 15:07:42 +0100 Vernieuwde website Adept Events toont overzichtelijk aanbod evenementen http:///item/818724/vernieuwde-website-adept-events-toont-overzichtelijk-aanbod-evenementen.html&field=Foto1&rType=crop&height=165&width=165.jpg
Enterprise Service Bus versnelt uitrol applicaties bij zorginstelling http:///item/817752/enterprise-service-bus-versnelt-uitrol-applicaties-bij-zorginstelling.html Bij de zorginstelling De Waerden in Heerhugowaard is het integratieplatform Ensemble van Intersystems succesvol ingezet voor het automatische berichtenverkeer rond de telefonische bereikbaarheidsdienst en het kasbeheer ten behoeve van cliëntengelden.

De Waerden is een zorginstelling voor mensen met WLZ-indicatie of een WMO-beschikking ’Begeleid wonen’. De organisatie biedt met 400 medewerkers 24 uur ondersteuning over een groot deel van Noord-Holland, vanuit locaties vanaf Texel tot en met Velsen.
Basis voor de IT-voorzieningen voor cliënten is het volledige IP-netwerk dat De Waerden op alle locaties in 2012 liet aanleggen. Op dit fundament realiseerde de instelling een veilige Enterprise Service Bus (ESB), een softwarematige aangestuurde transportlaag voor alle brondata binnen de organisatie. Die laag versnelt de digitale transformatie. Als de fysieke-, mobiele- én data-infrastructuur op orde zijn, dan is dat de ideale voedingsbodem voor de ontwikkeling van nieuwe toepassingen.

Koppeling
Een slimme koppeling (SOAP adapter) tussen een digitale telefoonautomaat (Alcatel VoIP), het personeelsinformatiesysteem (Beaufort) en het roosterplanningsysteem zorgt ervoor dat de telefooncentrale automatisch doorschakelt naar het 06-nummer van de ingeroosterde medewerker van de consultatiedienst. Onderling hebben die alle flexibiliteit om nummers te veranderen of elkaars diensten over te nemen. Via een iPad en het intranet laat een naam zich simpel wijzigen en vertalen naar een bericht aan de telefooncentrale met het corresponderende 06-nummer, afkomstig van de door de service desk bijgehouden lijst. De namen van de leidinggevenden op de roosterplanning komen automatisch uit Beaufort rollen. Wie in de consultatiedienst meedraait, heeft recht op een vergoeding. Ook die informatie wordt keurig bijgehouden en verwerkt in het roosterpakket. Ensemble software van InterSystems is het softwareplatform voor de ESB, die alle systemen voor de bedrijfsvoering binnen De Waerden verbindt.

Data-integriteit
De ESB garandeert data-integriteit bij de koppeling van applicaties zoals het HR-systeem Beaufort of het cliëntendossier PlanCare. Met een goed functionerende API (Application Interface) zoals die van de VoIP telefooncentrale, is een koppeling met de ESB eenvoudig te realiseren. Is een dergelijke API niet voorhanden, dan biedt een aparte import en export module van het bronsysteem, plus synchronisatie van data uitkomst.

Kostenbesparing
In Ensemble zijn verder de cliëntgegevens gekoppeld aan data uit ProActive, een applicatie voor het beheren van prepaid pinpassen van ABN AMRO. Cliënt- en pasnummer zijn daarmee aan elkaar verbonden. De Waerden houdt binnen de instelling geen kasgeld meer aan voor medewerkers en cliënten. Na het bepalen van het saldo op de pasjes wordt de informatie plus de transactiegegevens via CODA doorgesluisd naar de Stichting Cliëntengelden, die de budgetten van de cliënten beheert. De ESB splitst de data uit naar regels voor cliënten en regels voor De Waerden. Bovendien ondergaat de data op de ESB diverse bewerkingen zoals een verrijking met andere brondata, zodat CODA het geheel foutloos kan inlezen en verwerken in de verschillende administraties. Doordat Ensemble alle berichten logt, is data altijd te traceren. Met het complete proces, inclusief het afschaffen van kasgeld bespaart de instelling zeker 50 procent op de administratieve kosten.

SaaS
De tactische en strategische waarde van de ESB openbaart zich tevens naar de toekomst. Nieuwe toepassingen komen voornamelijk in de vorm van SaaS. Met Azure Active Directory krijgen de medewerkers een identiteit in de cloud. De koppeling met de bus automatiseert het proces van rechten toekennen aan personen op basis van hun rol binnen de organisatie volgens het model van role based access (rbac). De combinatie SaaS en de ESB biedt de flexibiliteit om gemakkelijk te wisselen van applicatie. Komt er een vraag naar een nieuwe applicatie, dan zit de oplossing in feite al in de bus.

]]>
Wed, 08 Feb 2017 14:00:00 +0100 Enterprise Service Bus versnelt uitrol applicaties bij zorginstelling http:///item/817752/enterprise-service-bus-versnelt-uitrol-applicaties-bij-zorginstelling.html&field=Foto1&rType=crop&height=165&width=165.jpg
Capgemini: slechts eenvijfde financiële wereld kan digitale inbraak detecteren http:///item/818652/capgemini-slechts-eenvijfde-financia-laquo-le-wereld-kan-digitale-inbraak-detecteren.html Banken en verzekeraars genieten een zeer hoog vertrouwen van consumenten als het gaat om de beveiliging van hun systemen. Zo'n 83 procent van de consumenten zegt op dit punt vertrouwen te hebben in financiële dienstverleners. Het sentiment onder financiële dienstverleners zélf is echter heel anders. Slechts een op de vijf bankiers (21 procent) is ervan overtuigd dat hun instelling in staat is een digitale inbraak te kunnen detecteren, laat staan zich er tegen te verdedigen.

Dit is de conclusie van het rapport ‘The Currency of Trust: Why Banks and Insurers Must Make Customer Data Safer and More Secure’, gepubliceerd door Capgemini’s Digital Transformation Institute. De studie is gehouden in acht landen onder 7.600 consumenten en meer dan 180 dataprivacy- en securityprofessionals uit de banken- en verzekeringssector. De onderzochte landen zijn Frankrijk, Duitsland, India, Nederland, Spanje, Zweden, het Verenigd Koninkrijk en de Verenigde Staten. De uitkomsten laten zien dat er een grote kloof is tussen het vertrouwen van het grote publiek in banken en de werkelijkheid.
Volgens Mike Turner, Global Cybersecurity Chief Operating Officer bij Capgemini, vertrouwen consumenten banken vanzelfsprekend met hun geld en gegevens. “Dit vertrouwen is gebaseerd op de onjuiste overtuiging dat financiële dienstverleners 100 procent veiligheid kunnen bieden. Terwijl de banken zich steeds verder ontwikkelen om soms zeer verfijnde cyberbedreigingen te bestrijden, is het bewustzijn van de gevaren van cybercriminaliteit onder het grote publiek nog laag."

GDPR
Jiang Zhiwei, Global Head of Financial Services, Insights & Data bij Capgemini, verwacht dat als de nieuwe Europese privacywetgeving de Global Data Protection Regulation (GDPR) wordt geïntroduceerd, alle inbreuken in korte tijd openbaar zullen worden. “Dat zal voor veel mensen een verrassing zijn. De introductie van de GDPR wetgeving volgend jaar is een uitstekende kans voor banken en verzekeraars om daadwerkelijk te transformeren tot de digitale forten die ze in de ogen van consumenten zijn."

Vertrouwen van vitaal belang
De meerderheid van de consumenten (65 procent) ziet het vertrouwen in dataprivacy en -beveiliging als een uiterst belangrijke factor bij de keuze van hun bank. Ondanks het belang dat zij hechten aan de beveiliging en verwerking van gevoelige financiële gegevens, lijken consumenten banken en verzekeraars meer instinctief te vertrouwen dan op rationele gronden. De kloof in de perceptie van de consument en de realiteit is wellicht het duidelijkst zichtbaar in het feit dat slechts 3% van de consumenten denkt dat hun eigen bank ooit is gehackt, terwijl in werkelijkheid een op de vier financiële instellingen een melding heeft gedaan van een hack.

Financiële dienstverleners uitgedaagd
Terwijl financiële instellingen, met name banken, grote investeringen doen in het beveiligen van hun systemen, stijgt het aantal veiligheidsincidenten nog steeds. De steeds veranderende aard van de dreiging verklaart wellicht waarom 71 procent van de organisaties geen evenwichtige securitystrategie heeft, ondanks de hoge investeringen.
De nieuwe Europese privacywetgeving treedt in mei 2018 in werking. Dit zal organisaties dwingen om datalekken binnen 72 uur openbaar te maken op straffe van hoge boetes. Hoewel het een EU-wet is, zal de verordening van toepassing zijn op alle bedrijven (al dan niet in de EU gevestigd) die persoonsgegevens van Europese burgers verwerken. De nieuwe wet zal naar verwachting daarom ook banken en verzekeraars in de VS, het Verenigd Koninkrijk en Azië raken. Hoewel invoering van de wet steeds dichterbij komt, zegt maar een derde (32 procent) van de ondervraagde managers dat hun organisatie sterke vorderingen heeft gemaakt bij de implementatie van de ontwerp-richtlijnen.
 
Vertrek klanten
Hoewel klanten hun bank of verzekeraar op gevoel vertrouwen met de beveiliging van gegevens, zal een vertrouwensbreuk wel gevolgen hebben. Driekwart van de consumenten (74 procent) zegt van financiële dienstverlener te willen wisselen wanneer een datalek zich voordoet. Van degenen die niettemin hun bank of verzekeraar trouw blijven als hun gegevens worden gecompromitteerd, zegt meer dan een kwart voorzichtig te zijn met verdere investeringen.

Onderzoeksmethode
Capgemini's Digital Transformation Institute voerde een enquête uit onder 7.600 consumenten in Frankrijk, Duitsland, India, Nederland, Spanje, Zweden, het Verenigd Koninkrijk en de Verenigde Staten. De vragen hebben betrekking op het beeld dat consumenten hebben van privacy en databescherming in de financiële sector. Onderzoekers spraken daarnaast met 183 senior dataprivacy- en security-experts in Frankrijk, Duitsland, India, Spanje, het Verenigd Koninkrijk en de Verenigde Staten die werkzaam zijn bij banken en verzekeraars met een mondiale omzet groter dan 500 miljoen dollar. Hierbij is vooral onderzocht hoe financiële instelingen onderwerpen als cybersecurity en gebruik van data aanpakken.

Meer informatie over het onderzoek van Capgemini.

]]>
Wed, 08 Feb 2017 12:42:27 +0100 Capgemini: slechts eenvijfde financiële wereld kan digitale inbraak detecteren http:///item/818652/capgemini-slechts-eenvijfde-financia-laquo-le-wereld-kan-digitale-inbraak-detecteren.html&field=Foto1&rType=crop&height=165&width=165.jpg
Talend benoemt IT-veteraan Nanci Caldwell tot lid Raad van Bestuur http:///item/818650/talend-benoemt-it-veteraan-nanci-caldwell-tot-lid-raad-van-bestuur.html Talend maakt bekend dat Nanci Caldwell is benoemd tot lid van de Raad van Bestuur. Caldwell beschikt over ruim twintig jaar internationale ervaring in de IT- en softwarebranche. Daarnaast brengt zij belangrijke marketing- en salesexpertise met zich mee.

Volgens CEO Mike Tuchen bij Talend vult Nanci Caldwell de Raad van Bestuur perfect aan. “Zij heeft veel ervaring opgedaan tijdens het aansturen van de marketing- en salesactiviteiten van internationale softwarebedrijven. Deze expertise is waardevol voor onze groei en het vergroten van onze klantenkring.”

Gewild bestuurslid
Caldwell was eerder executive vice president en chief marketing officer bij PeopleSoft Inc. Daarvoor was ze bijna twintig jaar actief bij Hewlett-Packard in hoge sales- en marketingfuncties in Canada, de Verenigde Staten en op wereldwijd niveau. Caldwell is daarnaast een bijzonder gewild bestuurslid. Ze heeft momenteel zitting in de Raad van Bestuur van CIBC, Citrix, Equinix en Donnelly Financial Solutions. Caldwell heeft ervaring met het geven van advies binnen alle aspecten van de bedrijfsstrategie. Ze is bekend met fusies en overnames, productrichting, de overstap van productgerichte naar klant- en oplossingsgerichte bedrijfsmodellen en de optimalisatie en uitbreiding van internationale merken.

Concurrentievoordeel
Nanci Caldwell: “In elke sector hebben organisaties van iedere omvang te maken met een explosieve gegevensgroei. Het vermogen om inzichten en concurrentievoordeel uit data te halen wordt steeds belangrijker. Het integratieplatform van Talend is uniek gepositioneerd om bedrijven te helpen om de kansen van transformatie te benutten. Ik kijk ernaar uit om met Mike en het hele team van Talend samen te werken in deze enerverende tijden.”

Beurs
Talend betrad in juli 2016 de beurs, waarmee het 91,6 miljoen dollar netto ophaalde. De open source oplossingen van het bedrijf helpen organisaties in diverse sectoren om inzichten te verkrijgen uit data en bedrijfsprocessen te versterken en automatiseren. In het derde kwartaal van 2016 zorgden de Big Data- en Integration Cloud-oplossingen voor een verdubbeling van de abonnementsomzet ten opzichte van dezelfde periode in het jaar daarvoor. Dit is al voor het zevende kwartaal op rij het geval.

]]>
Wed, 08 Feb 2017 12:12:18 +0100 Talend benoemt IT-veteraan Nanci Caldwell tot lid Raad van Bestuur http:///item/818650/talend-benoemt-it-veteraan-nanci-caldwell-tot-lid-raad-van-bestuur.html&field=Foto1&rType=crop&height=165&width=165.jpg
Mike Ferguson on the Enterprise Data Lake and Data as a Service http:///item/818240/mike-ferguson-on-the-enterprise-data-lake-and-data-as-a-service.html Mike Ferguson on the Enterprise Data Lake and Data as a Service. Mike also details the practical two day seminar on that topic that he runs for Adept Events in The Netherlands. More information can be found on www.adeptevents.nl/edl.

]]>
Tue, 07 Feb 2017 19:08:06 +0100 Mike Ferguson on the Enterprise Data Lake and Data as a Service http:///item/818240/mike-ferguson-on-the-enterprise-data-lake-and-data-as-a-service.html&field=Foto1&rType=crop&height=165&width=165.jpg
Christoph Balduck over Data privacy en databescherming http:///item/818217/christoph-balduck-over-data-privacy-en-databescherming.html Christoph Balduck over data privacy en databescherming en de GDPR workshop die wordt verzorgd door Adept Events. Vanaf mei 2018 dient elke organisatie zijn zaken op orde te hebben en te voldoen aan de Europese GDPR regelgeving. In deze hands-on workshop biedt Christoph een datamanagement framework om die problematiek succesvol aan te pakken. Meer informatie op www.adeptevents.nl/pri.

]]>
Tue, 07 Feb 2017 18:54:54 +0100 Christoph Balduck over Data privacy en databescherming http:///item/818217/christoph-balduck-over-data-privacy-en-databescherming.html&field=Foto1&rType=crop&height=165&width=165.jpg
Jan Henderyckx: Informatiestrategie 'call to action' http:///item/818216/jan-henderyckx-informatiestrategie-call-to-action.html Jan Henderyckx over Informatiestrategie, Governance en Master Data Management. Informatie wordt binnen steeds meer organisaties, klein en groot, gezien als strategisch "asset". Om die waarde van dat 'asset' te bewaken en te vergroten is een gedegen strategie met governance en datakwaliteit van levensbelang. Jan licht de twee seminars toe die afzonderlijk en ook in combinatie kunnen worden gevolgd bij Adept Events. Meer informatie vindt u op www.adeptevents.nl/ism.

]]>
Tue, 07 Feb 2017 18:42:48 +0100 Jan Henderyckx: Informatiestrategie 'call to action' http:///item/818216/jan-henderyckx-informatiestrategie-call-to-action.html&field=Foto1&rType=crop&height=165&width=165.jpg
Information Builders kondigt Analytics Accelerator partnerprogramma aan http:///item/818090/information-builders-kondigt-analytics-accelerator-partnerprogramma-aan.html Information Builders heeft haar partnerprogramma Analytics Accelerator gepresenteerd. Dit programma moet het voor system integrators en resellers gemakkelijker en lucratiever maken om WebFOCUS BI en analytics software van Information Builders in de markt te zetten. Information Builders is aanbieder op het gebied van Business Intelligence, Analytics, datakwaliteit en data-integratie.

Het Analytics Accelerator programma voorziet partijen in het verkoopkanaal van hogere en vastgestelde verkoopmarges bij de verkoop van het gehele portfolio WebFOCUS-producten.
Eerdere partnerprogramma’s betroffen alleen de verkoop van WebFOCUS Business User Edition.
Met het Analytics Accelerator programma worden nu ook WebFOCUS Application Edition en WebFOCUS Enterprise Edition toegevoegd.

Andere voordelen van het Analytics Accelerator partnerprogramma zijn onder andere:
Business planning en co-marketing;
Ondersteuning bij projectacquisitie;
Kortingsprogramma;
Ondersteuning door Information Builders sales- en serviceteams.

Meer informatie: Information Builders

]]>
Tue, 07 Feb 2017 13:39:59 +0100 Information Builders kondigt Analytics Accelerator partnerprogramma aan http:///item/818090/information-builders-kondigt-analytics-accelerator-partnerprogramma-aan.html&field=Foto1&rType=crop&height=165&width=165.jpg
Lex Pierik over datavisualisatie en Data Driven Storytelling http:///item/818067/lex-pierik-over-datavisualisatie-en-data-driven-storytelling.html Datavisualisatie en Data Driven Storytelling met Lex Pierik. Een korte toelichting op de workshop waarin Lex Pierik zaken behandelt als visualisatietheorieën, de juiste visualisatie, dashboard design. Onderdeel van de dag is een workshop data driven storytelling waarbij men zelf aan de slag gaat. Meer informatie over deze praktische sessie vindt u op www.adeptevents.nl/vis.

]]>
Tue, 07 Feb 2017 12:39:37 +0100 Lex Pierik over datavisualisatie en Data Driven Storytelling http:///item/818067/lex-pierik-over-datavisualisatie-en-data-driven-storytelling.html&field=Foto1&rType=crop&height=165&width=165.jpg
Alec Sharp on 'Business-oriented' Data Modelling http:///item/818003/alec-sharp-on-business-oriented-data-modelling.html Alec Sharp about his 'favorite topic', Data Modelling, and on the two data modelling courses that he teaches for Adept Events. The first course is entitled 'A Business-oriented approach to Data Modellling' and is a non-technical introduction to data modelling. This is followed by the 'Advanced Data Modelling' course which allows for more detail and complexity. More info can be found at www.adeptevents.nl.

]]>
Tue, 07 Feb 2017 11:18:49 +0100 Alec Sharp on 'Business-oriented' Data Modelling http:///item/818003/alec-sharp-on-business-oriented-data-modelling.html&field=Foto1&rType=crop&height=165&width=165.jpg
How to Make Dumbbell Charts in Tableau http:///item/817090/how-to-make-dumbbell-charts-in-tableau.html Tableau dumbbell charts, also known as DNA charts, are an alternative visualization choice for illustrating the change between two data points. Dumbbell charts get their slang name from their appearance, which look similar to weights, and sometimes strands of DNA when they are in a horizontal orientation.

I personally love that there is an outside-the-box chart type that isn’t named after a delicious food such as donuts or waffles. You may even say that dumbbell charts are a healthy alternative!

Names aside, this is another chart type that I find to be engaging, effective, and relatively easy to create in Tableau. This tutorial will illustrate how to make a dumbbell chart in Tableau in just a few steps.

Tableau dumbbell charts are actually dual-axis combination charts, where one of the axes have a mark type of circle and the other has a mark type of line. If you are unfamiliar with using two axes in Tableau, it may be helpful to read my post on my blog on dual-axis combination charts before reading further.

How to Make Dumbbell Charts in Tableau
For this tutorial, we will recreate this visualization which compares the year-over-year sales per sub-category in the sample Superstore data set.

01_Tableau-Sales-by-Sub-Category-Dumbbell-Chart.png


The first step to creating a dumbbell chart in Tableau is to create a dot plot with the measure and dimension you want to visualize. In this example, I will place the Sales measure from the sample Superstore data set onto the Columns shelf and the Sub-Category dimension onto the Rows shelf. This creates a bar chart showing sales by sub-category. You can easily convert the chart to a dot plot by changing the mark type from automatic to circle.

I will also filter the visualization to the last two years in the data set so that I have only two comparison points per sub-category, and also color the marks by year to distinguish which year is which. At this point, my view looks like this:


02_Tableau-Sales-by-Sub-Category-Dot-Plot.png


Note that this chart type can also be created with a vertical orientation by swapping the location of the fields on the Rows and Columns shelves, but we will stick with the horizontal orientation for this tutorial.

The second, and actually final, step is to create a second axis with the Sales measure and change its mark type to line. To turn this dot plot into a dual-axis combination chart, drag the Sales measure near the top of the chart directly across from the Sales axis on the bottom of the chart. When a dashed line appears, drop the measure on the view.

Alternatively, you can place a second occurrence of the Sales measure onto the Columns shelf, right-click on the second pill, and choose “dual axis." Ensure the axes always line up by right-clicking on the top axis and choosing “synchronize axis."

At this point, you have two sets of Marks cards (one for each occurrence of the Sales measure), and they can be edited independently. Navigate to the second set of Marks cards, change the mark type to line, then drag the YEAR(Order Date) dimension on the Marks shelf to the Path Marks card.


03_Tableau-Sales-by-Sub-Category-Dumbbell-Chart-Before-Formatting.png


That’s all it takes to get to a nice-looking dumbbell chart in Tableau. From here, you can format the size and color of the marks and hide the top axis by right-clicking on it and deselecting “show header."

]]>
Tue, 07 Feb 2017 00:07:00 +0100 How to Make Dumbbell Charts in Tableau http:///item/817090/how-to-make-dumbbell-charts-in-tableau.html&field=Foto1&rType=crop&height=165&width=165.jpg
GoDataDriven en SAS organiseren Dutch Data Science Week http:///item/817628/godatadriven-en-sas-organiseren-dutch-data-science-week.html Van 6 tot 9 juni vindt de Dutch Data Science Week plaats op diverse plaatsen in Nederland. Het doel van Dutch Data Science Week is om data scientists en organisaties een platform te bieden voor innovatie, om te leren, te inspireren en te netwerken.

De week bestaat uit een groot aantal initiatieven, waaronder conferenties, challenges, trainingen, workshops, diners, netwerkbijeenkomsten en meet-ups. Inclusief Data Donderdag en SAS Forum. In vier dagen tijd vinden 16 events plaats in Amsterdam, Nieuwegein en Huizen.

De Dutch Data Science Week is een initiatief van SAS Nederland en GoDataDriven in nauwe samenwerking met diverse deelnemers en sponsoren.
Kijk hier voor meer informatie en het programma.

]]>
Tue, 07 Feb 2017 00:04:00 +0100 GoDataDriven en SAS organiseren Dutch Data Science Week http:///item/817628/godatadriven-en-sas-organiseren-dutch-data-science-week.html&field=Foto1&rType=crop&height=165&width=165.jpg
CBS en gemeente Groningen presenteren derde Urban Data Center http:///item/817626/cbs-en-gemeente-groningen-presenteren-derde-urban-data-center.html CBS en de gemeente Groningen gaan gezamenlijk data verzamelen, verwerken en presenteren in een nieuw samenwerkingsverband: het Urban Data Center Regio Groningen. Daarvoor ondertekenden zij op 31 januari in Groningen een overeenkomst. Dit nieuwe Urban Data Center kan data effectiever inzetten voor de samenleving. De overheid, burgers, bedrijven en instellingen krijgen zo meer inzicht in wat er feitelijk in hun stad en regio gebeurt, onder andere op het gebied van veiligheid, gezondheid, mobiliteit, onderwijs, duurzaamheid en economische ontwikkeling.

Groningen is bezig zich te ontwikkelen tot een ‘Smart Urban Region’: een stad die samen met de regio slim gebruik maakt van de kracht van technologie en data. CBS levert kennis over onder meer het koppelen van nieuwe (big) databronnen aan data van de gemeente Groningen en CBS-data. Binnen het CBS UDC Regio Groningen zullen daartoe onderzoekers van CBS samenwerken met onderzoekers van de afdeling Onderzoek & Statistiek (O&S) van de gemeente Groningen.

Derde stad
Op dit moment werkt CBS al met twee gemeenten samen in een Urban Data Center: Eindhoven en Heerlen. Groningen is de derde stad die op deze ontwikkeling aansluit. Programmadirecteur Robert Hermans van CBS: “We hebben met de statistische onderzoekers van de gemeente Groningen twee voorbereidende workshops gehad. Die waren positief en constructief. De eerste workshop was vooral een wederzijdse verkenning en informatie-uitwisseling. Tijdens de tweede workshop hebben we de inhoudelijke thema’s bij de kop gepakt. De concrete uitwerking heeft in de afgelopen weken plaatsgevonden door leden van een gezamenlijke stuurgroep.”

Vliegende start
Opvallend bij het Urban Data Center van Groningen is volgens Hermans dat nadrukkelijk de regio rondom Groningen bij dit project wordt betrokken. Dat is volgens Hermans een groot aantal gemeenten en het gaat over de provinciegrenzen heen. Hij is erg te spreken over de kwaliteit van het statistiek- en onderzoeksbureau van de gemeente Groningen. “Hier werken ongeveer 25 mensen met een grote expertise en zeer gekwalificeerd op het gebied van statistiek en onderzoek. Daardoor kunnen we samen een vliegende start maken. Het biedt de kans om gelijk meer complexe thema’s op te pakken.”

Benchmarken
Bert Popken is concerndirecteur van de gemeente Groningen. Zijn gemeente besloot al snel aan te sluiten op het CBS Urban Data Center. “Er gebeurt veel op het gebied van urban en big data. Het is niet alleen maar iets voor whizzkids, maar voor grote groepen in de samenleving. De overheid stelt ook steeds vaker data beschikbaar. Groningen zelf heeft een eigen onderzoeksbureau met veel data. De CBS-data zijn daarop een aanvulling.” Popken hoopt dat zijn gemeente aan de hand van deze data niet alleen nieuw beleid kan ontwikkelen, maar ook kan benchmarken met andere gemeenten in Nederland.

Kracht van technologie en data
Het Urban Data Center voor de gemeente Groningen zal midden in de stad gevestigd worden, aan de voet van de bekende Martinitoren. Daar zullen onderzoekers van CBS met collega’s van de afdeling Statistiek en Onderzoek van de gemeente Groningen concrete projecten oppakken. Het CBS Urban Data Center Regio Groningen is een experiment van 1 jaar. Het zal niet alleen werk verrichten voor de stad Groningen, maar ook voor de omliggende gemeenten. Daarnaast wil Groningen ook andere partijen erbij betrekken, bijvoorbeeld de Rijksuniversiteit Groningen, Hanzehogeschool, IBM en TNO. “Groningen is de derde ICT-stad van Nederland. Wij willen samen met de regio slim gebruik maken van de kracht van technologie en data. Aan de hand daarvan kijken we bijvoorbeeld hoe we nieuwe bedrijven kunnen linken aan het onderwijs in onze stad en de regio,” aldus Popken.

CBS is met verschillende andere gemeenten in gesprek over het openen van een Urban Data Center. Het eerstvolgende opent op 15 maart in Zwolle.

]]>
Tue, 07 Feb 2017 00:02:00 +0100 CBS en gemeente Groningen presenteren derde Urban Data Center http:///item/817626/cbs-en-gemeente-groningen-presenteren-derde-urban-data-center.html&field=Foto1&rType=crop&height=165&width=165.jpg
Oracle Academy, BiASC en NASC gaan samenwerken in onderwijs http:///item/817562/oracle-academy-biasc-en-nasc-gaan-samenwerken-in-onderwijs.html Op 3 februari hebben Oracle Academy, BiASC en NASC een nieuwe vorm van samenwerking bekrachtigd over de gehele Benelux. Het doel van de samenwerking is om de niet-commerciële onderwijswereld te voorzien van vernieuwende ideeën en werkmethoden.

Volgens Yvan Rooseleer, docent en onderwijstechnoloog van het Belgische BiASC, verandert het sociale, culturele en economische leven door de informatie- en communicatietechnologie en dat brengt gigantische opportuniteiten en disrupties mee. "BiASC en NASC spelen in de Benelux de rol van go-between tussen Oracle en scholen en niet-commerciële opleidingsinstituten. In de eerste fase gaat de interesse naar Java & SQL programmering, data science, cloud en informatiemanagement. Alle sectoren en niet in het minst het onderwijs en opleidingen zijn sterk betroffen door de evolutie van de laatste jaren. Alle onderwijsactoren, leerlingen, studenten, leraren en docenten hebben behoefte aan richtinggevende ondersteuning door toonaangevende bedrijven en organisaties."

Partnerovereenkomst
Senior Director EMEA Jane Richardson van Oracle Academy is blij vanuit Oracle Academy studenten te kunnen inspireren en betrekken bij informatica. "Eerder dit jaar heeft Oracle een belangrijke steun toegezegd aan de Digital Skills and Jobs Coalition, een multi-stakeholder partnership om vaardigheden op het gebied van informatica en coderen op alle niveaus binnen de Europese beroepsbevolking te versterken. De partnerovereenkomst bevestigt onze toezegging om digitaal onderwijs te bevorderen en diversiteit in de technologie gebieden in Europa te vergroten."

NASC
De Stichting NASC (Netherlands Academy Support Centre) is in Arnhem gevestigd en heeft als doelstelling om studenten op het gebied van ICT voor te bereiden op hun professionele toekomst. Het zet zich in voor uitbreiding van het ICT-opleidingsaanbod, het vertalen van lesmateriaal, verzorgen van docenten trainingen en het bevorderen van de samenwerking tussen de verschillende partijen.

]]>
Mon, 06 Feb 2017 15:38:25 +0100 Oracle Academy, BiASC en NASC gaan samenwerken in onderwijs http:///item/817562/oracle-academy-biasc-en-nasc-gaan-samenwerken-in-onderwijs.html&field=Foto1&rType=crop&height=165&width=165.jpg
Chief Data Officer: een opkomende rol binnen organisaties? http:///item/816919/chief-data-officer-een-opkomende-rol-binnen-organisaties.html Binnen het digitale domein van organisaties lijkt de behoefte te groeien naar gespecialiseerde managers. De CDO (Chief Data Officer) is zo'n expert, die meestal als de rechterhand van de CIO functioneert. Waar de CIO zich vooral richt op de functionele informatievoorziening, houdt de CDO zich bezig met het inhoudelijke gebruik van data en het beheersen van risico's. Maar is dat genoeg om de aanstelling van een volledig nieuwe functionaris te rechtvaardigen?

Kijkend naar Nederland, dan blijkt het aantal professionals met de titel CDO nog heel beperkt. Circa 400 mensen zijn als CDO actief, een getal dat enigszins vertekend is door het feit dat de afkorting ook wordt gebruikt door Chief Digital Officers. Deze functie heeft wel raakvlakken met de Chief Data Officer, maar bevindt zich meer op het kruispunt van strategie, marketing, technologie en innovatie. Dit verschil daargelaten, denk ik dat de CDO, ofwel een manager op C-niveau die zich puur richt op het gebruik van data binnen organisaties, steeds belangrijker gaat worden. Het datavolume groeit exponentieel, en er moet daarom iemand zijn die zich zowel richt op het waarde onttrekken aan die data, als het beheersen van de risico’s, bijvoorbeeld in het geval van datalekken.

Groeiende rol van de CDO
Bij multinationals, maar bijvoorbeeld ook bij grote organisaties in Nederland, is de CDO de afgelopen jaren steeds meer een mainstream rol geworden. Met name in de financiële sector en de gezondheidszorg, waar met zeer veel privacygevoelige data gewerkt wordt, blijkt de meerwaarde onomstotelijk. Die trend zal vermoedelijk versnellen in 2017, omdat organisaties een CDO nodig hebben om hun datasilo’s te verenigen. Er is steeds meer behoefte aan een gestandaardiseerde methode, waarmee iedereen binnen de organisatie in staat is om binnen dezelfde structuur met data te werken.

Die noodzaak ligt enerzijds in de nieuwe wettelijke rapportagevereisten, bijvoorbeeld voor de GDPR (General Data Protection Regulation), die in mei 2018 van kracht wordt. Maar een dergelijke evolutie van werken met data is ook noodzakelijk om voor de groei van organisaties. Data-analytics kan bijvoorbeeld een belangrijk concurrentievoordeel opleveren, zeker als dit gebeurt met een robuust platform dat een uniform inzicht geeft in alle bedrijfsdata. Een analytics-platform is tegenwoordig eigenlijk geen nice-to-have meer, maar een must-have. Daardoor is het uiterst belangrijk dat er een rol wordt gecreëerd die verantwoordelijk draagt voor de algehele datastrategie. Dit is kritisch voor het bedrijfssucces.  

Bedrijfsculturele uitdagingen
De nieuwe manier van omgaan met bedrijfsdata die de CDO introduceert, komt helaas niet zonder uitdagingen. De grootste is waarschijnlijk de bestaande bedrijfscultuur. Als de CDO echt succesvol wil zijn in deze rol, is er namelijk een organisatorische verandering nodig. Afdelingen moeten de ​​controle over hun data overdragen aan de CDO, die vervolgens de centrale eigenaar wordt. Deze gedragsverandering is noodzakelijk om ervoor te zorgen dat alle afdelingen met dezelfde gegevens werken, om samen het verhaal van de organisatie te vertellen. De impact van deze verandering mag niet onderschat worden. Binnen veel bedrijven gebruiken afdelingen hun eigen methodes om met bedrijfsdata te werken. Denk bijvoorbeeld aan Excel-spreadsheets of cloud- en desktop-gebaseerde analysesoftware. Deze systemen worden vaak niet centraal beheerd, en staan los van alle andere BI-software of analyse-tools. Het zijn datasilo’s, waarvan soms moeilijk te achterhalen is of ze wel de meest actuele en juiste informatie bevatten.

Een centraal systeem dat toegang geeft tot alle bedrijfsdata, en wordt beheerd door de CDO, is dus noodzakelijk. Maar om deze gedragsverandering succesvol te introduceren, zal het management het eerst eens moeten worden over een transparante organisatiestructuur en een duidelijk omschreven rol voor de CDO. Alleen dan kan hij voor de hele organisatie werken, en beter begrijpen hoe gegevens gebruikt kunnen worden om zakelijke doelstellingen te halen.
 
Vervangt de CDO de CIO?
Alles wat met technologie te maken heeft is continu in ontwikkeling. Hetzelfde geldt voor de rollen van de CDO en CIO. Het lijkt echter niet aannemelijk dat een van de beide rollen de ander zal gaan vervangen. Het volume aan data binnen organisaties groeit, maar ook het inhoudelijke gebruik wordt steeds diverser. Aangezien dit direct aansluit op het werkveld van de CDO, is het veel logischer dat de positie van de CIO's verschuift naar de rol van facilitator. Waar hij de verantwoordelijk draagt voor de IT-infrastructuur binnen een organisatie, krijgt de CDO een cruciale rol als uitvoerder van de data-analysestrategie. Hij wordt verantwoordelijk voor het nastreven van de algemene zakelijke doelstellingen van de organisatie. Het zijn dus duidelijk functioneel gescheiden rollen. Toch is er wel degelijk een goede kans dat deze twee rollen een partnership kunnen aangaan om gezamenlijk alle aspecten van data-gerelateerde initiatieven van een organisatie te realiseren. Een ding is helder: elke organisatie die een serieuze datastrategie wil volgen, zal serieus moeten overwegen om een CDO aan te stellen.

]]>
Mon, 06 Feb 2017 09:00:00 +0100 Chief Data Officer: een opkomende rol binnen organisaties? http:///item/816919/chief-data-officer-een-opkomende-rol-binnen-organisaties.html&field=Foto1&rType=crop&height=165&width=165.jpg
Joblift analyseert vacaturemarkt voor big data-experts http:///item/817045/joblift-analyseert-vacaturemarkt-voor-big-data-experts.html Volgens Joblift was 2016 het jaar waarin big data van hype in het nieuwe normaal overging. Nu big data de hype voorbij is rijst de vraag of bedrijven sterke interesse behouden, of dat privacy-controverses en het besef dat big data geen panacee is ervoor zorgen dat het enthousiasme alweer wegebt. Om hierachter te komen analyseerde metabanenzoekmachine Joblift de ontwikkelingen op de Nederlandse vacaturemarkt voor big data-specialisten gedurende de afgelopen drie jaar.

Uit de resultaten van Joblift blijkt dat het vacatureaanbod voor big data-specialisten nog relatief klein is, maar 3,5 keer sneller groeit als het gehele aanbod van ICT-vacatures. Een onderlinge vergelijking van de afgelopen drie jaren toont echter ook sterke schommelingen in de groeipercentages. Het zijn bij lange na niet alleen grote bedrijven die in big data investeren: 52 procent van de vacatures werd geplaatst door kleine of middelgrote bedrijven.

Groei fluctueert sterk
In de periode tussen januari 2014 en december 2016 werden er in Nederland 5.468 vacatures voor big data-specialisten uitgeschreven. Op een totaalaantal van bijna 600.000 nieuwe ICT-banen is dit slechts 0,9 procent van het aantal ICT-vacatures, maar het aanbod voor big data-posities groeide de afgelopen drie jaar met een maandelijks gemiddelde van 6,2 procent aanzienlijk sneller dan de vacaturemarkt voor alle ICT-beroepen, die met gemiddeld 1,7 procent groeide. Hier moet bij aangetekend worden dat de groei de afgelopen drie jaar sterk fluctueerde: was deze in 2014 nog slechts 1,7 procent, daar explodeerde de groei het jaar daarop meteen gemiddelde van 10,2 procent per maand. Afgelopen jaar liep de groei terug naar gemiddeld 5,8 procent.

Zakelijke dienstverlening
De sectoren met de grootste vraag naar big data-specialisten zijn de ICT-sector met 39 procent van de vacatures en de zakelijke dienstverlening met 13,5 procent van de vacatures. Ook de retailsector heeft met 11,2 procent een relatief groot aandeel in het big data vacatureaanbod. Opvallend is dat de gezondheidszorg, ondanks de grote potentie die velen in die toepassing van big data binnen de sector zien, slechts 1,2 procent van het vacatureaanbod voor haar rekening neemt. Hoewel uit een recent rapport van de Kamer van Koophandel en de Jheronimus Academy of Data Science blijkt dat MKB’ers nog niet echt warmlopen voor big data is met 52 procent een verassend hoog percentage van het vacatureaanbod afkomstig van ondernemingen uit het MKB. Met 60 procent ligt het percentage van de gehele ICT-vacaturemarkt hoger, maar het idee dat het enkel de grote bedrijven zijn die in big data investeren wordt hiermee niet bevestigt.

Overheid zet in op big data
ICT-dienstverlener Ordina was de afgelopen drie jaar met 102 vacatures het hardst opzoek naar big data-specialisten. Een gedeelde tweede plaats is er met 63 vacatures voor CGI en KPN. Opvallend is het hoge aantal overheidsvacatures voor big data-banen. Gemeenten en de Rijksoverheid schreven samen een totaal van 178 vacatures uit. Het grootste deel van de vacatures is overduidelijk in de Randstad te vinden: maar liefst 76,2 procent werd in Noord- en Zuid-Holland of Utrecht uitgeschreven. Met 10,5 procent staat Noord-Brabant op de vierde plaats. Met 1.385 vacatures is Amsterdam duidelijk big data-koploper, gevolgd door Utrecht (519 vacatures) en Den Haag (377 vacatures). De groei van de afgelopen jaren bevestigt het positieve beeld over de carrièrekansen van big data-specialisten. De sterke fluctuatie kan er echter ook op wijzen dat het enthousiasme na de hype alweer afneemt, of dat de pijlen sterker op de volgende veelbelovende technologieën worden gericht.

Meer informatie: Joblift

]]>
Mon, 06 Feb 2017 00:03:00 +0100 Joblift analyseert vacaturemarkt voor big data-experts http:///item/817045/joblift-analyseert-vacaturemarkt-voor-big-data-experts.html&field=Foto1&rType=crop&height=165&width=165.jpg
Dan Miller benoemd tot Senior Vice President Sales bij Tableau http:///item/817067/dan-miller-benoemd-tot-senior-vice-president-sales-bij-tableau.html Tableau heeft Dan Miller benoemd tot Executive Vice President of Worldwide Field Sales, Services & Support. In deze functie zal Miller de verantwoording krijgen voor Tableau's wereldwijde salesorganisatie en ondersteuning van het klantenbestand.

Dan Miller heeft meer dan dertig jaar saleservaring in de ICT-bedrijfstak. Hij komt van Oracle, waar hij verantwoordelijk was voor de wereldwijde marktstrategie en operations voor de ISV/OEM- en Java-markten. Daarvoor heeft hij managementfuncties vervuld bij Juniper en Sun, waar hij bijna twintig jaar gewerkt heeft.
Bij Sun leidde Miller als Senior Vice President Global Systems and Storage de server- en storageverkoop en was hij drie jaar President van Sun Microsystems Japan.
Dan Miller is in bedrijfskunde afgestudeerd aan de Universiteit van Colorado.

]]>
Sun, 05 Feb 2017 16:29:19 +0100 Dan Miller benoemd tot Senior Vice President Sales bij Tableau http:///item/817067/dan-miller-benoemd-tot-senior-vice-president-sales-bij-tableau.html&field=Foto1&rType=crop&height=165&width=165.jpg
Software AG Digital Business Platform beschikbaar op Google Cloud http:///item/815660/software-ag-digital-business-platform-beschikbaar-op-google-cloud.html Software AG gaat een samenwerking aan met het Google Cloud Platform en stelt hier het webMethods Hybrid Integration Platform direct beschikbaar.

Volgens Wilfred Harbers, Director Solutions bij Software AG Benelux, zorgt het partnerschap tussen Software AG en het Google Cloud Platform ervoor dat enterprise-klanten op een veilige manier van on-premise over kunnen gaan naar een open, veilige en toekomstbestendige cloud, gebruikmakend van het webMethods Hybrid Integration Platform. “Door onze innige samenwerking met Google kunnen we ondernemingen beter helpen bij het maken van de overstap naar de cloud.”

CTO Wolfram Jost bij Software AG, geeft aan: “Bedrijven hebben Hybrid Integration nodig omdat het zowel on-premise als cloud-modellen ondersteunt. Door een afzonderlijke infrastructuur voor cloud-integratie te creëren, ontstaat er een extra informatiesilo en worden de voordelen van cloud-adoptie gereduceerd. Met het Google Cloud Platform breiden we de beschikbare cloud-opties uit voor onze klanten, om silo-integratie juist te voorkomen.”
Als gevolg van de samenwerking kunnen klanten van Software AG nu het Google Cloud Platform gebruiken om hun integratie-infrastructuur te laten draaien.

Software AG’s webMethods Hybrid Integration Platform werd onlangs uitgeroepen als leader van de ‘leveranciers die er het meest toe doen’ in het rapport ‘The Forrester Wave: Hybrid Integration for Enterprises, Q4 2016.’
Meer informatie: Software AG

]]>
Fri, 03 Feb 2017 00:58:43 +0100 Software AG Digital Business Platform beschikbaar op Google Cloud http:///item/815660/software-ag-digital-business-platform-beschikbaar-op-google-cloud.html&field=Foto1&rType=crop&height=165&width=165.jpg
You will only see it when you get it http:///item/815414/you-will-only-see-it-when-you-get-it.html In memory of Johan Cruijff who passed away last year, I would like to project this statement on the data in your company. Data, the new oil, is of great importance, according to a growing group of managers. But do we really get it? Do we understand the consequence of saying that data is important. What does one mean with data exactly?

Let’s first unravel some types of data that we encounter. We can talk about:
• the data that is in your systems (like sales orders, financial data),
• the quality of that data (e.g. are all fields populated properly),
• the definitions of the data (a sales order number is numeric and 10 positions),
• the meaning of terms (a customer is a person or organization that has purchased at least one product),
• the governance of your data (who is accountable for the right definitions),
• the systems, servers and software that are in use,
• Big data, Master data, Reference data,
• management information,
• reports and what is on these reports etc. etc.  

It is a long list of data assets in various appearances. So if we say that data is important for our company, what exactly do we mean? What is the impact of this?

If you think about it a little longer you can wonder what you already know of your data assets. Is it clear for everyone or is it in the heads of a few persons? What we see in practice is that the latter is the case. Here lies an opportunity for improval because all these various data assets can cause problems for an organization. For example if data quality is not on the right level, if there is no consensus on the meaning of terms, if we don´t know where data is stored you can be faced with unexpected troubles.

In other words all or at least most definitions of these data assets are of importance. Not for nothing a growing number of companies assign Chief Data Officers as member of the management team to get in control of their data (assets). Nevertheless most organizations don’t have complete control over their data assets yet. The question that we should ask ourselves is:

Do we know what we don’t know about our data? And is that a problem?

It is a fact that the better educated we are the more we are aware of all the things we don’t know. The better we know our data assets, the greater the awareness will be that there is a lot to learn about our data.

We are convinced that you will only see it when you get it. What is your opinion?

Erik Schaap is Data Quality & Data Governance specialist at IntoDQ.

]]>
Thu, 02 Feb 2017 13:18:11 +0100 You will only see it when you get it http:///item/815414/you-will-only-see-it-when-you-get-it.html&field=Foto1&rType=crop&height=165&width=165.jpg
Information Builders is Platina sponsor van DW&BI Summit 2017 http:///item/814991/information-builders-is-platina-sponsor-van-dwenbi-summit.html Information Builders is Platina sponsor van de Datawarehousing & Business Intelligence Summit die op 28 en 29 maart 2017 in het Mercure Hotel Amsterdam plaats vindt.

Information Builders is leverancier van oplossingen op het gebied van Business Intelligence, analytics, data-integratie en datakwaliteit, die klanten in staat stellen hun prestaties en innovatief vermogen te verbeteren en meer waarde te genereren. Information Builders heeft een actief klantenbestand met ruim 12.000 grootschalige installaties bij meer dan 8.000 organisaties.
Information Builders is opgericht in 1975 en een van de grootste private softwarebedrijven. Het hoofdkantoor is te vinden boven Madison Square Garden in New York en het bedrijf is actief vanuit meer dan 60 vestigingen in de hele wereld.

Uitgebreid programma
De Datawarehousing & Business Intelligence Summit vindt plaats op 28 en 29 maart 2017 in het Mercure Hotel Amsterdam. De DW&BI Summit biedt net als voorgaande jaren weer een uitgebreid tweedaags programma met lezingen door sprekers uit het Business Intelligence-vakgebied als Mark Madsen, Pieter den Hamer, Erik Fransen, Kishan Shri, Rick van der Lans, William McKnight, Jos Kuiper, Rutger Rienks en Bart Baesens. Onderwerpen die aan bod zullen komen zijn onder andere Fast Data, Data Lakes, Datavirtualisatie, Analytics, Logical Datawarehouse, Data Vault en nog veel meer. Kijk hier voor het volledige programma.

Meer informatie op de website van de DW&BI Summit 2017.
Meer informatie over Information Builders

]]>
Wed, 01 Feb 2017 17:28:47 +0100 Information Builders is Platina sponsor van DW&BI Summit 2017 http:///item/814991/information-builders-is-platina-sponsor-van-dwenbi-summit.html&field=Foto1&rType=crop&height=165&width=165.jpg
Collibra haalt 50 miljoen dollar investeringskapitaal op http:///item/814559/collibra-haalt-miljoen-dollar-investeringskapitaal-op.html Het Belgisch-Amerikaanse softwarebedrijf Collibra heeft 50 miljoen dollar opgehaald in een Series C kapitaalronde. Een van de nieuwe investeerders is Iconiq Capital uit San Francisco, dat onder meer een deel van het vermogen van Facebook-oprichter en miljardair Mark Zuckerberg beheert.

Collibra heeft haar oorsprong binnen de Vrije Universiteit Brussel en is gespecialiseerd in software voor data governance. Het bedrijf heeft kantoren in Brussel, Wroclaw, Londen en New York, meldt Knack en kan onder meer de grootste banken ter wereld tot haar klanten rekenen. Gartner heeft Collibra aangemerkt als leader in het August 2016 Gartner Magic Quadrant for Metadata Management Solutions. Forrester heeft Collibra erkend als leader in het rapport Forrester Wave: Data Governance Stewardship Applications 2016.

Meer informatie: Collibra

]]>
Wed, 01 Feb 2017 00:56:02 +0100 Collibra haalt 50 miljoen dollar investeringskapitaal op http:///item/814559/collibra-haalt-miljoen-dollar-investeringskapitaal-op.html&field=Foto1&rType=crop&height=165&width=165.jpg
Onderzoek GDMA: Zonder data geen effectieve marketing http:///item/814390/onderzoek-gdma-zonder-data-geen-effectieve-marketing.html Effectieve marketing wordt gedreven door data. Dat laat de nieuwste editie van de jaarlijkse Global Review of Data-Driven Marketing and Advertising zien. Data heeft zich ontwikkeld tot de spil van marketing, advertising en productontwikkeling en helpt organisaties beter in te spelen op de behoeften van hun klanten.

Het onderzoek is in achttien landen uitgevoerd in opdracht van GDMA, de internationale brancheorganisatie voor marketing en data waarvan DDMA de Nederlandse tak vormt. 3.283 marketing- en technologiebeslissers van ‘s werelds grootste merken, bedrijven, leveranciers en bureaus zijn door Winterberry Group ondervraagd naar de rol van data in organisaties.

De belangrijkste conclusies:
* Klant centraal dankzij inzet data. 89,6 procent van de respondenten geeft aan dat de toepassing van datagedreven marketing voornamelijk is gericht op het verbeteren van de klantervaring. Bedrijven investeren het meest in het onderhouden van klantdatabases, met als doel het verbeteren van de dienstverlening en het relevanter maken van marketinguitingen. Negen op de tien beslissers geeft daarbij aan dat de prestaties op de belangrijkste communicatiekanalen – gemeten naar onder meer klanttevredenheid – zijn verbeterd.
* Data onmisbaar onderdeel van marketing. Het belang van data groeit. 79,6 procent van de respondenten geeft aan dat data een onmisbaar onderdeel is van hun marketingactiviteiten. Vorig jaar lag dat percentage nog op 59,3 procent.
* Investeringen in data blijven groeien. Meer dan de helft van de respondenten geeft aan dat de uitgaven aan datagedreven marketing en advertising in 2016 gestegen zijn ten opzichte van het jaar ervoor. Bij 35,8 procent zijn de uitgaven gelijk gebleven. Net als in de afgelopen twee jaar zat de grootste stijging in de digitale kanalen en de bijbehorende functies.
* Verbeteringen vooral nodig op technologisch en organisatorisch vlak. Om nog meer waarde te halen uit datagedreven inspanningen, is volgens respondenten een betere integratie tussen bestaande marketing- en advertising-technologieën vereist. Daarnaast zien ze vooral veel verbeteringsmogelijkheden in de interne organisatieprocessen. Er is vaak wel de juiste expertise in huis, maar een verouderde manier van werken lijkt innovatie in de weg te zitten.

Focus op consumentenvertrouwen
Directeur Diana Janssen van brancheorganisatie voor data en marketing DDMA meent dat nieuwe technologieën een grote impact hebben op de manier waarop consumenten met merken omgaan. “Slimme inzet van data helpt bedrijven om op de veranderende verwachtingen van hun doelgroep in te spelen. Steeds meer board members zien daarbij het belang en de waarde van data in en dat is een positief teken. Nu steeds meer organisaties persoonlijke gegevens verwerken, hebben consumenten behoefte aan transparantie en willen ze terecht weten of hun informatie goed beschermd is. Vertrouwen moet – en zal – dan ook centraal komen te staan in de bedrijfsstrategie. Data verwerken zonder de belangen en de wensen van de klant in het achterhoofd te houden heeft geen zin.” Managing director Jonathan Marquelies bij Winterberry Group voegt toe: “Na drie jaar onderzoek kunnen we inmiddels met zekerheid zeggen dat een datagedreven aanpak verder gaat dan alleen digital of direct marketing. Data vormt de kern van de groeistrategie van organisaties over de hele wereld en helpt ze om beslissingen te nemen over marketing, productontwikkeling en andere investeringsvraagstukken.”

De Global Review of Data-Driven Marketing and Advertising is tot stand gekomen met financiële steun van MediaMath en ondersteuning van GDMA-leden van over de hele wereld, waaronder DDMA in Nederland. Bekijk hier het volledige onderzoek.

]]>
Wed, 01 Feb 2017 00:07:00 +0100 Onderzoek GDMA: Zonder data geen effectieve marketing http:///item/814390/onderzoek-gdma-zonder-data-geen-effectieve-marketing.html&field=Foto1&rType=crop&height=165&width=165.jpg
Subsidie datagedreven onderzoek naar Big Data en gezonde leefstijl http:///item/814389/subsidie-datagedreven-onderzoek-naar-big-data-en-gezonde-leefstijl.html Twee onderzoeken op het gebied van big data, gezondheid en sport waarbij de Hogeschool van Amsterdam (HvA) partner is, zijn gehonoreerd door de NWO (Nederlandse Organisatie voor Wetenschappelijk Onderzoek). In beide projecten wordt de bijdrage onderzocht die digitale middelen en apps kunnen spelen bij het stimuleren van een actieve levensstijl, meldt Big Data Alliance. De twee onderzoeksprojecten zijn een samenwerking tussen publieke en private partijen uit Nederland en Brazilië.

In het onderzoeksproject Playful Data-driven Active Urban Living, waarvan de HvA de hoofdaanvrager is van het praktijkgerichte onderzoeksdeel, is de vraag hoe fysieke activiteit van stadsbewoners gestimuleerd kan worden door het gebruik van gepersonaliseerde app-technologie. De hogeschool ontvangt hiervoor 125.000 euro subsidie; looptijd van het onderzoek is drie jaar. Bij het onderzoek From Data to Action: Promoting Active Lifestyle in Wheelchair Users with Spinal Cord Injury or Amputation gaat het om de rol die digitale middelen kunnen spelen bij het stimuleren van een actieve levensstijl voor rolstoelgebruikers met een dwarslaesie of een amputatie. De HvA ontvangt voor dit onderzoek zo’n 45.000 euro en het onderzoek loopt vier jaar.

Datagedreven onderzoek
De aanvragen vonden plaats in het kader van de financieringsronde Data-driven research on Sports & Healthy Living. Consortia bestaande uit Nederlandse en Braziliaanse onderzoekers konden financiering aanvragen voor multidisciplinair, fundamenteel en praktijkgericht, datagedreven onderzoek op het gebied van sport en gezond leven. Het doel van de call is om de samenwerking tussen onderzoekers in de staat São Paulo, Brazilië, en onderzoekers (van universiteiten en hogescholen) in Nederland te versterken door de financiering van gezamenlijke projecten waarin data-gedreven onderzoek op het gebied van sport en gezond leven wordt uitgevoerd.

Meer informatie: Big Data Alliance

]]>
Tue, 31 Jan 2017 18:05:09 +0100 Subsidie datagedreven onderzoek naar Big Data en gezonde leefstijl http:///item/814389/subsidie-datagedreven-onderzoek-naar-big-data-en-gezonde-leefstijl.html&field=Foto1&rType=crop&height=165&width=165.jpg
Qlik lanceert Qlik Sense Cloud Business voor directe web-based visuele analyses http:///item/814286/qlik-lanceert-qlik-sense-cloud-business-voor-directe-web-based-visuele-analyses.html Qlik lanceert Qlik Sense Cloud Business, een SaaS-oplossing voor visuele analyses. Dit product stelt kleine en middelgrote bedrijven, teams en groepen in staat om op iedere locatie analyses in de cloud uit te voeren, te beheren en te delen.

Qlik Sense Cloud Business wordt ondersteund door de gepatenteerde QIX Associative Indexing Engine en combineert de schaalbaarheid en het prestatievermogen van Qlik Sense in een cloud-omgeving. Qlik verlaagt met de introductie van dit nieuwe product het instapniveau en biedt gebruikers een flexibel en betaalbaar maandabonnement. Daarnaast is Qlik Sense Cloud Business volledig webgebaseerd en hoeven gebruikers niets te downloaden. Hierdoor kunnen bedrijven en teams direct aan de slag met visuele analyses, zonder grote investeringen of commitment voor de lange termijn.

Centraal startpunt
Volgens CTO en SVP Products Anthony Deighton bij Qlik werken mensen steeds vaker op afstand met elkaar samen. “Daarbij is het belangrijk dat iedereen altijd over dezelfde informatie beschikt. Qlik Sense Cloud Business biedt op elk apparaat, waar ook ter wereld, een consistente gebruikerservaring dankzij het responsive design. Dit zorgt ervoor dat teams snel en naadloos kunnen samenwerken. Wij hebben vanuit de wens van de gebruiker BI op basis van selfservice in het leven geroepen. Nu breiden we uit met een cloud-first platform dat bedrijven van elk formaat kunnen inzetten als centraal startpunt voor hun analysestrategie.”

Combineer, visualiseer en deel
Qlik Sense Cloud Business biedt een ‘drag-and-drop’-interface en geavanceerde visualisatiemogelijkheden binnen een responsive HTML5-client. Dit voorziet gebruikers in een handomdraai van datagegedreven inzichten. Met behulp van het intuïtieve design kunnen gebruikers met en zonder technische vaardigheden eenvoudig betekenisvolle analytische applicaties maken, beheren en eraan samenwerken.
Met één klik kunnen inzichten en applicaties zowel binnen als buiten de organisatie gedeeld worden, wat de waarde van data vergroot en bijdraagt aan een snellere en betere besluitvorming. Speciale visuele functionaliteiten helpen om gegevens voor te bereiden, datasets uit verschillende bronnen te combineren en het hele verhaal te tonen dat in de data schuilgaat. Het Associative Model van Qlik, dat gebruikers in staat stelt om alle mogelijke verbanden binnen hun data bloot te leggen, ligt ten grondslag aan deze gebruikservaring.

Eenvoudige samenwerking
Qlik Sense Cloud Business is een virtuele werkplek waar groepen gemakkelijk kunnen samenwerken en data kunnen verzamelen. Speciale governance-functionaliteiten zorgen dat het gebruik en beheer van analytische applicaties eenvoudig, maar ook gecontroleerd blijft. Denk hierbij aan:
· Een werkgebied voor groepen dat teamleden de mogelijkheid biedt om gezamenlijk content en apps te ontwikkelen, bewerken en op te vragen, zonder nadelige gevolgen voor de flexibiliteit.
· Een ruimte voor groepsgegevens waaraan data met consistente en herbruikbare definities kan worden toegevoegd. Dit draagt bij aan een snellere ontwikkeling van nieuwe applicaties, omdat er al bruikbare data voorhanden is.
· Toegangsbeheer om grip te houden op welke gebruikers toegang hebben tot welke applicaties en netwerken.

Met Qlik Sense Cloud Business kunnen organisaties nieuwe gebruikers en applicaties toevoegen wanneer dit nodig is. Qlik Sense Cloud Business maakt gebruik van de best bewezen oplossingen op beveiligingsgebied. Alle upgrades en taken die met de infrastructuur verband houden, worden door Qlik verzorgd.

Prijzen en beschikbaarheid
Meer dan 100.000 gebruikers visualiseren hun data met Qlik Sense Cloud. Qlik Sense Cloud Business is per direct beschikbaar voor 20 euro per gebruiker per maand. Meer informatie over de functies en voordelen van Qlik Sense Cloud.

]]>
Tue, 31 Jan 2017 14:58:46 +0100 Qlik lanceert Qlik Sense Cloud Business voor directe web-based visuele analyses http:///item/814286/qlik-lanceert-qlik-sense-cloud-business-voor-directe-web-based-visuele-analyses.html&field=Foto1&rType=crop&height=165&width=165.jpg
Veertigjarig SAS behaalt omzet van 3,2 miljard dollar in 2016 http:///item/813056/veertigjarig-sas-behaalt-omzet-van-miljard-dollar-in.html Het jaar 2016 is voor SAS een bijzonder jaar geweest. Het bedrijf vierde haar veertigste verjaardag, breidde de activiteiten wereldwijd uit en noteerde met een totale omzet van 3,2 miljard dollar opnieuw een hoge omzet en winst. Ten opzichte van 2015 is dat een groei van 4 procent bij een constante wisselkoers. De verkoop van nieuwe SAS-software steeg met 9 procent bij een constante wisselkoers, wat volgens SAS duidt op een aanhoudende vraag naar haar analyticsoplossingen.

De omzet van SAS is wereldwijd in alle regio's toegenomen. De verkoop van SAS-technologieën zoals datamanagement, analytics en Business Intelligence, steeg in alle regio's. Van alle sectoren groeiden de industrie, het bankwezen, de overheid en de gezondheidszorg/biowetenschappen het hardst. Vorig jaar volgden bijna 3000 nieuwe organisaties het voorbeeld van de al bestaande klanten op meer dan 83.000 locaties wereldwijd. Van de zakelijke oplossingen van SAS lieten de solutions voor fraude- en beveiligingsonderzoek een groei van 36 procent zien, omdat organisaties steeds meer te maken krijgen met de bestrijding van fraude en financiële criminaliteit en de naleving van regelgeving.

Uitbreiding cloudoplossingen
Daarnaast blijft de cloud bijdragen aan de groei van SAS; de inkomsten uit de cloud stegen met 9 procent als gevolg van de vraag vanuit de markt naar kostenefficiënte, eenvoudige en veilige methodes om toegang te krijgen tot SAS-oplossingen. SAS blijft nieuwe manieren vinden om klanten toegang te geven tot zijn oplossingen en expertise. Voorbeelden zijn SAS Cloud Analytics en Results-as-a-Service (RaaS). RaaS, dat vorig jaar al een sterke groei te zien gaf, zal naar verwachting ook in 2017 blijven groeien.

SAS-partners
De SAS-partners waren verantwoordelijk voor bijna een derde van de nieuwe omzet. Het sterke channel-programma dat SAS hanteert voor system integrators, resellers, OEM's en aanbieders van managed analytic services helpt klanten om SAS-technologie te implementeren die het best aansluit op hun eigen behoeften en die van hun klanten.

SAS Viya
Volgens IDC heeft SAS een aandeel van 31,6 procent op de markt van geavanceerde en predictive analytics. Het handhaven van deze positie is sterk afhankelijk van innovatie. SAS investeert jaarlijks ongeveer twee keer zo veel in R&D in vergelijking met de belangrijkste technologiebedrijven; in 2016 was dit 26 procent. Deze inzet voor innovatie is de basis voor de nieuwe SAS Viya-technologie. SAS blijft vernieuwingen introduceren rond dit voor de cloud geschikte, high-performance analytics en visualisatieplatform. De laatste toevoeging is SAS Visual Investigator, waarmee analytics worden gecombineerd met dynamische en interactieve, visuele 'workspaces'. Volgens SAS kunnen organisaties hiermee de volledige levenscyclus van een onderzoek, zoekactie of informatieverzoek identificeren, onderzoeken en beheren. SAS is van plan om SAS Viya in het eerste kwartaal van 2017 nog verder uit te breiden.

Meer informatie: SAS

]]>
Mon, 30 Jan 2017 00:10:00 +0100 Veertigjarig SAS behaalt omzet van 3,2 miljard dollar in 2016 http:///item/813056/veertigjarig-sas-behaalt-omzet-van-miljard-dollar-in.html&field=Foto1&rType=crop&height=165&width=165.jpg
Vakbeurs Zorg & ICT 2017: Patiënt centraal in datagedreven zorg http:///item/813000/vakbeurs-zorg-en-ict-patia-laquo-nt-centraal-in-datagedreven-zorg.html Zorg & ICT, het kennisplatform voor mensgerichte zorginnovatie, biedt met zijn vakbeurs jaarlijks een overzicht van de laatste technologische innovaties binnen de zorg. Tijdens de 2017-editie staat het thema 'De patiënt als partner' centraal.

Op dinsdag 14, woensdag 15 en donderdag 16 maart 2017 kunnen bezoekers terecht in Jaarbeurs in Utrecht voor de nieuwste informatie en inspiratie op het gebied van zorginnovatie, inclusief een uitgebreid inhoudelijk programma, diverse activiteiten en verschillende exposanten. Bezoekers kunnen kennis opdoen over onder andere nieuwe vormen van interactie, digitalisering van processen en verbetering van fysieke ICT-infrastructuur in de zorg. De registratie voor gratis toegang is geopend.

Regie
Zorg & ICT 2017 focust zich op de digitalisering en verandering van de samenleving, en op de gevolgen hiervan voor patiënten en de zorg. Brandmanager Paul Verdult bij Jaarbeurs: “Door technologische toepassingen, zoals gezondheidsapplicaties en digitale communicatie, zijn mensen steeds meer in staat de regie over hun eigen gezondheid en medisch proces in handen te nemen. Men wordt mondiger, stelt meer eisen en heeft hogere verwachtingen van zorg. De rol van de patiënt verandert en daarmee ook de rol van zorgprofessionals. Zij moeten handelen vanuit de behoefte van patiënten en als partner met hen samenwerken. Dit vraagt om aanpassingen in de technische infrastructuur van een zorginstelling. Zorg & ICT wil bezoekers inspireren, informeren en hen op weg helpen met de juiste praktische handvatten.”

Seminarprogramma
Op Zorg & ICT 2017 kunnen bezoekers dagelijks zestig verschillende kennissessies bezoeken, nieuwe technologieën uitproberen, specifieke innovatievragen stellen in de ICT & Health Expert-praktijk en kennismaken met circa 160 exposanten. In het FutureLab presenteren zorgtechnologische start-ups zich aan de markt. Tevens wordt op de beursvloer de Doctorpreneur Award uitgereikt en maken bezoekers in het Mobiele Huis van Morgen kennis met zorginnovaties.
Naast het centrale thema ‘De patiënt als partner’ zijn er verschillende subthema’s die het programma op de vakbeurs nog meer duiding geven:
· Connected & Digital Health gaat in op het belang van verbonden applicaties, sensoren en andere zelfmanagementtools – met elkaar, de patiënt én de bijbehorende zorginstelling.
· De juiste behandeling op basis van data, veilige opslag en een goed gestructureerde database staan centraal binnen het subthema Data-Driven Healthcare.
· Sociale Innovatie gaat in op het centraal stellen en het betrekken bij een behandeling van verschillende partijen om de samenwerking tussen patiënt, zorgprofessional en bijvoorbeeld mantelzorger te vergemakkelijken en te verbeteren.
· Bezoekers krijgen met het subthema Veiligheid en Privacy meer inzicht in het beveiligen van hun organisatie en het adequaat handelen bij bijvoorbeeld datalekken.
· Bedrijfsvoering & IT gaat in op de mogelijkheden voor kostenreductie door digitalisering en automatisering – vanuit zorgprocessen, maar ook door ondersteunende diensten als HR, Inkoop, Logistiek en ICT.

Zorg & ICT 2017 vindt plaats van dinsdag 14 tot en met donderdag 16 maart 2017 in hal 10 en 11 van Jaarbeurs in Utrecht. De beurs is elke dag geopend van 9.30 uur tot 16.30 uur en start dagelijks met een centrale opening van 9.30 uur tot 10.00 uur – verzorgd door Mobile Doctors. Bezoekers kunnen zich gratis registreren via de website.

]]>
Mon, 30 Jan 2017 00:04:00 +0100 Vakbeurs Zorg & ICT 2017: Patiënt centraal in datagedreven zorg http:///item/813000/vakbeurs-zorg-en-ict-patia-laquo-nt-centraal-in-datagedreven-zorg.html&field=Foto1&rType=crop&height=165&width=165.jpg
Angela Mazza benoemd tot SAP Business Lead in EMEA-Noord http:///item/813028/angela-mazza-benoemd-tot-sap-business-lead-in-emea-noord.html SAP heeft Angela Mazza benoemd tot Regional President EMEA North. In deze rol coördineert zij de groei-initiatieven voor het platform, de applicaties en businessnetwerken van SAP in Groot-Brittannië, Ierland, Frankrijk, België, Luxemburg, Nederland, Zweden, Denemarken, Noorwegen, Finland en de Baltische Staten.
 
Angela Mazza was hiervoor werkzaam als Chief Operating Officer voor SAP in de MEE-regio (Midden en Oost Europa). In haar nieuwe functie als Regional President EMEA North vervangt ze Darren Roos, nu Global President S/4 HANA Public Cloud. Mazza zal blijven rapporteren aan President EMEA & MEE, Franck Cohen.
 
Duidelijke visie
Angela Mazza behoudt een duidelijke focus voor 2017: "De wereld veranderde nog nooit zo snel. Organisaties van diverse groottes hebben daardoor de behoefte aan een coherente visie op de vertaling van digitalisering en de cloud naar groeimogelijkheden. Dit is met name het geval in EMEA-Noord, waar de behoefte aan verandering wordt versterkt door een toenemende concurrentie en volwassenheid van de markt.” Volgens Mazza is SAP perfect gepositioneerd om bedrijven te helpen dit doel te bereiken. “We hebben ons gericht op - en geïnvesteerd in - het op de markt brengen van toonaangevende oplossingen. Klanten bekijken nu hoe ze hierin met ons kunnen samenwerken. Het maakt mij erg trots dat ik de EMEA-Noord regio mag leiden in deze belangrijke periode."
 
Achtergrond
Angela Mazza is al geruime tijd werkzaam bij SAP. In 13 jaar bekleedde zij verschillende senior functies binnen diverse business units, waaronder als Vice President Large Enterprises, Vice President Strategic Customer Network, en Global Vice President Line of Business HR. Angela is daarnaast lid van SAP's Global Extended Executive Team.

]]>
Mon, 30 Jan 2017 00:04:00 +0100 Angela Mazza benoemd tot SAP Business Lead in EMEA-Noord http:///item/813028/angela-mazza-benoemd-tot-sap-business-lead-in-emea-noord.html&field=Foto1&rType=crop&height=165&width=165.jpg
Bewustwordingsinitiatief Privacy Proof maakt gevolgen wetgeving GDPR duidelijk http:///item/813055/bewustwordingsinitiatief-privacy-proof-maakt-gevolgen-wetgeving-gdpr-duidelijk.html Op 28 januari 2017, de Internationale Dag van de Privacy is expertisebureau Privacy Management Partners (PMP) gestart met het bewustwordingsinitiatief Privacy Proof. Bewustwordingsinitiatief Privacy Proof gaat dataverwerkende organisaties, met name de overheid, de gezondheidszorg, het onderwijs en het bedrijfsleven, informeren over hoe zij kunnen voldoen aan de AVG en hoe belangrijk dat is voor hun continuïteit. PMP hoopt deze organisaties te stimuleren om dit jaar al te beginnen met de eerste stappen, in plaats van te wachten tot het laatste moment.

Privacy Proof wil de ingangsdatum van de nieuwe Europese privacywet, de Algemene Verordening Gegevensbescherming (AVG of GDPR) op tijd onder de aandacht van organisaties brengen. Zij hebben namelijk nog tot 25 mei 2018 de tijd om zich voor te bereiden. Die 480 dagen hebben de meeste organisaties zeker nodig om hun privacybeleid op orde te krijgen, en problemen met de Autoriteit Persoonsgegevens te voorkomen.

Neem de tijd nu het nog kan
PMP ziet dat veel bedrijven de consequenties van de nieuwe wetgeving nog niet geheel overzien en daarom te lang wachten met het uitvoeren van risicoanalyses en het nemen van de juiste maatregelen. Ook is het vaak lastig voor organisaties om de kloof tussen wet en praktijk te overbruggen. Privacy wordt nog teveel gezien als een juridisch vraagstuk, met het risico van papieren tijgers. De AVG zet juist aan tot praktische oplossingen. Met Privacy Proof wil PMP zo veel mogelijk belanghebbenden de kans bieden om zich goed te informeren en met voldoende marge hun privacybeleid op orde te brengen.

Kennistafels en introductiescans
PMP organiseert in het kader van Privacy Proof dit jaar een aantal informatieve kennistafels, waarin de AVG en de consequenties daarvan worden verduidelijkt, deelnemers de gelegenheid krijgen om ervaringen met elkaar uit te wisselen en elkaar te bevragen en te inspireren. Naast deze mogelijkheid kunnen deelnemers ook intekenen voor een gratis en vrijblijvende introductiescan in de eigen organisatie. Hierbij krijgt een organisatie een duidelijk beeld van de huidige status van het eigen privacybeleid en van de noodzakelijk te nemen AVG-stappen.

Meer informatie over het bewustwordingsinitiatief Privacy Proof.

]]>
Sun, 29 Jan 2017 14:21:15 +0100 Bewustwordingsinitiatief Privacy Proof maakt gevolgen wetgeving GDPR duidelijk http:///item/813055/bewustwordingsinitiatief-privacy-proof-maakt-gevolgen-wetgeving-gdpr-duidelijk.html&field=Foto1&rType=crop&height=165&width=165.jpg
PwC: Organisaties niet klaar voor nieuwe Europese privacyregels http:///item/813054/pwc-organisaties-niet-klaar-voor-nieuwe-europese-privacyregels.html Slechts een op de tien Nederlandse organisaties zegt klaar te zijn voor nieuwe Europese privacywetgeving. Dat blijkt uit het periodieke Privacy Governance onderzoek van PwC onder ruim 200 organisaties. Twee derde bereidt zich actief voor op de EU-verordening en een kwart is nog niet met de voorbereiding gestart. De publicatie van de uitkomsten viel samen met de jaarlijkse Internationale Dag van de Dataprivacy. De verwachting van PwC is dat veel organisaties in tijdnood zullen komen.

Per 25 mei 2018 moeten organisaties overschakelen op de Europese Algemene Verordening Persoonsgegevens (AVG). Hiermee komen verschillen tussen wetgeving in de verschillende lidstaten te vervallen. Tot die tijd moeten organisaties in Nederlands zich houden aan de nu geldende privacyrichtlijnen die volgen uit de Wet bescherming persoonsgegevens (Wbp+).

Tijd hard nodig
Volgens security- en privacyspecialist Bram van Tiel bij PwC zullen, ondanks dat mei 2018 nog ver weg lijkt, veel organisaties de resterende tijd hard nodig hebben om de talrijke procedurewijzigingen en technische aanpassingen door te voeren. “Zo moeten organisaties straks meer inzicht geven in dataverwerking, verantwoordelijken op privacygebied benoemen en zogenoemde Privacy by Design en Privacy by Default principes doorvoeren. Ook krijgt iedereen het recht om vergeten te worden.”

Datalekken
De AVG bevat verder strenge regels rondom het melden van datalekken. Organisaties moeten vanaf mei 2018 datalekken melden in een register en een procedure hebben hoe ze met datalekken omgaan, inclusief communicatieplan. Opvallend is dat slechts 58 procent de nu geldende regels voor het melden van datalekken heeft ingevoerd. Dat percentage ligt weliswaar significant hoger dan vorig jaar (16 procent), maar dat betekent dat er nog steeds veel bedrijven zijn die boetes tot 820.000 euro riskeren. Die boetes kunnen vanaf mei 2018 oplopen tot twintig miljoen euro of vier procent van de jaaromzet. Een minderheid (44 procent) van de ondervraagde organisaties heeft nog nooit een datalek gemeld. Bram van Tiel: ‘We weten dat het percentage dat slachtoffer is geweest van cybercrime hoger ligt. Veel organisaties weten niet precies wat een datalek is en wanneer ze de Autoriteit persoonsgegevens en betrokkenen, zoals klanten, moeten informeren.’

Documentatie
Uit het onderzoek blijkt verder dat 90 procent van de ondervraagde organisaties inzichtelijk heeft welke persoonsgegevens de organisatie verwerkt, echter slechts 35 procent documenteert de verwerkingen. Het gebruik van bewerkersovereenkomsten is licht gestegen naar 70 procent (2015; 60 procent), maar de helft daarvan controleert deze overeenkomsten daadwerkelijk op naleving. 29 procent vindt de eigen organisatie (zeer) volwassen op het gebied van privacy. Driekwart (2015; 50 procent) heeft het afgelopen jaar extra geïnvesteerd in privacy compliance. De verwachting van PwC is dat de investeringen in aanloop naar de EU-verordening fors zullen toenemen.

Bekijk hier het onderzoeksrapport.
Meer informatie: PwC

]]>
Sun, 29 Jan 2017 14:04:33 +0100 PwC: Organisaties niet klaar voor nieuwe Europese privacyregels http:///item/813054/pwc-organisaties-niet-klaar-voor-nieuwe-europese-privacyregels.html&field=Foto1&rType=crop&height=165&width=165.jpg
Big Data: Ga er vandaag nog mee aan de slag http:///item/813002/big-data-ga-er-vandaag-nog-mee-aan-de-slag.html Big Data behoort tot de top 10 trends en ontwikkelingen voor klantinteractie 2017-2020. Er komen steeds meer waardevolle data beschikbaar, maar als er niets mee wordt gedaan zal uiteindelijk de slag met de concurrentie worden verloren. Nu is ook het moment om aan de slag te gaan met Big Data.  

De komende decennia wordt data het nieuwe kapitaal van contactcenters. Het belang van Big Data wordt inmiddels door de meerderheid van organisaties erkent (KIRC, 2016). Veel gegevens worden al verzameld in allerlei systemen, maar desalniettemin laat een groot deel van het bedrijfsleven de mogelijkheden met Big Data onbenut. Dit is een gemiste kans met grote gevolgen. Als je nu nog tijd, geld en energie blijft verspillen aan reactieve rapportages, raak je als organisatie achterop. Met de juiste Business Intelligence toepassingen kan data direct worden omgezet naar  proactieve klantinteracties. Bijvoorbeeld het bezoek van een klant aan uw website, kan direct leiden tot een taak in uw CRM systeem.

Geen uitdaging maar kans
De uitdaging om ongestructureerde data om te zetten naar gestructureerde data voor analyses en inzichten is niet zo groot als het lijkt. We krijgen meer data uit Social Media en consumentenelektronica zal ons ook steeds meer inzichten verschaffen (Internet of Things). De vraag is of we al deze data moeten gaan verzamelen? De doelstellingen van de organisatie zijn hierin leidend. Data wordt de nieuwe ruwe olie en we zullen vanuit de organisatie moeten bepalen hoe we deze gaan raffineren.
Organisaties kunnen drie benaderingen hanteren om Business Intelligence te beheren: Self-Service-BI, Managed BI en/of expertise inhuren. Business Intelligence blijft vragen om specialistische kennis en deze is schaars. Organisaties moeten zelf de keuze maken of ze de zaken willen uitbesteden of bij zichzelf willen houden. Echter, we zien dat organisaties Business Intelligence expertise graag buiten de deur te beleggen.

Aan de slag
Er zijn drie redenen voor bedrijven om nu met Big Data aan de slag te gaan:
1. De verandering naar een customer engaged organisatie.
Organisaties zullen hun processen moeten aanpassen om dichter en directer bij de klant betrokken te zijn. Data is essentieel om de huidige en toekomstige behoeften van de klant in kaart te brengen en ervoor te zorgen dat al uw medewerkers op het juiste niveau met de klant communiceren.

2.  Hogere conversie in het salesproces.
Meer inzicht in het gedrag van klanten leidt tot voorspelbare marketingacties en daardoor betere verkoopresultaten. Door alle gegevens (Big Data) te verzamelen en te analyseren kunnen klanten worden ingedeeld in groepen (segmenten). Hiermee kunnen ook de klantwaarde en het klantpotentieel worden bepaald. Vervolgens met de juiste acties benaderd kunnen worden, waardoor de conversie enorm toeneemt. Een juiste directe benadering is essentieel om de klant betrokken te houden bij uw organisatie. In de digitale wereld wordt het namelijk steeds eenvoudiger om over te stappen naar de concurrent.

3. Een nieuwe golf van technologie komt op ons af.
Een nieuwe golf van opkomende technologie zorgt ervoor dat klanten meer en meer data gaan produceren. Augmented- en Virtual Reality technologie zorgen ervoor dat klanten digitale ervaringen opdoen die direct online teruggekoppeld worden. Op microniveau worden voorspellende inzichten gecreëerd aan de hand van data uit de digitale interactie met de klant. En als laatste zullen machines en apparaten data opleveren over het klantgedrag en hen behoeften.

]]>
Sun, 29 Jan 2017 12:58:37 +0100 Big Data: Ga er vandaag nog mee aan de slag http:///item/813002/big-data-ga-er-vandaag-nog-mee-aan-de-slag.html&field=Foto1&rType=crop&height=165&width=165.jpg
Sophos benadrukt belang GDPR in kader van Data Protection Day http:///item/811471/sophos-benadrukt-belang-gdpr-in-kader-van-data-protection-day.html Bedrijven spelen een belangrijke rol in de bescherming van privacy. Tijdens de elfde editie van Data Protection Day (zaterdag 28 januari aanstaande) worden bedrijven er nog eens extra aan herinnerd om concrete plannen te maken ten aanzien van de General Data Protection Regulation (GDPR).

Vanaf mei 2018 treedt de nieuwe Europese verordening in werking en zijn alle organisaties die persoonsgegevens verwerken verplicht aan deze nieuwe privacybescherming te voldoen. In minder dan achttien maanden moeten bedrijven volledig aan de GDPR voldoen, benadrukt Managing Director Pieter Lacroix van Sophos Nederland. “Dit lijkt misschien nog ver weg maar bij een ​​aantal bedrijven zal het nog wel de nodige tijd kosten om klaar te zijn, aangezien ze momenteel niets in huis hebben om data van klanten en werknemers te beschermen. Privacy is niet iets wat kan worden bereikt in een dag: het kost tijd om de juiste processen in te voeren en om de juiste mentaliteit in de hele business te implementeren.”

Statement maken
Tot nu toe konden bedrijven grotendeels wegkomen wanneer persoonsgegevens van klanten of werknemers werden verloren. Met de nieuwe wetgeving krijgen de autoriteiten de bevoegdheid hoge boetes op te leggen die zeker voor kleine bedrijven funest kunnen zijn. Het zijn juist deze bedrijven die volgens Lacroix het meeste risico lopen en volgend jaar mei mogelijk niet kunnen voldoen aan GDPR. “De Europese Commissie zal de eerste de beste mogelijkheid aangrijpen om een statement te maken en een boete aan deze kleinere bedrijven uit te delen. Ik verwacht vanaf halverwege dit jaar dat steeds meer bedrijven op zoek gaan naar versleutelingtechnieken. Vanaf dat moment moeten zij GDPR steeds serieuzer nemen waardoor in 2018 het bewustzijn en de interesse zodanig hoog zijn dat bedrijven in mei klaar zijn voor de nieuwe regelgeving rondom bescherming persoonsgegevens.”

Adviezen
Sophos heeft negen adviezen op een rij gezet voor bedrijven die aan de GDPR willen voldoen:
1. Wees niet ‘laks’, neem GDPR én ieders privacy serieus.
2. Verdiep je in GDPR om te weten welke stappen je moet nemen. Overleg met je security officer en/of ga op zoek naar juridische expertise als je het niet zeker weet.
3.Werk met HR om ervoor te zorgen dat werknemers begrijpen welke stappen het bedrijf neemt om medewerkerinformatie te beschermen.
4. Zorg ervoor dat medewerkers weten wat er van hen wordt verwacht als het gaat om de bescherming van bedrijfsgegevens. Zorg dat ze begrijpen dat ook klanten erop vertrouwen dat hun persoonlijke informatie beschermd wordt (op dezelfde manier dat medewerkers kunnen vertrouwen op HR wanneer het gaat om de bescherming van hun eigen persoonlijke gegevens).
5. Geef werknemers geen toegang tot gegevens die ze niet nodig hebben voor hun dagelijkse werk. Onder GDPR is zelfs het lezen van gevoelige gegevens geclassificeerd als een inbreuk op de gegevensbeveiliging.
6. Wanneer je gegevens verzamelt, bescherm deze ook! Als je niet zeker weet of de informatie privé is, behandel dit dan op dezelfde manier als alle andere privégegevens. Beter nog, verzamel geen onnodige gegevens. Oplichters kunnen niet stelen wat je niet hebt.
7. Gebruik het respecteren van de privacy van de klant in je voordeel door aan te geven welke gegevens je precies verzamelt, wat je van plan bent daarmee te doen en hoe lang je de gegevens bewaart. Gebruik geen juridisch jargon maar houd vast aan duidelijke beschrijvingen. Mensen zullen je merk meer betrouwbaar vinden wanneer je direct en eerlijk bent.
8. Zorg ervoor dat wachtwoorden nooit worden gedeeld en sterk en uniek zijn. Dit maakt het niet alleen moeilijker om de gegevens te stelen, maar zorgt voor verantwoordelijkheid tegen misbruik van bevoegdheden die de privacy kunnen schenden.
9. Gebruik encryptie om gegevens te beschermen tegen dieven en nieuwsgierige ogen. Je zal het nodig hebben om de toezichthouders tevreden te stellen omdat je zo kan laten zien dat je alles wat je kunt doen, hebt gedaan om klantgegevens te beschermen.

]]>
Fri, 27 Jan 2017 00:01:00 +0100 Sophos benadrukt belang GDPR in kader van Data Protection Day http:///item/811471/sophos-benadrukt-belang-gdpr-in-kader-van-data-protection-day.html&field=Foto1&rType=crop&height=165&width=165.jpg
Gemalto: Consumenten houden bedrijven verantwoordelijk voor datalekken http:///item/810880/gemalto-consumenten-houden-bedrijven-verantwoordelijk-voor-datalekken.html Gemalto heeft de onderzoeksresultaten van haar 2016 Data Breaches and Customer Loyalty rapport gepubliceerd. Hierin wordt duidelijk dat consumenten wereldwijd de verantwoordelijkheid van de bescherming van hun persoonlijke gegevens vooral leggen bij de organisaties die hun gegevens in handen hebben en niet bij henzelf. Gemalto is aanbieder in digitale beveiliging.

Volgens de 9.000 wereldwijd bevraagde consumenten ligt 70 procent van de verantwoordelijkheid voor het beschermen van consumentengegevens bij de bedrijven, de overige 30 procent bij de consumenten zelf. Toch gelooft minder dan een derde (29 procent) van de consumenten dat bedrijven de bescherming van persoonsgegevens serieus nemen. Meer dan 4,8 miljard records zijn sinds 2013 getroffen door een lek, identiteitsdiefstal heeft met 64 procent het grootste aandeel.

Gedrag
Ondanks dat consumenten zich steeds meer bewust zijn van de online gevaren, gelooft slechts een op de tien (11 procent) consumenten dat apps of websites het grootste risico vormen. Hierdoor veranderen zij niets aan hun gedrag:
· 80 procent gebruikt sociale media, ondanks dat 59 procent gelooft dat deze media een groot risico vormen;
· 87 procent maakt gebruik van online of mobiel bankieren, terwijl 34 procent denkt dat dit hen kwetsbaar maakt voor cybercriminelen;
· Consumenten zijn eerder geneigd om online te winkelen tijdens drukke commerciële periodes – zoals Black Friday en Kerst (een toename van 2 procent online versus een afname van 2 procent in de winkels) – terwijl 21 procent verwacht dat de dreiging van cybercriminaliteit toeneemt tijdens deze periodes.

Consumenten banger
Consumenten vrezen steeds vaker voor diefstal van hun gegevens; 58 procent denkt dat zij slachtoffer zullen worden van een datalek. Bedrijven moeten zich voorbereiden op het verlies dat zulke incidenten mogelijk veroorzaken. Een datalek is in veel gevallen een reden om te stoppen met online activiteiten. Zo zegt 60 procent te stoppen met online winkelen als er een datalek voorkomt, gevolgd door online bankieren (58 procent) en sociale media (56 procent). Daarbij zegt 66 procent geen zaken te willen doen met een bedrijf dat te maken heeft gehad met een datalek waardoor financiële en gevoelige informatie werd gestolen.

Gevolgen
Volgens het onderzoek heeft frauduleus gebruik van financiële informatie 21 procent van de consumenten benadeeld, terwijl anderen slachtoffer werden van frauduleus gebruik van persoonsgegevens (15 procent) en identiteitsdiefstal (14 procent). Meer dan een derde (36 procent) van de consumenten die slachtoffer zijn geworden van een lek, schrijven dit toe aan een frauduleuze website. Het klikken op een kwaadaardige link (34 procent) en phishing (33 procent) zijn de twee andere meest gebruikte methodes waar consumenten slachtoffer van werden. Daarnaast wijdt meer dan een kwart (27 procent) de schuld van een datalek aan een fout bij de data-beveiligingsoplossingen van een bedrijf. Opvallend is dat in de Benelux maar 6 procent de schuld bij bedrijven neerlegt, dit is het laagste percentage van alle onderzochte landen.

Gebrek aan vertrouwen
Het gebrek aan consumentenvertrouwen kan veroorzaakt zijn door het gebrek aan veiligheidsmaatregelen die bedrijven toepassen. Bij online bankieren zijn wachtwoorden nog steeds de meest voorkomende authenticatiemethodes – gebruikt door 84 procent bij online bankieren en door 82 procent bij mobiel bankieren. Hierna wordt een meer geavanceerde transactiebeveiliging het meest gebruikt bij online en mobiel bankieren (respectievelijk 50 procent en 48 procent). Oplossingen als two-factor authenticatie (43 procent online en 42 procent mobiel) en data encryptie (31 procent online en 27 procent mobiel) volgen op enige afstand.

Authenticatie
Vergelijkbare resultaten zijn gevonden in zowel de retail-omgeving als de sociale media. Bij de retail zegt slechts 25 procent van de respondenten two-factor authenticatie te gebruiken voor hun accounts in de apps en op websites. Bij sociale media gebruikt slechts 21 procent two-factor authenticatie voor alle platforms. In de Benelux maakt zelfs maar 15 procent hier gebruik van op sociale media. Slechts 16 procent van de consumenten gaf aan volledig te snappen wat data-encryptie is en wat het doet.

Gemalto heeft het 2016 Data Breaches and Customer Loyalty onderzoek uitgevoerd onder 9.000 consumenten uit Australië, de Benelux, Frankrijk, Duitsland, Rusland, de Verenigde Arabische Emiraten, Saudi Arabië, India, Japan, het Verenigd Koninkrijk en de Verenigde Staten.

Meer informatie: Gemalto

]]>
Thu, 26 Jan 2017 00:32:27 +0100 Gemalto: Consumenten houden bedrijven verantwoordelijk voor datalekken http:///item/810880/gemalto-consumenten-houden-bedrijven-verantwoordelijk-voor-datalekken.html&field=Foto1&rType=crop&height=165&width=165.jpg
Commvault vereenvoudigt databeheer met gevalideerde referentiearchitecturen op AWS http:///item/810675/commvault-vereenvoudigt-databeheer-met-gevalideerde-referentiearchitecturen-op-aws.html Commvault introduceert nieuwe referentiearchitecturen voor Amazon Web Services (AWS). Hiermee stelt het bedrijf klanten in staat databescherming en -beheer te vereenvoudigen met een eenvoudig in te zetten en gevalideerde oplossing.

De referentiearchitecturen bieden ondernemingen inzicht in hoe het Commvault Data Platform kan helpen gebruik van de AWS Cloud voor back-up, recovery en archivering te optimaliseren. Deze referentiearchitecturen zijn rechtstreeks bij Commvault verkrijgbaar en in de AWS Marketplace. Bestaande klanten kunnen via de AWS Marketplace hun licenties aanvragen. Daarnaast hebben klanten de mogelijkheid makkelijk datastorage rechtstreeks toe te wijzen aan specifieke AWS-diensten, zoals Amazon Simple Storage Service (Amazon S3), Amazon S3 Standard – Infrequent Access (Amazon S3-IA) en Amazon Glacier.

Overstap
De gevalideerde Commvault-referentiearchitecturen met AWS moeten de bescherming van data in hybride infrastructuren nog eenvoudiger maken voor Commvault-klanten. Daarnaast zorgen ze voor lagere kosten, verbeterde flexibiliteit en snellere inzet van Commvault-software met de AWS Cloud voor back-up, recovery en archivering. Als AWS Advanced Technology Partner met AWS Storage Competency-status is Commvault belangrijk voor grote ondernemingen bij het oplossen van datamanagementproblemen die meestal komen kijken bij de overstap naar hybride- en public-cloudinfrastructuren. Momenteel wordt Commvault ingezet voor het beheer van meer dan dertig petabyte aan data in de AWS Cloud.

Unified platform
Commvaults unified platform vereenvoudigt databescherming en biedt databeheeropties als:
· mogelijkheden voor indexeren en catalogiseren om het zoeken naar, en het terughalen van data te vergemakkelijken, en om recovery te versnellen;
· geautomatiseerde, op policy gebaseerde dataverplaatsing tussen on-premise-infrastructuren en AWS, waardoor het voor grote ondernemingen eenvoudiger is om data op te slaan in Amazon S3, Amazon S3-IA of Amazon Glacier, of om volledige workloads rechtstreeks te verplaatsen naar Amazon EC2 Instances;
· ondersteuning voor het importeren van grote hoeveelheden data (petabytes) die gebruikmaken van AWS Snowball.

Policy’s
Commvault stelt ondernemingen in staat dezelfde policy’s voor data-recovery en -retentie toe te passen op data in AWS als op data op lokale disks of andere devices. Door Commvaults mogelijkheden voor beveiliging, encryptie en deduplicatie door te trekken naar AWS, kunnen grote ondernemingen kosten verlagen en een einde maken aan de noodzaak om complexe scripts te bouwen. Daarnaast hebben ze hiermee één end-to-end-oplossing die ze kunnen inzetten voor het beheer van alle data, op elke locatie en in elk formaat.

Meer informatie: Commvault

]]>
Wed, 25 Jan 2017 16:34:42 +0100 Commvault vereenvoudigt databeheer met gevalideerde referentiearchitecturen op AWS http:///item/810675/commvault-vereenvoudigt-databeheer-met-gevalideerde-referentiearchitecturen-op-aws.html&field=Foto1&rType=crop&height=165&width=165.jpg
De vier voordelen van een ESB voor zorginstellingen http:///item/810006/de-vier-voordelen-van-een-esb-voor-zorginstellingen.html Zorginstellingen krijgen te maken met steeds meer computersystemen, databases én externe partijen. De integratie van verschillende bedrijfsapplicaties is daarom eerder noodzaak dan luxe. Hoe meer systemen u integreert, hoe efficiënter u te werk gaat en hoe minder risico u loopt op fouten.

Maar hoe zit dat als u de systemen beheert van een zorginstelling met honderden locaties? Dan is een Enterprise Service Bus (ESB) de oplossing. Hiermee koppelt u al uw bedrijfssystemen en brengt u informatie samen op één plek. En dat heeft voordelen voor bereikbaarheid, budgettering én personeelsdata. In deze blog noem ik de vier belangrijkste.

Wat is een ESB?
Tegenwoordig gaan we ervan uit dat iedereen wel weet wat een ESB is. Maar zo vanzelfsprekend is die kennis niet. Daarom voor de zekerheid een korte samenvatting. Een Enterprise Service Bus is een verbindingsstuk (middleware) dat verschillende systemen op elkaar aansluit. Dankzij dit knooppunt kunnen verschillende databases met elkaar worden geïntegreerd. Dit geldt voor interne systemen, maar er kan ook verbinding worden gemaakt met externe applicaties. Hierdoor kan dezelfde informatie op verschillende plekken worden opgevraagd en hergebruikt. En dat is handig om een aantal redenen.

1. Mobiele data-uitwisseling
In veel zorginstellingen werken medewerkers volgens een veranderend rooster. Dit betekent veel wisselende diensten die moeten worden gecommuniceerd, aangepast en gedocumenteerd. Een roulerend rooster is foutgevoelig en doet af aan de bereikbaarheid van behandelaars. En dat is nu juist zo belangrijk in een instelling waar 24/7 zorg verleend wordt. Een ESB maakt het mogelijk verschillende applicaties aan elkaar te koppelen. Hierdoor kunnen medewerkers de juiste informatie (namen, telefoonnummers en planningen) altijd raadplegen, bijvoorbeeld op hun mobiele telefoon. Het resultaat: minder fouten, meer efficiëntie en een betere bereikbaarheid.

2. Hergebruik van gegevens
De integratie van systemen is handig voor medewerkers, maar draagt ook bij aan een beter geordende administratie. Laten we bij het voorbeeld van het rooster blijven. Informatie over de planning en de gemaakte uren kan met een API (een Application Programming Interface) gekoppeld worden aan de ESB. Hierdoor komt informatie over uren en onregelmatigheidstoeslagen direct uit bij de financiële afdeling. Daar kan een wijziging snel worden doorgevoerd in het systeem en direct worden doorgevoerd in het salaris van een medewerker. Zonder ESB zou deze data opnieuw moeten worden ingevoerd en het salaris handmatig opnieuw moeten worden berekend.  
 
3. Betere afstemming met andere partijen
Niet alleen intern zorgt de ESB voor de stroomlijning van informatie. Ook de gegevensuitwisseling met externe partijen wordt makkelijker. Zo koppelt u uw computersystemen met een ESB eenvoudig aan het Landelijk Schakelpunt (LSP). Hierdoor kan informatie over patiënten (bijvoorbeeld medicijngebruik) snel tussen verschillende zorginstellingen worden uitgewisseld. Dit is voor Care-organisaties belangrijk omdat veel van hun cliënten naar hun eigen huisarts buiten de instelling gaan. Deze is dankzij de ESB op de hoogte van het behandelplan, medicatie en algemene gezondheid van de patiënt. En op zijn beurt koppelt hij nieuwe informatie ook snel terug naar de organisatie.

4. Budgetbeheer
In veel organisaties rouleren er pinpassen en kasboeken. In de Caresector, bijvoorbeeld, doen cliënten vaak zelf boodschappen voor zichzelf of hun groep. Zicht houden op de financiële stromen kan hierdoor een uitdaging zijn. Met een ESB kun je voor iedere medewerker, groep en cliënt aangeven hoeveel saldo er maandelijks op zijn of haar pinpas moet worden bijgeschreven. Geld is hierdoor altijd en overal te traceren, omdat de ESB alle transacties en bijschrijvingen bijhoudt en integreert met andere brondata. Door kasgeld af te schaffen en te verruilen voor een ESB-integratie, bespaart u op de administratiekosten én gaat er minder geld verloren door een gebrek aan overzicht.  

Systeemintegratie en de zorg lijken steeds beter samen te gaan. Waar IT vroeger slechts ondersteuning bood op financieel en strategisch gebied, is het nu volledig geïntegreerd in de werkdag van zorgmedewerkers en behandelaren. De ESB speelt hierin een belangrijke rol, aangezien deze oplossing zorgt voor meer efficiëntie, minder fouten én betere zorg.

David Majster is Marketing Manager bij InterSystems Benelux.

]]>
Wed, 25 Jan 2017 14:00:00 +0100 De vier voordelen van een ESB voor zorginstellingen http:///item/810006/de-vier-voordelen-van-een-esb-voor-zorginstellingen.html&field=Foto1&rType=crop&height=165&width=165.jpg
Oracle organiseert Oracle Code evenementen voor cloudontwikkeling http:///item/809982/oracle-organiseert-oracle-code-evenementen-voor-cloudontwikkeling.html Als investering in haar ontwikkelaarscommunity introduceert Oracle een serie gratis evenementen onder de naam Oracle Code, waarin ontwikkelaars alles kunnen horen over de nieuwste technologieën, best practices en trends in de branche. Op 6 juni 2017 doet Oracle Code Brussel aan.

De Oracle Code evenementen bestaan uit een combinatie van keynotes, technische sessies en hands-on labs door vooraanstaanden in de branche, communityleden en Oracle-experts. Samen bieden ze ontwikkelaars inzichten waarmee ze gewapend zijn voor uitdagingen op het gebied van de cloud. Het eerste evenement in de serie vindt plaats op 1 maart 2017 in San Francisco. In totaal worden de Oracle Code-evenementen in 2017 gehouden in twintig steden in Noord-Amerika, Europa, Azië en Zuid-Amerika. Deelnemerregistratie en call for papers zijn per direct geopend. In de Benelux staat het evenement op 6 juni 2017 in Brussel gepland.

Expertise nodig
Er is geen organisatie of sector die niet te maken heeft met transformatie op het gebied van cloudcomputing. Ontwikkelaars hebben dan ook steeds vaker expertise nodig over zaken als cloudmigratie, management en cloud-native ontwikkelen. Ze zoeken manieren om snel applicaties te bouwen met microservices, API’s, containers, machine-learning, mobiele backends en chatbots, door moderne DevOps-processen in te zetten. Daardoor hebben ze omvangrijke en robuuste platformmogelijkheden nodig, waaronder big data en analytics, integratie, management en monitoring, mobility en Internet of Things (IoT). Ontwikkelaars willen de keus hebben uit elke programmeertaal, elke database, elk besturingssysteem, elke virtualiseringstechnologie en elke ontwikkelaarstool, waaronder open source en opties van derde partijen. Ze moeten de mogelijkheid hebben om in de cloud of on-premise te implementeren, met portabiliteit en interoperabiliteit.

Nieuwe open source technologieën
Tijdens Oracle Code leren ontwikkelaars over nieuwe en opkomende open source technologieën als Kafka/Spark, Docker/Kubernetes, diverse programmeertalen waaronder Java, Javascript/Node.js en Python/PHP, en databases als Cassandra/MongoDB, MySQL en Oracle. Sprekers op Oracle Code bieden technische, educatieve en pragmatische content en demonstreren de nieuwste ontwikkelaarstechnologieën via hands-on labs, interactieve sessies en demo’s. Daarnaast is er de mogelijkheid om te netwerken met ontwikkelaars van diverse achtergronden en niveaus.

Ga voor meer informatie en voor registratie naar developer.oracle.com/code.
De Call for Papers staat open.

]]>
Tue, 24 Jan 2017 13:54:34 +0100 Oracle organiseert Oracle Code evenementen voor cloudontwikkeling http:///item/809982/oracle-organiseert-oracle-code-evenementen-voor-cloudontwikkeling.html&field=Foto1&rType=crop&height=165&width=165.jpg
Oracle breidt Cloud Platform uit voor implementatie high-performance applicaties http:///item/809981/oracle-breidt-cloud-platform-uit-voor-implementatie-high-performance-applicaties.html Oracle breidt haar Oracle Cloud Platform verder uit om het voor klanten aantrekkelijker te maken bedrijfskritische applicaties naar de cloud te verplaatsen. Oracle komt met twee innovaties: de beschikbaarheid van de Oracle Database Cloud Service op bare-metal compute, en nieuwe mogelijkheden voor virtual machine compute, load balancing en storage, allemaal op hetzelfde low-latency, high-performance IaaS-platform.

Met deze uitbreidingen wil het Oracle Cloud Platform gedifferentieerde databaseperformance op elke schaal en diep geïntegreerde IaaS-mogelijkheden bieden. Deze opties zijn beschikbaar voor klanten van elke grootte, die ze kunnen inzetten voor het eenvoudig ontwikkelen, testen en implementeren van hun bedrijfskritische applicaties in de cloud.

Migratie
Volgens President Product Development Thomas Kurian van Oracle bieden de nieuwste investeringen in het Oracle Cloud Platform een duidelijke route voor ontwikkelen, testen en schalen van applicaties – met de Oracle Database of databases van andere partijen. “We bieden klanten de meest uitgebreide aanpak voor wat betreft migreren naar de cloud en het versnellen van hun bedrijfsstrategieën.”

Beheerde dienst
De Oracle Database Cloud Service is op zowel gevirtualiseerde als high-performance bare-metal compute-servers geschikt voor het ontwikkelen, testen en implementeren van enterprise-workloads. De onlangs geïntroduceerde Oracle Database Exadata Express Cloud Service biedt klanten een laaggeprijsde, volledig beheerde dienst – volgens Oracle ideaal voor ontwikkelaars, bedrijfsanalisten en middelgrote organisaties. De Oracle Database Exadata Cloud Service levert de performance die nodig is voor de opslag van bedrijfskritische data en voor transactionele databaseworkloads. Daarnaast stellen het ontwerp van Oracles infrastructuurplatform en zijn gedifferentieerde netwerk Oracle-klanten in staat de Oracle Database te laten draaien op dit IaaS-platform.

Uitbreiding
De nieuwe IaaS-diensten vormen een uitbreiding van de ondersteuning voor web-scale- en enterprise-applicaties. Oracle IaaS biedt nu één-, twee- en vier-core VM-varianten die draaien op hetzelfde low-latency, high-performance Virtual Cloud Network (VCN) als Oracles bare-metal compute-varianten, block volumes en object storage. Oracle zegt hiermee de eerste in de markt te zijn. Daarnaast zijn er met een nieuwe Load Balancing Service drie bandbreedtevarianten bij: 100 Mbps, 400 Mbps en 8 Gbps. Daarmee is te voorzien in verschillende behoeften op het gebied van applicatieverkeer, hoge-beschikbaarheid en beveiliging. Andere uitbreidingen zijn een nieuwe block storage-variant (2 TB) en versleuteling van data-at-rest voor object storage.

Meer informatie: Oracle

]]>
Tue, 24 Jan 2017 13:43:13 +0100 Oracle breidt Cloud Platform uit voor implementatie high-performance applicaties http:///item/809981/oracle-breidt-cloud-platform-uit-voor-implementatie-high-performance-applicaties.html&field=Foto1&rType=crop&height=165&width=165.jpg
Patrick Van Deven nieuwe Managing Director SAP Nederland http:///item/809980/patrick-van-deven-nieuwe-managing-director-sap-nederland.html Patrick Van Deven is benoemd tot Vice President & Managing Director van SAP Nederland BV. In deze functie is hij onder meer verantwoordelijk voor de versterking van de marktpositie en het verder vergroten van de groei van SAP in Nederland. Hij volgt Algemeen Directeur Caspar Joustra op, die is benoemd tot Senior Vice President Europe Middle East and Africa bij SAP SuccessFactors.
 
Patrick Van Deven (52 jaar) heeft ruime ervaring opgedaan als directeur. Hij trad in 2014 in dienst bij SAP België en Luxemburg, in de functie van Managing Director. Van Deven realiseerde in deze periode aanzienlijke groei, met name met de cloudproducten van SAP. Ook de klanttevredenheid steeg enorm. Daarvoor was hij 15 jaar werkzaam bij de internationaal opererende analytics-specialist SAS. Uiteindelijk vervulde hij van 2006 tot 2014 de rol van Managing Director.

Marktpositie
Met de aanstelling van Patrick Van Deven neemt SAP Nederland afscheid van Caspar Joustra. Joustra begon bij SAP Nederland in 2009, de laatste vier jaar was hij actief als Algemeen Directeur. Onder het leiderschap van Joustra is SAP Nederland sterk gegroeid en is de klanttevredenheid verbeterd, heeft SAP zijn marktpositie verstevigd en is SAP Nederland met de HANA-producten uitgegroeid tot belangrijk leverancier van databasebeheerplatforms in Nederland.
 
Verder uitbouwen
Die aspecten wil Van Deven verder uitbouwen. "SAP opereert in een groeimarkt", zegt Patrick Van Deven. "De digitale transformatie staat inmiddels bij het overgrote merendeel van de organisaties hoog op de agenda. Wij vervullen in dat innovatieklimaat een cruciale rol. We leveren niet alleen de benodigde technologie, zoals ons HANA-platform en de nieuwe suite S/4HANA, maar ook onze kennis, ervaring en businessinzicht. We denken met onze klanten mee over innovatieve toepassingen, baanbrekende projecten en nieuwe businessmodellen. Het is mijn doel dat de markt ons nog meer als zodanig erkent en herkent."

]]>
Tue, 24 Jan 2017 13:28:01 +0100 Patrick Van Deven nieuwe Managing Director SAP Nederland http:///item/809980/patrick-van-deven-nieuwe-managing-director-sap-nederland.html&field=Foto1&rType=crop&height=165&width=165.jpg
MarkLogic en Capgemini Nederland sluiten partnership http:///item/809629/marklogic-en-capgemini-nederland-sluiten-partnership.html MarkLogic gaat een samenwerking aan met Capgemini Nederland B.V., een onderdeel van Capgemini Group. Als onderdeel van het partnership wordt de database van MarkLogic een vast onderdeel van het dienstenaanbod van Capgemini in de Benelux. MarkLogic is aanbieder op het gebied van NoSQL-databases.
 
Big data wordt door veel organisaties vooral geassocieerd met omvangrijke data lakes. Een dergelijke data-infrastructuur kan echter zorgen voor veel complexiteit. Organisaties die optimaal gebruik willen maken van big data, en ook willen blijven voldoen aan wetgeving, kiezen daarom steeds vaker voor een NoSQL-database. Hiermee kunnen zij grote volumes aan heterogene data gesegmenteerd beheren, wat een uiterst flexibele en snel inzetbare informatiehuishouding oplevert.

Realtime inzicht
Zowel Capgemini als MarkLogic zijn sterk vertegenwoordigd in de financiële sector en de overheidsmarkt. In beide sectoren gelden strenge wettelijke regels voor databeheer, en is er bovendien veel behoefte aan realtime inzichten uit grote hoeveelheden data. Beide partijen verwachten dat organisaties in deze sectoren de komende jaren het meeste zullen profiteren van de samenwerking.

Hechte samenwerking
Volgens Arnout Arntz, CTO Financial Services Insights & Data bij Capgemini is dit partnership de kroon op een hechte samenwerking in de Benelux de afgelopen twee jaar. “MarkLogic vertegenwoordigt een nieuwe generatie databases die slimme integratie van data uit verschillende bronnen mogelijk maakt.”
Jurriaan Krielaart, Territory Director Northern Europe bij Marklogic meent dat organisaties steeds meer behoefte hebben aan NoSQL-databases die voldoen aan hun operationele en transactionele eisen, en daarnaast helpen om te blijven voldoen aan strenge wettelijke regels. “MarkLogic biedt hiervoor een ideale oplossing. We verwachten de komende tijd intensiever met Capgemini te gaan samenwerken om onze gedeelde klanten beter te kunnen bedienen.”

Meer informatie: MarkLogic

]]>
Tue, 24 Jan 2017 00:51:31 +0100 MarkLogic en Capgemini Nederland sluiten partnership http:///item/809629/marklogic-en-capgemini-nederland-sluiten-partnership.html&field=Foto1&rType=crop&height=165&width=165.jpg
Amsterdam School of Data Science gaat van start http:///item/809095/amsterdam-school-of-data-science-gaat-van-start.html Op vrijdag 24 maart vindt de opening plaats van de Amsterdam School of Data Science door wethouder en loco-burgemeester Kajsa Ollongren van Amsterdam. Tevens is er dan een mini-conferentie over de toekomst van Data Science onderwijs.

De Amsterdam School of Data Science is een initiatief van Amsterdam Data Science, een samenwerkingsverband van het CWI, de Universiteit van Amsterdam, de Vrije Universiteit en de Hogeschool van Amsterdam. Deze onderwijsinstituten presenteren momenteel meer dan 200 opleidingen gerelateerd aan Data Science.

Talent stimuleren
Vanwege de enorme vraag naar specialisten op dit gebied willen deze organisaties hun samenwerking verder uitbouwen. Doelstellingen van een nauwere samenwerking zijn onder andere:
- de Amsterdamse regio binnen Europa positioneren als gebied met sterke vertegenwoordiging van Data Science-kennis en -startups;
- op een plaats alle beschikbare opleidingen en programma’s in de regio Amsterdam presenteren;
- samenwerking verbeteren tussen bedrijfsleven, overheid en onderwijs om talent te stimuleren;
- het internationale netwerk van topinstituten uitbreiden voor uitwisseling van kennis en talent;
- naar diverse doelgroepen uitleggen wat de betekenis en mogelijkheden voor de arbeidsmarkt zijn van Data Science.

De bijeenkomst vindt plaats op vrijdag 24 maart om 15.00 uur in de Raadszaal van het Amsterdamse Stadhuis, Amstel 1. Registratie voor de opening is vereist.
Bijwonen en registratie voor de opening van de Amsterdam School of Data Science.

]]>
Mon, 23 Jan 2017 00:11:00 +0100 Amsterdam School of Data Science gaat van start http:///item/809095/amsterdam-school-of-data-science-gaat-van-start.html&field=Foto1&rType=crop&height=165&width=165.jpg
Transceptor Technology lanceert tijdreeksdatabase SiriDB http:///item/808878/transceptor-technology-lanceert-tijdreeksdatabase-siridb.html De Nederlandse startup Transceptor Technology heeft de tijdreeksdatabase SiriDB beschikbaar gemaakt. SiriDB is opgezet om time series data te analyseren en aggregeren vanuit elke bron, van IoT, financiële transacties tot elke andere tijdgebaseerde datameting.

SiriDB is een in native C geschreven open source database, bedoeld om grip te krijgen op eindeloze time series en is geoptimaliseerd om mee te groeien met insert en query behoeften. Time series data komen voor wanneer dezelfde metingen worden gedaan op een reguliere basis. Iedere meting over tijd voldoet volgens Transceptor Technology aan de term time series, voorbeelden zijn temperatuur, neerslag, cpu gebruik, aandelenkoers en zelfs zonnevlekken.

Time series database
Time series bestaan uit collecties van datapunten die meestal verzameld zijn op vaste tijdstippen. Deze datapunten kunnen worden gebruikt om te analyseren wat er in het verleden is gebeurt om zo de toekomst te voorspellen, of om een andere analyse uit te voeren. Deze analyses kunnen helpen bij het vinden van patronen, trends, cycli, afwijkingen, variabiliteit, tariefveranderingen en nog veel meer. SiriDB geeft de mogelijkheid om data snel te analyseren.

Features
Robuust - Het clusteringmechanisme van SiriDB voorziet in de mogelijkheid om de database te updaten en te onderhouden terwijl deze online blijft.
Schaalbaar - Een poolmechanisme kan pools on the fly toevoegen wanneer nodig. Wanneer er een pool wordt toegevoegd verdeelt de database automatisch de data over de beschikbare pools, zo worden alle capaciteiten optimaal benut.
Snel - SiriDB gebruikt een bijzonder algoritme om zo de time series data op te kunnen slaan zonder het gebruik van volumineuze indexen. Dit algoritme staat een eigen query taal toe om query’s te verspreiden over alle pools, dit versnelt het opvragen van data enorm.

SiriDB is als open source beschikbaar onder de MIT licentie, clusterfunctionaliteit inbegrepen.
Meer informatie op siridb.net of op github.

]]>
Mon, 23 Jan 2017 00:02:00 +0100 Transceptor Technology lanceert tijdreeksdatabase SiriDB http:///item/808878/transceptor-technology-lanceert-tijdreeksdatabase-siridb.html&field=Foto1&rType=crop&height=165&width=165.jpg
Journey Science in Telecom: Take Customer Experience to the Next Level http:///item/808902/journey-science-in-telecom-take-customer-experience-to-the-next-level.html Journey Science, being derived from connected data from different customer activities, has become pivotal for the telecommunications industry, providing the means to drastically improve the customer experience and retention. It has the ability to link together scattered pieces of data, and enhance a telco business’s objectives. Siloed approaches are becoming obsolete – take call centers as an example – there is only so much that you can do with data from only one system.

By using insights from customer journey analytics, telco businesses can better measure the user experience, and make informed decision for refining it. The data not only allow them to take proactive approach towards customer satisfaction, but enable the prediction of future failures as well. With customer journey analytics, you can evaluate the touchpoints to journeys, and revamp your strategies to better cater to customers’ needs.

In the telecom industry, it is difficult for a business to effectively manage the massive volume of data with the existing systems and technology. There are several aspects where telecom companies need to make improvements, such as reduce costs, improve customer experience, increase conversion rates, and many more. To do so, they need to derive meaning from the collected data by finding connections among them. This linked data is also known as journeys. Journeys provide you with relevant data that enable you to make well-grounded business decisions by looking at customer transactions as a whole, and determining where direct improvements are needed.

Customer Journey Analytics is Transforming Telecommunications

Many leading telco businesses are embracing the Journey Science concept, and deem it to be the best way to make greater impact on the target audience. One good way to better understand digital journeys is through a multi-channel, end-2-end, view. Journey Sciences, at its best, provides enhanced data accessibility and increased analytics agility, and helps in weaving together disparate pieces of data. This makes it possible for telco businesses to link together structured and unstructured data back to their strategic objectives, and quickly modify them to ensure they cope with the evolving customer demands. However, in order to get insight into customer experience through journey analytics, it is critical to focus not only on the individual moments but the customers’ end-to-end experiences as well.

Customer Experience Boost

The main benefit of customer journey analytics for telco companies is that it enables them to better recognize customer needs, and assess their satisfaction level. While most people think Journey Science is all about marketing, it mainly focuses on the services domain. For example, a customer seeking technical support for their device has multiple paths to resolution. Journey Science enables businesses to evaluate each step of the journey experience, and figure out the critical points that could negatively impact customer experience. With this kind of information, businesses can develop strategies to overcome hurdles customers face on all such touchpoints, resulting in improved customer experience.

Improving Customer Journeys through Transparency

Connecting the Dots

For improving customer experience, it is essential to connect all the data down to the individual customer level to fully understand the required changes. For telco businesses to completely understand customer journeys, they must gather data from many different channels, and track the individual journey the customer experiences. Typically, more than 50 percent of customers make multi-channel journeys; meaning, in order to understand their behavior, establishing connection among all the data is extremely important. Because of the deep roots of technology in today’s common lifestyle, many journeys start from digital channels, but eventually go into a human channel for completion.

Utilizing Aggregate and Raw Data

Apart from giving a complete picture of customer journeys, the analytics let you tap into different levels of aggregation, allowing you to view raw data as well. With journey mapping, telco businesses can benefit from both in-depth data points and aggregated data sets. Since a single customer journey can compile hundreds of thousands of data points, having aggregated views makes it much easier to pinpoint and prioritize the problematic areas. On the other hand, some journeys may yield unclear results, for example, unusual behavior of a customer on a webpage. In such a case, having access into the raw data renders the ability to focus on one key area and get invaluable insights.

Making Changes through Data Availability

Effective utilization of data from customer journey analytics allows telco to revamp their strategy as well as make smaller improvements on a continuous basis. Getting immediate feedback regarding a certain change is critical for understanding its impact. You can determine whether the intended results will be realized, or should you scale-up or sustain the change. However, a manual, project-based approach that only provides an overview of the required data will not be enough to transform journeys successfully. Instead, you should opt for an agile, iterative, analytic approach that uses continuous data availability.

It won’t be wrong to say that all those ad-hoc, manual, project-based approaches using snapshots of data have severe limitations.

vLoon01.jpg


Better data accessibility to more than 18 telco raw data sources as a prerequisite.


How the Customer Journey differs in both Fixed and Mobile Telco

Mobile (mobile data usage, subscriptions, charges, and mobile data access)

Several small customer journeys can be linked together to make improvements to a mobile telco operation. One great way is through customer engagement, i.e. moving down to individualized journeys of each customer instead of mass-segmentation. Journey Science opens doors for mobile telco companies to take personalization up a notch, and provide customized recommendations based on the journeys of each customer. You should also utilize real-time context to enhance customer engagement for better results.

Mobile customer experience comprises of several touchpoints where a subscriber interacts with a service provide agent – it can be during retail, billing, customer support, visible marketing campaigns, and others. Consider three customers below that have 3 different journeys to perform the same action.

vLoon02.jpg


Fixed line providers (phone, internet, entertainment).


Fixed line providers have an additional interaction channel with field technicians being deployed to customers’ homes for service. These field service appointments are a major part of customer experience and often have significant variability for different customers. Consider the following journey which involves multiple appointments, agent phone calls, and delays:

vLoon03.jpg


Improve key journeys for fixed Telco’s.

 
Journey Science is Moving towards Predictive Analytics

The Journey Science concept is increasingly becoming popular across the telco industry, as it greatly benefits by assessing journeys of individual customers and allow them to develop customized strategies. Moreover, it allows telco businesses to anticipate the potential pitfalls leading to negative customer experience and prevent it altogether. By tapping into the data from customer journey, telco can streamline their operations and provide a better, more satisfying experience to their customers.

vLoon04.jpg
Derived value from Customer Journey data by Journey Science & Journey Analytics.

In today’s world, customer satisfaction is the keystone for success in every industry, including telco. Businesses should turn to the Journey Science movement, and optimize their processes by carefully analyzing customer journeys and making improvements accordingly. Effective utilization of customer journey analytics leads to better redesigning efforts, ultimately reducing costs, enhancing customer experience, and stretching bottom-line.

Written with Rogier van Nieuwenhuizen, Executive Vice President EMEA at ClickFox.

]]>
Sun, 22 Jan 2017 16:13:54 +0100 Journey Science in Telecom: Take Customer Experience to the Next Level http:///item/808902/journey-science-in-telecom-take-customer-experience-to-the-next-level.html&field=Foto1&rType=crop&height=165&width=165.jpg
ServiceNow neemt machine-learning specialist DxContinuum over http:///item/807750/servicenow-neemt-machine-learning-specialist-dxcontinuum-over.html ServiceNow heeft de overname bekend gemaakt van DxContinuum, aanbieder van oplossingen op het gebied van machine learning. Als aanbieder in intelligente automatisering kan ServiceNow haar productiviteit voor klanten verhogen door machine learning mogelijkheden en datamodellen aan te bieden die door DxContinuum zijn ontwikkeld.

ServiceNow gaat de technologie van het in Silicon Valley gevestigde DxContinuum implementeren in het ServiceNow-platform en haar producten. De voorspellende modellen van DxContinuum moeten voor een hogere efficiëntie zorgen in het automatisch categoriseren van inkomende verzoeken van mens en machine.

Handmatige processen
Terwijl kunstmatige intelligentie en automatisering in hoog tempo de consumentenwereld veranderen – denk aan zelfrijdende auto’s en smart home-toepassingen – is er in de werkomgeving nog vaak sprake van handmatige processen, waarbij medewerkers dagelijks IT-problemen, HR-zaken, klantverzoeken en veiligheidswaarschuwingen afhandelen met behulp van e-mail, telefoontjes en spreadsheets. Uit onderzoek van McKinsey blijkt dat 49 procent van de tijd die besteed wordt aan dat werk geautomatiseerd kan worden, waardoor de productiviteit omhoog kan.

Automatische afhandeling
Omdat steeds meer IoT-devices serviceverzoeken doen, wordt het steeds belangrijker dat deze verzoeken zoveel mogelijk geautomatiseerd worden gecategoriseerd en beantwoord. Daarvoor zorgt de technologie van DxContinuum en ServiceNow, zodat honderdduizenden verzoeken van zowel machines als mensen nu effectief en automatisch afgehandeld worden en komt volgens ServiceNow de intelligente automatisering van processen die nu veelal nog handmatig gebeuren een stap dichterbij.
De overname wordt gedaan met een all-cash transactie die naar verwachting eind januari wordt afgerond.

Meer informatie: www.servicenow.com

]]>
Fri, 20 Jan 2017 13:35:48 +0100 ServiceNow neemt machine-learning specialist DxContinuum over http:///item/807750/servicenow-neemt-machine-learning-specialist-dxcontinuum-over.html&field=Foto1&rType=crop&height=165&width=165.jpg
Qlik neemt Idevio over en introduceert geavanceerde geo-analyse http:///item/807170/qlik-neemt-idevio-over-en-introduceert-geavanceerde-geo-analyse.html Qlik, aanbieder in visual analytics, neemt Idevio over, een Qlik partner en Zweedse leverancier van geografische software en diensten. Door de overname breidt Qlik haar bestaande kaartfunctionaliteit uit en biedt ze uitgebreide mogelijkheden voor geavanceerde geografische toepassingsscenario's.

Met behulp van gepatenteerde technologie om kaartgegevens te comprimeren en te streamen, kunnen gebruikers van Qlik Sense en QlikView nu verborgen geografische relaties aan het licht brengen. Hierdoor krijgen zij meer inzicht, kunnen zij betere beslissingen nemen en zo een hogere ROI realiseren. Details van de overname worden niet bekendgemaakt.

Clouddienst
De vraag vanuit de business naar gedetailleerde en uitgebreide geografische informatie groeit. Die behoefte gaat verder dan wat gratis diensten kunnen bieden. Idevio stelt Qlik gebruikers in staat om eenvoudig kaarten toe te voegen aan applicaties, waarbij relevante geo-data automatisch wordt opgehaald. Door vervolgens visualisaties over de kaarten te leggen, kunnen zij het complete verhaal dat schuilgaat in hun data ontdekken. Eenvoudige drill-down functies maken het mogelijk om bruikbare informatie te halen uit kaarten die veel informatie bevatten en bestaan uit miljoenen datapunten. Tevens is de cloud-dienst van Idevio - GeoAnalytics - inzetbaar om geo-data in combinatie met niet-geografische data te analyseren. Deze oplossing kan gebruikt worden voor diverse scenario’s, zoals vaststellen wat de beste winkellocaties zijn, het inzichtelijk maken van de omzet per postcodegebied en het berekenen van de levertijden.

Antwoord op de vraag ‘waar’
Met het associatieve model van Qlik kunnen alle mogelijke verbanden tussen data blootgelegd worden, inclusief de verbanden met geo-data. Gebruikers kunnen daarnaast:
• Betere locatiegerelateerde beslissingen nemen. Organisaties zijn voor veel belangrijke beslissingen afhankelijk van locatiegegevens, zoals de keuze van bedrijfslocaties, de inzet van personeel en het bepalen van levertijden. Kaarten bieden visuele context die Qlik gebruikers helpt om gefundeerde locatiegerelateerde beslissingen te nemen;
• Meer inzichten krijgen. Dankzij de snelle weergave van kaartgegevens kunnen gebruikers patronen ontdekken die in grafieken en tabellen moeilijk zichtbaar zijn;
• De productiviteit verhogen. Vanwege de mogelijkheid om locatiegegevens van onder andere steden, regio’s en landen te koppelen met de benodigde geo-data, kunnen gebruikers nu rijke en interactieve geo-visualisaties toevoegen aan de Qlik-applicaties.

Internet of Things
Volgens Anthony Deighton, CTO en SVP Products bij Qlik, genereren technologieën zoals Internet of Things enorm veel locatie-data. “De toenemende populariteit van deze technologie zorgt er echter voor dat veel organisaties uitdagingen ondervinden met het verzamelen en inzetten van al deze data. Wij willen een partner zijn die organisaties helpt om deze geo-data te analyseren en dat is mogelijk met de oplossingen van Idevio. De overname draagt bij aan de verdere ontwikkeling en introductie van onze oplossingen, zodat we onze klanten meer toegevoegde waarde kunnen bieden.”

Beschikbaarheid
IdeveoMaps, dat Idevio GeoAnalytics voor Qlik Sense en QlikView omvat, gaat verder onder de naam Qlik GeoAnalytics en is per direct verkrijgbaar. Een uitgebreide integratie met Qlik Sense staat gepland voor de tweede helft van 2017. Een video van de nieuwe functionaliteit is hier te bekijken.

Meer informatie: Qlik

]]>
Thu, 19 Jan 2017 11:44:57 +0100 Qlik neemt Idevio over en introduceert geavanceerde geo-analyse http:///item/807170/qlik-neemt-idevio-over-en-introduceert-geavanceerde-geo-analyse.html&field=Foto1&rType=crop&height=165&width=165.jpg
Databricks breidt uit en opent Amsterdamse vestiging http:///item/806718/databricks-breidt-uit-en-opent-amsterdamse-vestiging.html Databricks kondigt een internationale uitbreiding aan met de opening van twee nieuwe kantoren; in Amsterdam en Bangalore, India. Vanwege toenemende inzet van Spark gaan de twee kantoren wereldwijd service verlenen aan gebruikers van het Just-in-Time Data Platform, het op Apache Spark gebouwde cloudaanbod van Databricks.

De internationale Spark gemeenschap groeit en er is volgens CEO en mede-oprichter Ali Ghodsi van Databricks een overweldigende adoptie van het Spark-aanbod van Databricks. “De uitbreiding is een uitgelezen kans om internationaal talent aan ons te binden en onze wereldwijde klanten directer van dienst te zijn.”
Ion Stoica, voorzitter en mede-oprichter van Databricks, benadrukt dat er inmiddels 580 Spark meetup groepen zijn met gezamenlijk bijna 300.000 leden. “Ik ben blij met onze uitbreiding waardoor onze internationale aanwezigheid vergroot en de wereldwijde gemeenschap verstevigd worden.”

Query processing workloads
De nieuwe vestiging in het centrum van Amsterdam krijgt als functie een hub voor ontwikkeling, waarbij de nadruk zal liggen op performance optimalisatie voor query processing workloads binnen het Spark-gebaseerde platform van Databricks. Volgens Databricks zal het team in Amsterdam gaan bestaan uit experts op het gebied van database performance, die al reeds aan MonetDB- en Vectorwise-projecten hebben gewerkt. MonetDB en Vectorwise zijn beide projecten die vanuit het CWI in Amsterdam zijn opgestart.

Technologie Centrum
In Bangalore wordt het eerste Technologie Centrum van Databricks gevestigd, dat op verzoek van Europese en Aziatische klanten met expertteams 24x7 realtime ondersteuning gaat geven aan wereldwijd opererende bedrijven bij problemen met hun Spark productieplatformen.

]]>
Wed, 18 Jan 2017 15:22:03 +0100 Databricks breidt uit en opent Amsterdamse vestiging http:///item/806718/databricks-breidt-uit-en-opent-amsterdamse-vestiging.html&field=Foto1&rType=crop&height=165&width=165.jpg
DDMA legt focus op Europese regelgeving en technologische veranderingen http:///item/806669/ddma-legt-focus-op-europese-regelgeving-en-technologische-veranderingen.html De nieuwe Europese privacyregelgeving en de veranderingen in het marketingvak – zowel op creatief als technologisch gebied – zijn de belangrijkste aandachtspunten voor brancheorganisatie voor marketing en data DDMA in 2017. De hoofddoelstelling is daarbij onveranderd: de Nederlandse data- en marketingsector naar een hoger niveau tillen.

2017 is een cruciaal jaar voor de data- en marketingsector als het op privacyregelgeving aankomt. Per 25 mei 2018 treedt de Europese Algemene Verordening Gegevensbescherming (AVG) in werking. Op datzelfde moment treedt naar verwachting ook de nieuwe Europese telecomwet – de e-Privacy Verordening, waarvan het eerste voorstel deze maand naar buiten kwam – in werking. Beide nieuwe wetten hebben grote impact op de werkwijze van bedrijven en dat betekent dat dit jaar voor een groot deel in het teken staat van de voorbereiding daarop.

Europese regelgeving
DDMA gaat haar 275 leden met een voorlichtingsprogramma klaarstomen voor de nieuwe Europese regelgeving. Het DDMA Privacy Waarborg, dat nu up-to-date wordt gebracht, dient daarbij als een finale toets of een organisatie klaar is voor de verschillende wetswijzigingen. Volgens directeur Diana Janssen van DDMA dienen bedrijven zich aan de wet te houden en daar helpt DDMA ze bij. “Maar wij vinden het ook belangrijk dat organisaties actief werken aan het vertrouwen van consumenten en verder kijken dan alleen wetgeving. Een datastrategie is onmisbaar. We streven een duurzame data-economie na en daarin hoort een consument te weten waar hij aan toe is en wat er precies met zijn gegevens gebeurt.”

Het veranderende marketingvak
Technologische ontwikkelingen zorgen er daarnaast voor dat het marketingvak continu aan verandering onderhevig is. In 2017 zal DDMA nadrukkelijker aandacht besteden aan de overlap tussen technologie en creatie. “Uitgangspunt hierbij is de overtuiging dat bedrijven zich in de toekomst niet met technologie zullen onderscheiden, maar met creativiteit”, zegt Janssen. “In 2017 besteden we uitgebreid aandacht aan dit onderwerp. Dat betekent overigens niet dat we geen aandacht meer aan nieuwe technologieën zelf besteden, integendeel. Alle aspecten van het vak komen aan bod.”

Dertig nieuwe leden
DDMA streeft een zo breed mogelijke vertegenwoordiging van de data- en marketingsector na. De achterban, bestaande uit 275 adverteerders, dienstverleners en non-profitorganisaties, groeide afgelopen jaar met dertig leden, waaronder Samsung en TNT. De brancheorganisatie verwacht dat deze groei in 2017 verder toeneemt. Janssen: “Dit verschaft ons een brede basis om te blijven strijden voor een duurzame data-economie waar zowel consumenten als bedrijven van profiteren. Tegelijkertijd vergroten we zo de waarde van het DDMA-lidmaatschap, onder meer door de toename van netwerkmogelijkheden en kennis”, aldus Janssen.

]]>
Wed, 18 Jan 2017 13:01:27 +0100 DDMA legt focus op Europese regelgeving en technologische veranderingen http:///item/806669/ddma-legt-focus-op-europese-regelgeving-en-technologische-veranderingen.html&field=Foto1&rType=crop&height=165&width=165.jpg
Enable-U organiseert API Strategy Conference voor de overheid http:///item/806202/enable-u-organiseert-api-strategy-conference-voor-de-overheid.html Op dinsdagmiddag 7 februari 2017 organiseert Enable-U, integratiespecialist voor de Nederlandse overheid, de API Strategy Conference in Den Haag. Na een programma van parallelsessies worden deelnemers begeleid in het vormgeven van hun eigen API-strategie tijdens een workshop.

De centrale en lokale overheid moet steeds vaker digitale informatie vanuit hun applicaties delen met ketenpartners, (cloud)applicatieleveranciers en andere overheidsorganisaties. Tijdens deze conferentie krijgen verantwoordelijken voor (digitale) dienstverlening, CIO’s, CISO’s informatiemanagers, architecten en securityspecialisten handvatten om op een veilige en beheersbare manier informatie te delen en te ontsluiten in de keten met behulp van API’s. Op die manier kunnen zij beter samenwerken en digitale overheidsdiensten naar een hoger plan tillen. De API Strategy Conference is kosteloos voor deelnemers en vindt plaats in Igluu Den Haag.

Inhoud conferentie
In het licht van het thema ‘creating new value together’ wordt – na een gezamenlijke opening – in een specifieke track dieper ingegaan op de potentie van API’s en hoe deze het beste verzilverd kan worden. Tijdens de tracks komen ook praktijkverhalen aan bod van onder andere CIBG en Alliander. In de sessies toegespitst op de overheid wordt er in het bijzonder aandacht besteed aan:
- Ketenintegratie: veilig informatie delen binnen en tussen overheidsorganisaties
- Identity & Access Management voor bescherming van privacygevoelige informatie
- Bruikbaar maken van ‘Open Data’ en ‘Closed Data’ via API’s
- Smart Government en Smart Cities
- Performance Management

Volledige programma
12:00 – 13:00 Inloop met lunch
13:00 – 13:25 Openingswoord door Frank Arts, CEO Enable-U
13:25 – 13:50 Keynote. Enable Your API Strategy: the API Strategy Program - Kees Neven, CSO Enable-U
13:50 – 14:30 Keynote. The Architecture of Innovation (Engels) - Ronnie Mitra, Director of API Design CA Technologies
14:30 – 15:00 Break-out track 1 – cases
Edward Kuenen - CIBG /VWS: API's en beheerst ontsluiten van privacygevoelige data
Arie Luijendijk- Alliander: API's en de transformatie van de energiemarkt
Mounaim Cortet - Innopay: API's en PSD2: revolutie in finance
Johan Krijgsman - Nictiz: API's voor verbeterde informatie-uitwisseling in de zorg
15:05 – 15:55 Break-out track 2
Ruud Koreman - Enable-U: Enable API's binnen de overheid
Michiel Helder - Enable-U: Enable API's in slimme energietoepassingen
Jan-Jaap Zoutendijk - Enable-U: Enable API's in finance & insurance
Orlando van Amson - Enable-U: Enable API's in de zorg
15:55 – 16:55 Workshop The API Business Model Canvas - Kees Neven, CSO Enable-U
16:55 Slotwoord. Enable Your API Strategy: the next steps - Christoffel Klimbie, Accountmanager Enable-U
17:00 – 18:00 Netwerkborrel & einde

Na de parallelsessies worden deelnemers begeleid in het vormgeven van hun eigen API-strategie tijdens de workshop The API Business Model Canvas.

Datum en locatie
De API Strategy Conference vindt plaats op dinsdag 7 februari van 12.00 uur tot 17.30 uur in Igluu Den Haag. Igluu is gevestigd in een historisch pand aan het Louis Couperusplein 2, 2514 HP Den Haag. De locatie is goed te bereiken met het openbaar vervoer en heeft voldoende gratis parkeerplekken. Er is ruimte voor een beperkt aantal deelnemers.
Aanmelden kan via de website van Enable-U.

]]>
Tue, 17 Jan 2017 17:52:58 +0100 Enable-U organiseert API Strategy Conference voor de overheid http:///item/806202/enable-u-organiseert-api-strategy-conference-voor-de-overheid.html&field=Foto1&rType=crop&height=165&width=165.jpg
Glassbeam kondigt ondersteuning aan voor Tableau 10 http:///item/806134/glassbeam-kondigt-ondersteuning-aan-voor-tableau.html Big Data platform Glassbeam heeft ondersteuning voor Tableau 10 aangekondigd, waardoor gebruikers voorzien worden van verbeterde data mashups, datavisualisatie en dashboard-mogelijkheden voor oplossingen die met Glassbeam IoT Analytics zijn gebouwd. Glassbeam is aanbieder van cloudgebaseerde machine data analytics software voor de IoT-industrie.

Glassbeam was al reeds Tableau OEM partner sinds de lancering van haar cloudgebaseerde analytics software, waardoor high performance analyse van relevante machine data mogelijk werd gemaakt. De datatransformatie engine van Glassbeam kan zeer complexe machine gegenereerde data in gestructureerde formaten omzetten. Deze data kunnen vervolgens met behulp van Tableau inzichtelijk gemaakt worden.

Innovatieve toepassing
Met Tableau versie 10 breidt Glassbeam de integratie uit met interactieve dashboards en verbeterde data mashups en datavisualisatie. Volgens Stephanie Richardson, Director of Product Marketing bij Tableau, levert de combinatie van Glassbeam en Tableau een innovatieve toepassing van Tableau’s mogelijkheden voor de opkomende Internet of Things industrie. Puneet Pandit, CEO en oprichter van Glassbeam, beaamt dat het aanbod van Glassbeam, ondersteund door Tableau, een krachtige combinatie is van machine data analyse en uitstekende datavisualisatiemogelijkheden.

Meer informatie: Glassbeam

]]>
Tue, 17 Jan 2017 14:24:16 +0100 Glassbeam kondigt ondersteuning aan voor Tableau 10 http:///item/806134/glassbeam-kondigt-ondersteuning-aan-voor-tableau.html&field=Foto1&rType=crop&height=165&width=165.jpg
Salesforce doet tien voorspellingen over commerce in 2017 http:///item/806112/salesforce-doet-tien-voorspellingen-over-commerce-in.html Geen bedrijfstak verandert sneller dan de retailsector. Wie had vijf jaar geleden gedacht dat een bestelling nu ook per drone afgeleverd kan worden? De retailindustrie groeit gestaag door en wie hier niet in meegaat, bestaat straks waarschijnlijk niet meer. Salesforce Commerce Cloud voorspelt op basis van zijn wereldwijde samenwerking met retailpartners de tien belangrijkste commerce-trends in 2017.

Volgens Rick Kenney, Head of Consumer Insight bij Salesforce Commerce Cloud, zijn de voorspellingen door vakexperts gedaan, op basis van dagelijkse gesprekken met technologiepartners, opinieleiders en grote retailers:

1. De opkomst van de flexibele winkel
De druk op fysieke winkels om te veranderen wordt alsmaar groter. Het aantal traditionele winkelpanden neemt af, maar we zien een toename van winkels in niet-traditionele formats, zoals pop-up stores en mobiele winkels. Alle ogen zijn in 2017 gericht op de pioniers die stappen zetten in deze richting.

2. Chatbots en Artificial Intelligence (AI) vormen samen killer-app voor mobiele commerce
De inzet van AI chatbots die commerce op mobiele platforms faciliteren, groeit sterk. De bots zijn standaard aanwezig tijdens de gehele customer journey. Dit geldt voor organisaties uit alle branches. Een aantal voorbeelden:
- Retailers maken chatbot-diensten voor messaging platforms, zodat de ervaring van de klant zowel in de winkel als online verbetert
- Leveranciers van telefoons implementeren native AI-applicaties in nieuwe toestellen
- Halfgeleider-bedrijven geven miljarden uit aan deep-learning chips
- Bedrijven als Google, Facebook, IBM en Apple doen enorme investeringen op het gebied van chatbots en AI

3. Het gebruik van de mobiele portemonnee neemt toe
Het aantal pinautomaten neemt sterk af. Mensen willen geen contant geld meer op zak hebben, maar betalen liever met pinpas of creditcard of via hun mobiele telefoon. Volgens het onderzoek ‘The Future of Money’ verwacht de consument over een aantal jaar voornamelijk via mobiele apparaten te betalen.

4. De APAC-regio gaat voorop in virtual en augmented reality
Noord-Amerika is de uitvinder van virtual reality (VR), maar China vormt in 2017 het epicentrum van de groei van de wereldwijde VR-markt. Investeringsmogelijkheden in China zijn er in overvloed en investeren in de Chinese markt is aantrekkelijk. Er is ruimte voor grote productie, kosten zijn laag en er is veel internationale support voor de ontwikkeling van VR. Alibaba en Taobao zijn marktleiders in VR-commerce en investeren aanzienlijk in ‘VR-winkels’. Zo realiseerde Alibaba recent op Singles Day, het jaarlijkse koopjesfestijn in China, voor het eerst een virtuele winkelervaring.

5. Grote investeringsverschuiving om thuisbezorging te versnellen
Amazon heeft bij de consument de verwachting geschept dat pakketjes binnen afzienbare tijd op de dag van de bestelling kunnen worden bezorgd. Om deze verwachting waar te kunnen maken, is een grote investeringsverschuiving nodig. Ordermanagement-oplossingen en samenwerkingen met partners maken deze ontwikkeling mogelijk. Versnelde bezorging is dé manier om je als bedrijf te onderscheiden van de concurrentie.

6. Stem wordt dé user interface voor winkelen
Consumenten gebruiken steeds vaker spraak gestuurde services zoals Alexa van Amazon, Allo van Google en Apple’s Siri. Ze gebruiken deze diensten niet alleen om te zoeken naar de beste producten of diensten, maar ook om ze daadwerkelijk te kopen. Het typen, tikken en swipen neemt sterk af door de inzet van deze spraakassistenten, omdat het gebruik ervan gewoonweg gemakkelijker is.

7. Online bestellen en in de winkel ophalen: zo gemakkelijk als het klinkt
De fysieke winkel experimenteert met selfservice check-outs en andere mogelijkheden om online bestellingen gemakkelijk en snel bij de consument af te leveren. Een voorbeeld is Walmart; bij de Amerikaanse supermarktgigant kunnen consumenten hun online bestelling ophalen via een automaat die vergelijkbaar is met een frisdrankautomaat.

8. Wereldwijde merken die investeren in Europa vermijden volwassen markten als het Verenigd Koninkrijk, Duitsland en Frankrijk
Grote merken richten zich meer op nichemarkten zoals Portugal en België. De volwassen markten worden gedomineerd door lokale spelers en succesvol worden in een dergelijk land leidt tot grote investeringen met minder resultaat. Luxe merken zetten meer in op de Russische markt waar steeds vaker online wordt gekocht.

9. Klantgerichtheid: verantwoordelijkheid van iedereen
Klantgerichtheid is een individuele verantwoordelijkheid en van groot belang op ieder niveau in een organisatie. Dit betekent een verandering in de functieomschrijving van veel medewerkers en ook de opkomst van nieuwe rollen, zoals Chief Customer Officer. Medewerkers worden aangenomen op attitude en daarna getraind op vaardigheden in plaats van dat zij worden aangenomen op hun vaardigheden.

10. Klant-geobsedeerde merken en retailers dumpen ‘best-of-breed’-oplossingen
‘Best-of-breed’-oplossingen worden vervangen door geïntegreerde platformen die de consument begeleiden gedurende het gehele consumentenproces - van productverkenning tot aankoop en ontvangst. Elke customer journey is uniek en de enige manier om de klant goed te begeleiden, is door de context van de volledige journey te begrijpen.

]]>
Tue, 17 Jan 2017 13:48:03 +0100 Salesforce doet tien voorspellingen over commerce in 2017 http:///item/806112/salesforce-doet-tien-voorspellingen-over-commerce-in.html&field=Foto1&rType=crop&height=165&width=165.jpg
Pyramid Analytics sluit partnerschap met MagnaVersum http:///item/806090/pyramid-analytics-sluit-partnerschap-met-magnaversum.html Pyramid Analytics heeft een samenwerking gesloten met MagnaVersum, leverancier van BI & Analytics en App-services. Consultants van MagnaVersum zijn rond de jaarwisseling getraind door Pyramid Analytics om zich te bekwamen in BI Office. MagnaVersum heeft een positie opgebouwd in de Nederlandse gezondheidszorg en wil in 2017 met Pyramid Analytics haar horizon verbreden.

De samenwerking tussen MagnaVersum en Pyramid Analytics werd officieel beklonken nadat vijf consultants hun BI Office-training succesvol hadden afgerond. Volgens Angelika Klidas, Chief Business Officer bij MagnaVersum, ziet haar organisatie veel meerwaarde in de samenwerking met Pyramid Analytics. “Wij hanteren een multi-product strategie en geloven in de enterprise-oplossing die Pyramid Analytics biedt. Onze consultants waren vanaf het begin erg enthousiast over BI Office. Voor ondernemingen die geïnvesteerd hebben in Microsoft-technologie en hun BI-oplossingen willen verbinden met on-premise data is het eigenlijk een no-brainer.”

Slimmere en efficiëntere organisaties
MagnaVersum levert advies en digitale oplossingen rond Business Intelligence en analytics. Vanaf januari gaat MagnaVersum het analytics-platform van Pyramid Analytics aan klanten aanbieden. “Business intelligence en analytics is geen ‘one size fits all’. Met de uitbreiding van ons productportfolio met BI Office zijn wij in staat om onze klanten nog beter op maat te bedienen,” aldus Angelika Klidas, Chief Business Officer bij MagnaVersum.

Toegevoegde waarde
Klidas verwacht dat BI Office in het bijzonder aantrekkelijk zal zijn voor Microsoft Enterprise ondernemingen: “Deze ondernemingen hebben veelal een zogeheten ‘Microsoft-tenzij-beleid’. Hierdoor is het mogelijk om BI Office on-premise neer te zetten, en externe met interne data te combineren, waarmee waarde toegevoegd kan worden voor de organisatie. Het slimmer en efficiënter maken van de organisatie en haar medewerkers zie ik als een groot speerpunt.”
Ook Herbert Ochtman, mede-oprichter en EVP of Business Development van Pyramid Analytics, is erg enthousiast over de samenwerking: “MagnaVersum is een jong en innovatief bedrijf dat organisaties helpt om met moderne digitale oplossingen meer waarde te halen uit hun data. Ze begrijpen de toegevoegde waarde van BI Office voor enterprise-organisaties en zijn daarmee een heel mooie aanvulling op ons partner-ecosysteem.”

MagnaVersum heeft de diensten en consultancy rond Pyramid Analytics per direct officieel opgenomen in haar productportfolio.

]]>
Tue, 17 Jan 2017 12:43:34 +0100 Pyramid Analytics sluit partnerschap met MagnaVersum http:///item/806090/pyramid-analytics-sluit-partnerschap-met-magnaversum.html&field=Foto1&rType=crop&height=165&width=165.jpg
KHMW en Big Data Alliance starten inschrijving Nederlandse Data Science Prijzen http:///item/805562/khmw-en-big-data-alliance-starten-inschrijving-nederlandse-data-science-prijzen.html De Koninklijke Hollandsche Maatschappij der Wetenschappen (KHMW) en de Big Data Alliance (BDA) reiken in 2017 voor het eerst de Nederlandse Data Science Prijzen uit. De initiatiefnemers willen hiermee Nederland op de kaart zetten als hét data science-land bij uitstek en daarbij ondernemerschap en wetenschappelijk onderzoek stimuleren.

De potentiële waarde van data voor de Nederlandse economie wordt op 45 miljard euro geschat, terwijl bedrijven zitten te springen om talent – volgend jaar wordt een tekort van 8.000 data scientists verwacht door Nationale Denktank. Volgens voorzitter Alexander Rinnooy Kan van de Big Data Alliance spelen Nederlandse bedrijven en onderzoekers een absolute voortrekkersrol op dit vlak. “Daarom hebben de KHMW en de BDA, in samenwerking met de bedrijven AIMMS, EY, Lubbers De Jong, Microsoft en ORTEC, de Nederlandse Data Science Prijzen in het leven geroepen. Ons doel is al het uitzonderlijke innovatieve ondernemerschap en wetenschappelijke onderzoek op het gebied van data science in de schijnwerpers te zetten. We verwachten dan ook dat het niveau van de inschrijvingen erg hoog zal liggen.”

Kans op 5.000 euro
De Nederlandse Data Science Prijzen zijn onderverdeeld in drie categorieën. Ondernemingen die korter dan vijf jaar bestaan en op innovatieve wijze data science toepassen, maken kans op de Anthony Fokker Prijs. Deze start-up-prijs is vernoemd naar de Nederlandse luchtvaartpionier Fokker die ruim honderd jaar geleden in Haarlem zijn eerste start-up opzette. Onderzoekers die tussen januari 2014 en januari 2017 zijn gepromoveerd, dingen mee naar de Gerrit van Dijk Prijs, vernoemd naar de bekende Nederlandse wiskundige. Aan beide prijzen is een geldbedrag van 5.000 euro verbonden. De Hendrik Lorentz Prijs is bedoeld voor een organisatie binnen het bedrijfsleven of de overheid die op een onderscheidende en innovatieve manier data science toepast. Naamgever Hendrik Lorentz, voormalig secretaris van de KHMW, won in 1902 de Nobelprijs voor de Natuurkunde.

Inzendingen
Voor alle categorieën dienen inzendingen voor 21 maart 2017 te worden ingediend. De uitreiking van de Nederlandse Data Science Prijzen vindt plaats op 8 juni 2017 in het Hodshon Huis, de zetel van de KHMW in Haarlem. Het programma van het evenement wordt later bekendgemaakt.

Meer informatie: Big data Alliance

]]>
Mon, 16 Jan 2017 13:48:43 +0100 KHMW en Big Data Alliance starten inschrijving Nederlandse Data Science Prijzen http:///item/805562/khmw-en-big-data-alliance-starten-inschrijving-nederlandse-data-science-prijzen.html&field=Foto1&rType=crop&height=165&width=165.jpg
KPMG: Private financiers steken minder durfkapitaal in startups http:///item/803803/kpmg-private-financiers-steken-minder-durfkapitaal-in-startups.html Startups hebben in 2016 wereldwijd aanzienlijk minder durfkapitaal opgehaald bij private financiers dan in 2015, blijkt uit het rapport Venture Pulse Q4 2016 van KPMG. In 2016 was voorzichtigheid troef bij investeerders.

In 2016 investeerden durfkapitalisten voor een bedrag van 140,6 miljard dollar in startups, zo’n 10 procent minder dan de 127,4 miljard dollar die in 2015 geïnvesteerd werd, meldt accountantweek.nl in een bericht op haar website. Het aantal transacties nam fors af, van bijna 18.000 deals in 2015 tot ruim 13.500 transacties in 2016. Vooral in de Verenigde Staten daalde de waarde van de investeringen aanzienlijk, van 79 miljard dollar in 2015 tot 69 miljard dollar in 2016.

Stabiel
In Azië en Europa bleven de investeringen nagenoeg stabiel. In Azië werd net als in 2015 voor een bedrag van 39 miljard dollar in startups geïnvesteerd, in Europa nam het totale bedrag licht af, van 18 miljard dollar in 2015 tot 16 miljard dollar in 2016. Het aandeel van grote ondernemingen in de investeringen blijft toenemen. In 2016 namen corporates wereldwijd 15 procent van de totale investeringen in startups voor hun rekening. Daarmee was een bedrag gemoeid van 65 miljard dollar. In 2015 was dit nog 13 procent en een totale investering van 60 miljard dollar.

Serieus businessplan
Volgens Daniël Horn van KPMG Innovative Startups was in 2016 voorzichtigheid troef bij investeerders. “In 2015 waren veel investeerders nog vooral bezorgd over het feit dat zij wellicht de boot zouden missen met hun investeringen. In de tweede helft van vorig jaar zijn private financiers duidelijk veel selectiever geworden en hebben zij veel meer tijd genomen om serieus na te denken over mogelijke investeringen. Daarbij ging de aandacht vooral uit naar startups met een serieus businessplan en een aantoonbare strategie om winstgevendheid te genereren. Startups realiseren zich dan ook in toenemende mate dat zij zeer kritisch op hun bedrijfsvoering moeten als zij investeerders willen aantrekken. Investeerders zoeken startups met ‘tractie’, een aantal getekende opdrachten kunnen net het verschil maken voor de interesse van een investeerder.”

Belang startups
Europese overheden realiseren zich in toenemende mate hoe belangrijk het is om startups te ondersteunen, vooral na de eerste levensfase, de ‘seed stage’. Horn: “In de laatste drie maanden van 2016 namen met name de Duitse en Franse overheid een belangrijke maatregel om het ecosysteem te stimuleren. De overheden kondigden de gezamenlijke oprichting aan van een investeringsfonds van €1 miljard om startups te helpen groeien na de opstartfase. De fase na de seed stage vormt voor veel startups een moeilijke en uitdagende periode. Aanvullend kapitaal moet de bedrijven in staat stellen om zich na de opstartfase te blijven ontwikkelen, waardoor een duurzamer ecosysteem voor startups ontstaat.”

Europese techhubs
In Europa worden de verschillende techhubs steeds volwassener en vooral in Scandinavië en Frankrijk ontwikkelen zich nieuwe centra. Bovendien komen de gevestigde hubs in bijvoorbeeld Duitsland, het Verenigd Koninkrijk, Ierland en Israël tot steeds grotere wasdom. Horn: “Deze ontwikkelingen bieden veel perspectief voor de startup investeringen in het nieuwe jaar. Overigens verwacht ik de komende tijd wel enige consolidatie in de markt. Grote bedrijven zullen vanuit strategisch oogpunt startups willen overnemen. Vooral in Europa is een aantal goed gekapitaliseerde bedrijven, waardoor fusies en overnames voor de hand liggen.”

Bekijk hier het rapport Venture-Pulse-Q4-2016 van KPMG.

]]>
Fri, 13 Jan 2017 02:26:52 +0100 KPMG: Private financiers steken minder durfkapitaal in startups http:///item/803803/kpmg-private-financiers-steken-minder-durfkapitaal-in-startups.html&field=Foto1&rType=crop&height=165&width=165.jpg
VCD IT Groep presenteert kennisplatform Industrie Verbinding http:///item/803779/vcd-it-groep-presenteert-kennisplatform-industrie-verbinding.html ICT-dienstverlener VCD IT Groep heeft het kennisplatform Industrie Verbinding gelanceerd. De website van het platform nodigt organisaties uit om met elkaar in gesprek te gaan over actuele ICT-vraagstukken in de industrie.

Van blogs tot e-books: de bezoeker kan zich volledig inlezen op het gebied van verschillende actuele thema’s zoals Smart Industry, innovatie, security en cloud. VCD IT Groep hoopt met het platform antwoorden te bieden op veel gestelde vragen en een koppeling tussen IT en industrie te leggen. Onderwerpen komen aan bod die voor de industrie relevant zijn zoals smart data, effect van data analytics, robotisering, Big data en IoT.

Uiteenlopende industrieën
Naast de verschillende thema’s is er ook aandacht voor de verscheidene subindustrieën zoals de chemische industrie en de machinebouw. VCD IT Groep onderscheidt in totaal vijf industrieën die veel onderlinge verschillen kennen, maar vooral ook overeenkomen in één belangrijke vraag: hoe kan ICT mijn organisatie verder helpen? Op www.industrieverbinding.nl is een grote hoeveelheid relevante informatie op het snijvlak van IT en industrie te vinden.

]]>
Fri, 13 Jan 2017 01:59:59 +0100 VCD IT Groep presenteert kennisplatform Industrie Verbinding http:///item/803779/vcd-it-groep-presenteert-kennisplatform-industrie-verbinding.html&field=Foto1&rType=crop&height=165&width=165.jpg
Vijftig teams strijden in driedaagse Dutch Blockchain Hackathon http:///item/803778/vijftig-teams-strijden-in-driedaagse-dutch-blockchain-hackathon.html Van 10 tot 12 februari vindt in Groningen de driedaagse Dutch Blockchain Hackathon plaats. Deze Hackathon wordt ondersteund door een groot aantal bedrijven en overheidsorganisaties en daagt teams uit om de beste Blockchain-gebaseerde oplossingen te presenteren.

Vijftig teams gaan met elkaar concurreren om een prijzenpot van 50.000 euro. Dat gebeurt binnen de vijf tracks Identity, Energy, Future of pensions, Reinventing Government en International trade & entrepreneurship. Op vrijdag 10 februari wordt Dutch Blockchain Hackathon geopend door ambassadeur Prins Constantijn van StartupDelta en initiator en directeur Rutger van Zuidam van DutchChain, waarna per track een briefing volgt en de strijd begint. Zondag 12 februari zijn de finale pitches en worden de prijzen uitgereikt, 10.000 euro per track. Dutch Blockchain Hackathon vindt plaats in The Big Building, Achterweg 1 te Groningen. Op de website van Dutch Blockchain Hackathon kan men zich registreren, elk teamlid moet dat persoonlijk doen.

Pre-Hackathon meetup
Op 18 januari is er een Pre-Hackathon meetup bij Deloitte in Rotterdam, waarbij onder andere vertegenwoordigers van de AFM en De Nederlandsche Bank de Innovation Hub presenteren. De community van de Dutch Blockchain Hackathon telt inmiddels meer dan 700 leden.

Overbruggen
De Dutch Blockchain Hackathon wil de kloof overbruggen tussen organisaties en op Blockchain gebaseerde oplossingen stimuleren binnen het hele ecosysteem van overheden, bedrijven, wetenschap en startups. De adviesraad van de Dutch Blockchain Hackathon bestaat uit Bas Eenhoorn, Peter den Oudsten, Claudia Zuiderwijk, Willem Vermeend, René Penning de Vries, Lex Hoogduin en Mark Buitenhek.
De Dutch Blockchain Hackathon wordt ondersteund door een groot aantal zakelijke en bestuurlijke partners waaronder Deloitte, AFM, ING, Gemeente en Provincie Groningen, Ministerie van Economische Zaken, Kamer van Koophandel, Nederlandse Gasunie, Exact, De Nederlandsche Bank, APG, IBM, Holland Fintech, Dutch Digital Delta, Microsoft, Nuon, PGGM en enkele andere.

Meer informatie: Dutch Blockchain Hackathon

]]>
Fri, 13 Jan 2017 01:46:06 +0100 Vijftig teams strijden in driedaagse Dutch Blockchain Hackathon http:///item/803778/vijftig-teams-strijden-in-driedaagse-dutch-blockchain-hackathon.html&field=Foto1&rType=crop&height=165&width=165.jpg
Talend lanceert Winter '17 release van Talend Data Fabric http:///item/803569/talend-lanceert-winter-release-van-talend-data-fabric.html Talend kondigt de Winter '17 release van Talend Data Fabric aan. Dit platform vereenvoudigt de samenwerking tussen business en IT om datagestuurde besluitvorming te bevorderen. Het geïntegreerde platform biedt nieuwe functionaliteiten om big data te prepareren, waardoor medewerkers toegang krijgen tot grote datasets en hebben zij de mogelijkheid om deze data eenvoudig op te schonen, te bewerken en te analyseren.

De nieuwe versie komt ook met een intuïtieve selfservice Data Stewardship app die organisaties helpt om boetes en sancties te voorkomen als gevolg van problemen met data-integriteit. Verder is Winter ’17 uitgerust met Spark 2.0 innovaties voor Talend Big Data en Talend Integration Cloud. Hiermee versnellen organisaties hun bedrijfsprocessen en kunnen zij hun omgeving eenvoudig moderniseren om het hoge tempo van de technologische ontwikkelingen bij te benen.
 
Data lakes
Gartner Research stelt dat tussen nu en 2018 negentig procent van alle data lakes niet langer bruikbaar, omdat ze veel informatie bevatten die is verzameld zonder duidelijke use case. ”Hoewel data lakes diverse voordelen bieden en vaak een eerste stap zijn in de digitale transformatie van organisaties, brengen ze ook nieuwe uitdagingen met zich mee op het gebied van governance, kwaliteit, herkomst en toegang.
Volgend Chief marketing officer Ashley Stirrup bij Talend moeten organisaties de manier waarop zij data inzetten en uitwisselen ingrijpend veranderen om een boost te geven aan de digitalisering. “Het mooie van een data lake is dat het niet uitmaakt of deze is ondergebracht in Hadoop, on premise, of in de cloud. Door de centrale opslagplaats kunnen organisaties aanzienlijk meer informatie opslaan tegen lagere kosten en meer inzichten verkrijgen. De nieuwe Talend Data Fabric stoomt organisaties klaar voor de volgende fase in hun digitale transformatie. Door de samenwerking tussen business en IT te bevorderen kunnen data lakes transformeren naar relevante en betrouwbare data, waardoor medewerkers sneller en beter gefundeerde beslissingen nemen.”

Datapreparatie voor Big Data
De nieuwe versie van Talend Data Fabric stelt de IT-afdeling in staat om de business toegang te geven tot data en functionaliteiten waarmee zij data sneller kunnen prepareren en opschonen. Met de nieuwe mogelijkheden voor datapreparatie voor Talend Big Data kunnen organisaties:
• Toegang krijgen tot iedere databron, zowel in Hadoop, de cloud of traditionele databases. Ook kunnen gegevens gedeeld worden met individuele of groepen gebruikers om samenwerking aan te moedigen.
• Op grote schaal data prepareren met Spark 2.0 en Hadoop.
• Een vooraf geconfigureerd datawoordenboek om de betekenis van ruwe data uit data lakes automatisch te herkennen. Gebruikers kunnen ook hun eigen ‘vocabulaire’ (zoals productcodes en -namen) hieraan toevoegen.
• Nieuwe datadefinities verwerven met behulp van crowdsourcing via open data en/of de Talend Community.

Data Stewardship
In een markt waarin de concurrentie moordend is, wordt het verschil tussen digitale leiders en achterblijvers bepaald door de manier waarop organisaties hun data benutten. Talend’s nieuwe Data Stewardship app is een van de eerste selfservice tools die organisaties in staat stelt om data op efficiënte wijze te verzamelen en beheren in de volledige levenscyclus. Met deze app kunnen gebruikers ervoor zorgen dat de data in de data lake opgeschoond is en voldoet aan de compliance eisen. Hierdoor kunnen problemen met data-integriteit voorkomen worden. De app helpt organisaties om hun data-compliance op orde te krijgen, met het oog op hoge boetes als gevolg van schending van richtlijnen zoals de General Data Protection Regulation of de Sarbanes-Oxley act. Door datagovernance toe te wijzen aan medewerkers binnen afdelingen die vertrouwd zijn met de data, creëert de nieuwe applicatie een samenwerkingsomgeving, waarin de data betrouwbaar is.

Machine Learning
Met de Data Stewardship app kunnen medewerkers governance in elke data-integratie workflow toevoegen en bepaalde datasets isoleren die handmatig beheerd, beoordeeld of gevalideerd moeten worden. De applicatie deelt deze taken vervolgens in workflows in, wijst de kwaliteitscontrole toe aan de meest geschikte medewerker en stelt regels in om te bepalen welke data moet worden opgeschoond en gevalideerd. Talend Data Fabric gebruikt tevens Machine Learning technologie om best practices voor databeheer te identificeren, zodat enorme datasets sneller en intelligenter worden verwerkt. De toegevoegde ondersteuning voor Apache Atlas biedt organisaties meer inzicht in de herkomst van data en informatiestromen binnen Hadoop, ter verbetering van risicobeheer en compliance.

Modelgestuurde codegenerator
Big data en cloud-technologieën ontwikkelen zich in hoog tempo. Sommige organisaties vragen zich af of de technologieën waarin zij nu investeren, niet over een paar maanden al zijn verouderd. Talend Data Fabric is gebaseerd op open source en open standaarden en kan zich daardoor eenvoudig aanpassen aan nieuwe ontwikkelingen. De voortdurende innovaties uit de community van open source programmeurs en diverse big data en cloud partners zorgen ervoor dat Talend Data Fabric de laatste technologische ontwikkelingen kan bijbenen. Talend Data Fabric biedt daarnaast een modelgestuurde codegenerator. Dit maakt het aanpassen van de oplossing aan nieuwe technologieën eenvoudig. Zo kan de code die nodig is om een taak of applicatie van Spark 1.6 om te zetten in Spark 2.0, met een paar muisklikken worden gegenereerd. Al deze functies bieden organisaties de wetenschap dat hun technologische investeringen ook op de lange termijn relevant blijven.
 
Prijzen en beschikbaarheid
Talend Data Fabric is verkrijgbaar vanaf 19 januari 2017. Klanten die een licentie aanschaffen voor de nieuwe versie van Talend Data Fabric ontvangen twee aanvullende licenties voor Talend Data Stewardship en Talend Data Preparation.
Geïnteresseerden kunnen zich voor meer informatie over alle voordelen en mogelijkheden van de Winter ’17 release van Talend Data Fabric inschrijven voor het live webinar 'Talend Winter ’17: Transform your data lake to accelerate insight' op donderdag 19 januari om 10:00 GMT.

]]>
Thu, 12 Jan 2017 16:50:12 +0100 Talend lanceert Winter '17 release van Talend Data Fabric http:///item/803569/talend-lanceert-winter-release-van-talend-data-fabric.html&field=Foto1&rType=crop&height=165&width=165.jpg
ilionx breidt uit naar Eindhoven met Business Unit Software Development http:///item/803568/ilionx-breidt-uit-naar-eindhoven-met-business-unit-software-development.html ICT-dienstverlener ilionx opent in Eindhoven haar vijfde vestiging. De Business Unit Software Development wordt opgezet door Wilco Jacobs en Belinda van Eck. Ilionx is dienstverlener op het gebied van onder andere Business Intelligence, cloudstrategie en software-ontwikkeling.

De Eindhovense vestiging zal zich vooral richten op de Java-dienstverlening van ilionx. Business Unit Managers Wilco Jacobs en Belinda van Eck hebben de ambitie om met een team van Java-specialisten een breed scala aan klanten in de regio te gaan bedienen.

Hightechindustrie
Volgens Wiebe de Boer, directeur van ilionx, kon een vestiging in Eindhoven als het hart van de hightechindustrie in Nederland niet ontbreken op het lijstje van vestigingen. ”We geloven sterk in het ‘local for local-principe’, waarbij klanten ondersteuning krijgen van consultants die altijd dichtbij zijn. We zijn er ongelofelijk trots op dat Wilco en Belinda dit nieuwe avontuur gaan leiden."

Java-specialisten
Wilco Jacobs was hiervoor werkzaam als Sales & Account Manager bij Ciber, Belinda van Eck als Accountmanager Mobile Solutions bij ilionx. "Het versterken van het team met goede Java-specialisten heeft de grootste prioriteit voor de komende tijd", aldus het duo. "Daarnaast lopen er ook veelbelovende gesprekken met bestaande en nieuwe klanten van ilionx."
Het kantoor wordt gevestigd aan het Kennedyplein in Eindhoven. Daarnaast heeft ilionx vestigingen in Utrecht (hoofdkantoor), Groningen, Zwolle en Almere.

Meer informatie: ilionx

]]>
Thu, 12 Jan 2017 16:17:15 +0100 ilionx breidt uit naar Eindhoven met Business Unit Software Development http:///item/803568/ilionx-breidt-uit-naar-eindhoven-met-business-unit-software-development.html&field=Foto1&rType=crop&height=165&width=165.jpg
Avoid slipping on banana peels in metadata projects http:///item/802964/avoid-slipping-on-banana-peels-in-metadata-projects.html Let's be honest, implementing non business-critical web applications like metadata catalogues, business dictionaries, data dictionaries is not an easy task. It comes fraught with difficulties for the implementation team to negotiate.

And the larger the company the bigger the difficulties get. They vary from departmental responsibilities and compatibility issues to budget and cross company adoption. After years of deploying and running business dictionaries and metadata catalogues in various companies I've come face to face with many of these problems. Some of them are outside the control of the implementation team and are hard to negotiate. But there are many others that aren't. What can be done to avoid slipping on banana peels in metadata projects? Three tips.

Dont’t lose sight of the goal

Stage 1: Planning
Distractions. Right from the get go, even in the initial meetings it's easy to get sidetracked. Discussions start about the design of the home page, the personal page or another landing page. Three people, five opinions, 7 meetings, 1 implementation, 3 re-implementations. There's a lot of talk, but not much that can move things forward.

Then comes a manager who immediately find out that the company cannot use a product unless some feature X or Y is delivered. Depending on the current position of Earth and Saturn, in this phase the project either gets hijacked by a crazy technical issue (it cannot be considered unless some "cross-forest single-sign-on authentication has been implemented" and "passed performance tests") or an obscure feature request hits one of the applications.

๏ Don't: Don't get distracted by small issues.
✓ Do: Stay focused on the goal. Work hands-on with an existing application(s) and let that experience define what you really need.

Avoid too many cooks

Step 2: Deployment

Changes that can't be implemented or too big, too soon.

The system gets the green-light. A budget is set. A schedule for implementation, training and launch is drawn up. Things should be fixed and solid. Right? Wrong. Getting departments in large companies to keep to a schedule is like getting Dilbert to work in a factory. It's not in the contract. 20 people appear in training sessions, 18 of them with no time allocation to work with the system in this century, 16 of them with no time allocated to do homework! If that's not tough enough for an implementation team to manage, it gets even harder. Stakeholders and interests groups have got their pens out and want to come to the party.

Meetings are organized about the company's policies on terms, the review process, the publishing process and what not. The abstracter, the better. And in between that, other meetings are organized for reasons beyond anybody's understanding.

At the heart of it, I'm afraid to say that most of this activity is futile. I've been in this business for years and have to admit it's surprisingly difficult to create a viable report catalogue or business dictionary application. We made a vast number of strategy changes over the years, before we reached the current state that kind of works. Bottom line and what gets lost in the minutes of the many meetings, is that however a company's stakeholders want to build a business dictionary, it's unlikely to improve it. 100 pages of detailed requests won't lead to a better app than the off-the-shelf product. The only result of all this activity is an implementation team that is running at their fastest just to stay in place and your first business dictionary project drowning in abstract discussions started by people with no real experience of the product.

๏ Don't: Define how people should work in a Power Point presentation.
✓ Do: Create a tangible output using an application with a small team and then codify best practice for your company.

Sit down and start writing

Product deployment is difficult. The important thing is to stay focused on the goal and not get distracted. Explain to the various departments and stakeholders in your company the need for the product; how it offers a collaborative work environment, a business dictionary, a report catalogue, a data dictionary etc. Don't give in to distractions and don't spend too much time brooding. Easier said than done, I admit. But a proof of concept project is cheap, you do not necessarily have to buy a license, you pay just for a few days (like less than 10) of consultancy. A server for you can be available in days. Then just start working.

Is there a term that you and your team couldn't agree on? Then use the business dictionary and start working on the term and its definition. Scratch an itch, start tiny. Create a small team where the members have been allocated enough time to work on the project. Run them through a training session or two, and let them solve real issues. Later on, maybe you'll have to create a well-designed process of term review and publication, but let's not do it in the beginning. Do it when you need it.

✓ Do: Sit down and start writing.

David Vonka is Co-Owner at Semanta.

This blog was originally posted on the Semanta website.

Semanta wordt in Nederland vertegenwoordigd en gedistribueerd door IntoDQ.

]]>
Wed, 11 Jan 2017 14:29:51 +0100 Avoid slipping on banana peels in metadata projects http:///item/802964/avoid-slipping-on-banana-peels-in-metadata-projects.html&field=Foto1&rType=crop&height=165&width=165.jpg
Prof. dr. Martin Kersten benoemd tot ACM Fellow http:///item/802908/prof-dr-martin-kersten-benoemd-tot-acm-fellow.html Onderzoeker aan het Amsterdamse CWI Martin Kersten is in december 2016 benoemd tot ACM Fellow. De ACM heeft het Association of Computing Machinery Fellows programma in 1993 opgericht voor de erkenning van haar leden die uitmuntende prestaties geleverd hebben.

De titel van ACM Fellow wordt verleend op basis van uitzonderlijke technische en professionele en bijdragen. Martin Kersten viel deze eer te beurt vooral vanwege zijn onderzoek naar ontwerp en implementatie van kolomgebaseerde en in-memory databases. Prof. dr. Kersten is met de benoeming de derde Nederlander en medewerker van het Centrum Wiskunde & Informatica die zich ACM Fellow mag noemen; eerder verkregen de Nederlandse CWI-wetenschappers Edsger Dijkstra en Andrew Tanenbaum de titel.

MonetDB
Martin Kersten begon zijn loopbaan in 1975 als onderzoeksassistent. In 1979 werd hij wetenschappelijk onderzoeker aan de Vrije Universiteit Amsterdam. In 1985 stapte hij over naar het Centrum Wiskunde & Informatica, waar hij aan de wieg stond van de Database Research Group. Zijn jarenlang onderzoek naar database management heeft diverse producten opgeleverd, waarvan MonetDB de bekendste is. Voor zijn werk aan kolomgebaseerde databases ontving Kersten de ACM SIGMOD Edgar F. Codd innovations Award in 2014 en in 2016 de ACM SIGMOD Systems Award.

]]>
Wed, 11 Jan 2017 13:56:52 +0100 Prof. dr. Martin Kersten benoemd tot ACM Fellow http:///item/802908/prof-dr-martin-kersten-benoemd-tot-acm-fellow.html&field=Foto1&rType=crop&height=165&width=165.jpg
Capgemini biedt startups kansen met InnovatorsRace50 competitie http:///item/802907/capgemini-biedt-startups-kansen-met-innovatorsrace-competitie.html Capgemini heeft het startsein gegeven voor de InnovatorsRace50, een wereldwijde competitie voor startups in de aanvangsfase waarmee zij de potentie kunnen laten zien van hun producten, diensten of innovatieve technologie. Deze speciale editie van de Innovators Race, ter gelegenheid van Capgemini’s vijftigste verjaardag dit jaar, staat in het teken van innovatief ondernemerschap.

De vijf winnende startups krijgen een financiering ter waarde van 50.000 US Dollar, uitgebreide netwerkmogelijkheden, deelname aan internationale tech events, toegang tot sectorexperts en de kans om partner van Capgemini te worden. Startups hebben tot 28 februari aanstaande de mogelijkheid om zich in te schrijven voor deze internationale competitie via www.innovatorsrace50.com. Uit de inschrijvingen worden vijftig startups gekozen, verdeeld over vijf categorieën (tien in elke categorie). Een panel van experts kiest vervolgens twee finalisten per categorie. Deze categorieën zijn:
- Govtech and Social Enterprises
- Fintech and Mobility
- Consumers and Well-Being
- Digital Processes and Transformation
- Data and Security

Applied Innovation Exchanges
In april en mei kunnen de tien finalisten, de twee beste startups per categorie, technologie- en sectorexperts ontmoeten in een van de vijf Applied Innovation Exchanges van Capgemini in Londen, San Francisco, München, Mumbai en Parijs. Tijdens deze sessies kunnen de deelnemers hun innovatie ontwikkelen, testen en toepassen. De aanwezige experts zullen hun kennis en ervaring inzetten om de startups verder te helpen en hen voor te bereiden op de definitieve presentatie van hun idee.

CNN
In september en oktober 2017 kunnen beelden van Capgemini’s InnovatorsRace50 worden bekeken via www.innovatorsrace50.com. Onder de titel Unicorns zal nieuwszender CNN ook aandacht besteden aan de compettitie. Deze zijn te bekijken via CNNMoney.com/Unicorns en in een speciale televisie-uitzending van CNN International in oktober. Aansluitend op de InnovatorsRace50 zal CNN ten slotte een unieke ranglijst publiceren van de vijftig meest actieve en veelbelovende startups met een waarde van meer dan 1 miljard USD in 2017: The Unicorns 50.

]]>
Wed, 11 Jan 2017 13:21:16 +0100 Capgemini biedt startups kansen met InnovatorsRace50 competitie http:///item/802907/capgemini-biedt-startups-kansen-met-innovatorsrace-competitie.html&field=Foto1&rType=crop&height=165&width=165.jpg
Percipient lanceert SparkPLUS voor snellere dataverwerking in Apache Spark http:///item/802884/percipient-lanceert-sparkplus-voor-snellere-dataverwerking-in-apache-spark.html Percipient wil met haar oplossing SparkPLUS tegemoet komen aan gebruikers die geheugenproblemen ondervinden bij het werken met Apache Spark. Percipient is een in Singapore gevestigde startup.

Met SparkPLUS worden data eerst samengevoegd voordat ze aan Spark worden aangeboden, zodat er meer geheugenruimte overblijft voor realtime berekeningen. Volgens Percipient kan bij gebruik van gescheiden databronnen en multiple joins het geheugenbeheer van Apache Spark overbelast worden. CTO Ravi Shankar Nair van Percipient meent dat met SparkPLUS bedrijven nu probleemloos Spark kunnen inzetten, zonder te hoeven letten op geheugengebruik.

ANSI querytaal
SparkPLUS gebruikt een eigen in-memory datatoegangslaag en via een standaard ANSI querytaal worden verspreide databronnen met elkaar verbonden. Deze geaggregeerde laag wordt daarna via een JDBC connector aan het Spark cluster aangeboden. Hierdoor zijn partitionering en geheugenbeheer overbodig geworden. Ook maakt deze oplossing het volgens Percipient mogelijk dat een groot aantal gebruikers binnen een bedrijf tegelijk met het cluster aan de slag kan. SparkPLUS ondersteunt grootschalige multi-user data-omgevingen.

Meer informatie: Percipient

]]>
Wed, 11 Jan 2017 12:56:17 +0100 Percipient lanceert SparkPLUS voor snellere dataverwerking in Apache Spark http:///item/802884/percipient-lanceert-sparkplus-voor-snellere-dataverwerking-in-apache-spark.html&field=Foto1&rType=crop&height=165&width=165.jpg
Talend stelt Otto Neuer aan als nieuwe VP Sales Central Europe http:///item/802385/talend-stelt-otto-neuer-aan-als-nieuwe-vp-sales-central-europe.html Talend, leverancier in Big Data- en cloudintegratie-oplossingen, kondigt aan dat Otto Neuer als Vice president of sales central Europe is aangesteld.

Neuer zal kantoor houden in München en verantwoordelijk zijn voor Talend’s klanten en partnerecosysteem in Duitsland en midden-Europa. Hij zal rapporteren aan François Mero, senior vice president sales EMEA.
Otto Neuer heeft meer dan dertig jaar verkoop- en managementervaring in de IT-sector. Hij komt van Protegrity, waar hij de fungeerde als managing director en vice president Sales EMEA. Daarvoor heeft Neuer gewerkt als senior vice president global sales bij Uniserv, en managing director bij Informatica en ITESOFT.

Neuer neemt het stokje over Harald Weimer, die verantwoordelijk was voor Talend’s sales channelpartner programma in Duitsland en Midden-Europa. Harald Weimer kwam in 2010 bij Talend toen zijn bedrijf Sopera door talend is overgenomen. Volgens Francois Mero komt de jarenlange ervaring van Neuer van pas bij de uitbreiding van Talend in deze regio, waarin de adoptie van Big Data en Cloudtechnologie aan een snelle opmars bezig is.

Meer informatie: Talend

]]>
Tue, 10 Jan 2017 15:12:56 +0100 Talend stelt Otto Neuer aan als nieuwe VP Sales Central Europe http:///item/802385/talend-stelt-otto-neuer-aan-als-nieuwe-vp-sales-central-europe.html&field=Foto1&rType=crop&height=165&width=165.jpg
Helft MKB ziet kansen in (big) data maar toepassing blijft probleem http:///item/802339/helft-mkb-ziet-kansen-in-big-data-maar-toepassing-blijft-probleem.html De ene helft van het MKB ziet een (grote) kans in (big) data, terwijl de andere helft geen relevantie ziet voor hun eigen bedrijf, blijkt uit onderzoek door JADS en KvK. Gebrek aan tijd, geld, kennis en ervaring zijn de belangrijkste redenen waarom het MKB die kansen van (big) data nog niet breed oppakt.

Deze gegevens blijken uit het onderzoek ‘Ondernemen met (big) data door het MKB’ van de Kamer van Koophandel en de Jheronimus Academy of Data Science(JADS). JADS is een initiatief van de universiteiten van Eindhoven en Tilburg, de provincie Noord-Brabant en de gemeente Den Bosch.
Van de ondervraagde bedrijven in de MKB-sector ziet 39 procent werken met data als kostenpost, niet als een strategisch middel. Slechts 12 procent gebruikt data bij de dagelijkse sturing van de onderneming en maar 11 procent beschouwt data als een belangrijk onderdeel van de strategie. Data zijn een kostenpost óf een waardevolle, ondersteunende activiteit, meer smaken zijn er niet. Het inzetten van data als een dagelijkse, strategische activiteit gebeurt vrijwel niet.

Ondernemen met (big) data
Innovatiestimulering is een van de wettelijke taken van de Kamer van Koophandel (KvK). Tegen die achtergrond deden de KvK en de Jheronimus Academy of Data Science in 2016 onderzoek naar het ondernemen met (big) data door het MKB. Doel van het onderzoek is om inzicht te krijgen in de mate waarin ondernemers in de MKB-sector ondernemen met (big) data, en hoe ze denken over de mogelijkheden van (big) data en welke belemmeringen ze ondervinden.

Behoefte aan advies
De resultaten uit het onderzoek laten zien dat de transformatie naar een ‘data driven’ onderneming geen eenvoudige opgave is voor het MKB. Ondernemers zien de kansen, maar de meesten zeggen niet (voldoende) kennis en kunde in huis te hebben. Het onderzoek toont aan dat de helft van de ondernemers behoefte heeft aan hulp en advies over het gebruik en het toepassen van (big) data.

Het onderzoek is gedaan door Marijke van der Veen, Dian Smetsers (KvK) en Arjan van den Born, Bas Bosma (JADS). Download hier het rapport Ondernemen met (big) data door het MKB.

]]>
Tue, 10 Jan 2017 13:55:32 +0100 Helft MKB ziet kansen in (big) data maar toepassing blijft probleem http:///item/802339/helft-mkb-ziet-kansen-in-big-data-maar-toepassing-blijft-probleem.html&field=Foto1&rType=crop&height=165&width=165.jpg
DPA IT en BigData Republic starten met Data Science Traineeship http:///item/801942/dpa-it-en-bigdata-republic-starten-met-data-science-traineeship.html DPA IT gaat samen met BigData Republic invulling geven aan een traineeprogramma voor data scientists. Young professionals zullen gedurende een jaar wekelijks 8 tot 16 uur training volgen en drie tot vier dagen per week bij verschillende opdrachtgevers werken. Specialisten van BigData Republic gaan een deel van de trainingsdagen verzorgen.

DPA IT richt zich op flexibele inzetbaarheid van IT-professionals en ontwikkeling van hun kennis en kunde. Volgens Derk Disselhoff, Business Line Manager bij DPA IT, wordt een ijzersterke koppeling tussen training en werk gemaakt. “Samen met BigData Republic willen we de kenniskloof overbruggen waar veel data scientists in hun eerste baan tegenop lopen. Het is ontzettend leerzaam voor onze trainees om te delen in de kennis van gepassioneerde data scientists die al veel ervaring hebben met hoogwaardige projecten. Daardoor kunnen ze snel doorgroeien naar expertniveau op big data-gebied. Ook krijgen ze begeleiding bij het oplossen van complexe statistische vragen die bij hun opdrachtgever spelen of bijvoorbeeld het realiseren van end-to-end data oplossingen.”

Kennisverrijking
BigData Republic is aanbieder op het gebied van data science, big data engineering en big data-architecturen. BigData Republic zal trainingen verzorgen in onder andere R, Python, machine learning technieken, process mining, statistical modelling en deep learning. Daarnaast volgen de talenten bijvoorbeeld trainingen in soft skills bij DPA Academy. Frank Kurstjens, managing partner bij BigData Republic, vertelt dat zijn organisatie veel aan kennisoverdracht doet. “We verzorgen veel trainingen en personal development programma’s bij opdrachtgevers die meer datagedreven willen werken. Onze eigen mensen werken iedere vrijdag zoveel mogelijk op ons hoofdkantoor samen aan klantvraagstukken en projecten. In het traineeprogramma zullen onze senior data scientists de junior professionals niet alleen opleiden maar ook uitdagen, wat voor een enorme kennisverrijking zorgt.”

Meer informatie over het traineeprogramma.

]]>
Mon, 09 Jan 2017 15:59:30 +0100 DPA IT en BigData Republic starten met Data Science Traineeship http:///item/801942/dpa-it-en-bigdata-republic-starten-met-data-science-traineeship.html&field=Foto1&rType=crop&height=165&width=165.jpg
Microsoft introduceert Connected Vehicle Platform http:///item/800444/microsoft-introduceert-connected-vehicle-platform.html Microsoft heeft het Connected Vehicle Platform aangekondigd, een platform van op Azure gebouwde clouddiensten die autofabrikanten kunnen integreren.

Microsoft benadrukt dat het niet om een in-car besturingssysteem of kant-en-klaar product gaat, maar om een agile cloudplatform dat in ontwikkeling is. Vijf kerndiensten staan daarbij voorop: onderhoud, in-car productiviteit, geavanceerde navigatie, inzicht in rijgedrag en ontwikkeling van autonoom rijden. Microsoft’s Azure cloud gaat daarbij grote hoeveelheden data verwerken van sensoren van de verbonden voertuigen.

Hub
In de loop van dit jaar zal Microsoft een public preview bieden van intelligente diensten in auto’s, zoals virtuele assistenten, business applicaties, office services en productiviteitssoftware als Cortana, Dynamics, Office 365, Power BI en Skype for Business. Volgens Microsoft is de auto meer dan een voertuig tussen twee locaties; het is een ‘activiteitshub’. Veiligheid staat voorop, maar Microsoft ziet mogelijkheden genoeg voor meer efficiëntie in het dagelijks leven.

Autofabrikanten
Microsoft benadrukt dat het niet een eigen ‘connected car’ zal bouwen, maar zal samenwerken met autofabrikanten. Renault-Nissan is de eerste autofabrikant die zich verbonden heeft aan het Microsoft Connected Vehicle Platform. Andere samenwerkingen zijn met Volvo, dat eind december heeft aangekondigd Skype for Business in haar 90 Serie te integreren, en met BMW door een op Azure gebaseerd platform te ontwikkelen voor BMW Connected met Office 365 en intelligente assistentie.
In december heeft Microsoft aangekondigd met TomTom, HERE en Esri te gaan samenwerken aan meer intelligente locatie- en geodata-diensten.

Meer informatie met demonstratievideo: Microsoft

]]>
Fri, 06 Jan 2017 16:45:04 +0100 Microsoft introduceert Connected Vehicle Platform http:///item/800444/microsoft-introduceert-connected-vehicle-platform.html&field=Foto1&rType=crop&height=165&width=165.jpg
Qlik is Platina sponsor van DW&BI Summit 2017 http:///item/800422/qlik-is-platina-sponsor-van-dwenbi-summit.html Qlik is Platina sponsor van de Datawarehousing & Business Intelligence Summit die op 28 en 29 maart 2017 in het Mercure Hotel Amsterdam plaats vindt.

Qlik is aanbieder van een visual analytics platform en pionier op het gebied van selfservice Business Intelligence. Qlik’s portfolio bevat de oplossingen Qlik Sense, QlikView and Qlik Cloud, en voldoet aan een groeiende behoefte van klanten aan rapportage en visuele self-service analyses voor guided, embedded en op maatgemaakte analytics, ongeacht de locatie van data.

Uitgebreid programma
De Datawarehousing & Business Intelligence Summit vindt plaats op 28 en 29 maart 2017 in het Mercure Hotel Amsterdam. De DW&BI Summit biedt net als voorgaande jaren weer een uitgebreid tweedaags programma met lezingen door sprekers uit het Business Intelligence-vakgebied als Mark Madsen, Pieter den Hamer, Erik Fransen, Kishan Shri, Rick van der Lans, William McKnight, Jos Kuiper, Rutger Rienks en Bart Baesens. Onderwerpen die aan bod zullen komen zijn onder andere Fast Data, Data Lakes, Datavirtualisatie, Analytics, Logical Datawarehouse, Data Vault en nog veel meer. Kijk hier voor het volledige programma.

Meer informatie op de website van de DW&BI Summit 2017.

]]>
Fri, 06 Jan 2017 15:58:57 +0100 Qlik is Platina sponsor van DW&BI Summit 2017 http:///item/800422/qlik-is-platina-sponsor-van-dwenbi-summit.html&field=Foto1&rType=crop&height=165&width=165.jpg
IBM benoemt Peter Zijlema tot General Manager Nederland en Benelux http:///item/800126/ibm-benoemt-peter-zijlema-tot-general-manager-nederland-en-benelux.html Peter Zijlema is benoemd tot General Manager IBM Benelux en Country General Manager IBM Nederland. Zijlema volgt Harry van Dorenmalen op, die als Vice Chairman voor IBM Europe blijft werken.

Peter Zijlema was vanaf 1 februari 2014 commercieel directeur bij IBM Nederland. Daarnaast was hij lid van het IBM Benelux management team. Sinds zijn start bij IBM in 1997 bekleedde hij diverse functies in Sales voor Professional Services en had hij later verschillende leidinggevende rollen in zowel Nederland als New York.

]]>
Fri, 06 Jan 2017 00:01:00 +0100 IBM benoemt Peter Zijlema tot General Manager Nederland en Benelux http:///item/800126/ibm-benoemt-peter-zijlema-tot-general-manager-nederland-en-benelux.html&field=Foto1&rType=crop&height=165&width=165.jpg
NEN en EZ organiseren themabijeenkomst over IoT-uitdagingen http:///item/799976/nen-en-ez-organiseren-themabijeenkomst-over-iot-uitdagingen.html NEN organiseert in samenwerking met het Ministerie van Economische Zaken en Agentschap Telecom een themabijeenkomst over het Internet of Things. De gratis bijeenkomst is op 9 februari 2017 bij het Ministerie van Economische Zaken in Den Haag.

IoT-toepassingen zijn zeer divers en variëren van gezondheidszorg tot smart cities en smart industry. IoT zorgt er in de toekomst voor dat mensen, producten en processen in verschillende domeinen met elkaar verbonden zullen zijn. Regulering (waaronder het frequentiebeleid) en standaardisatie zijn noodzakelijk voor de connectiviteit en interoperabiliteit tussen de verschillende IoT-toepassingen.

Antwoorden
Maar wat zijn de verschillende aandachtsgebieden, hoe wordt er samen gewerkt, wie bewaakt het overzicht, hoe kan invloed worden uitgeoefend? En welke standaarden zijn nodig om verschillende IoT toepassingsgebieden met elkaar te verbinden?
Tijdens de bijeenkomst wordt geprobeerd antwoord te geven op vragen zoals: ‘Wat is de huidige stand van zaken en de rol van het frequentiebeleid? Welke standaardisatieontwikkelingen zijn er wereldwijd? Wat zijn de praktijkervaringen en verwachtingen van IoT-applicatie ontwikkelaars in Nederland?’

Tijdens deze dag zullen verschillende sprekers ingaan op de recente ontwikkelingen van IoT en de rol van onder andere:
- Frequenties (en frequentiebeleid);
- Standaardisatie op het gebied van connectiviteit en interoperabiliteit;
- Casussen IoT-toepassingen: praktijkervaringen, uitdagingen en verwachtingen.

Deelname
De bijeenkomst is op 9 februari 2017 en start om 9.30 uur bij het Ministerie van Economische Zaken in Den Haag. Deelname aan de bijeenkomst is kosteloos. Aanmelden is mogelijk tot 3 februari 2016. Het volledige programma volgt.

]]>
Thu, 05 Jan 2017 15:19:49 +0100 NEN en EZ organiseren themabijeenkomst over IoT-uitdagingen http:///item/799976/nen-en-ez-organiseren-themabijeenkomst-over-iot-uitdagingen.html&field=Foto1&rType=crop&height=165&width=165.jpg
Trifacta wint Dresner Advisory Services Technology Innovation Award 2016 http:///item/799958/trifacta-wint-dresner-advisory-services-technology-innovation-award.html Trifacta heeft een Dresner Advisory Services 2016 Technology Innovation Award gewonnen in de categorie End User Data Preparation. Aanbieder van Data Wrangling software Trifacta is voor het tweede opeenvolgende jaar winnaar in deze categorie.

De prijsuitreiking identificeert leiders op basis van verschillende Wisdom of Crowds-marktonderzoeken. Deze rapporten zijn gebaseerd op gegevens van eindgebruikers en geven een overzicht van de Business Intelligence- en Analyticsmarkten. Volgens VP marketing Joe Scheuermann bij Trifacta is Dresner Advisory Services een gerenommeerd marktanalysebedrijf met diepgaande kennis op het gebied van data preparation. “Deze erkenning bevestigt de reacties van onze duizenden wereldwijde klanten dat we de meest intuïtieve, gebruikersvriendelijke data wrangling oplossing in de markt bieden.”

In 2016 is Trifacta door IDC erkend als Innovator op het gebied van self-service data preparation, vermeld in The Channel Company’s 2016 Big Data 100 list, als top vendor geselecteerd in de 2016 Self-Service Data Preparation & Cataloguing Market Update van Bloor Research en door Enterprise Strategy Group aangemerkt als Delta-V Award winner in de big data platforms categorie.

Meer informatie: Trifacta

]]>
Thu, 05 Jan 2017 14:28:24 +0100 Trifacta wint Dresner Advisory Services Technology Innovation Award 2016 http:///item/799958/trifacta-wint-dresner-advisory-services-technology-innovation-award.html&field=Foto1&rType=crop&height=165&width=165.jpg
NEN start Standaardisatieplatform voor Internet of Things http:///item/799940/nen-start-standaardisatieplatform-voor-internet-of-things.html NEN start het Standaardisatieplatform IoT. Het doel is om interoperabiliteit door middel van standaarden en daarmee de mogelijkheden voor de praktische toepassing van IoT in Nederland te bevorderen. Het in Delft gevestigde NEN ondersteunt in Nederland normalisatieprocessen.

Het Internet of Things wordt gezien als een belangrijke aanjager van fundamentele veranderingen op allerlei gebieden. Denk hierbij aan smart cities, smart industry, smart farming, vervoer en transport en in de gezondheidszorg. IoT biedt allerlei kansen maar vereist ook veel samenwerking tussen organisaties. Interoperabiliteit om slimme onderdelen op allerlei gebieden met elkaar te verbinden en te laten communiceren, is essentieel. Standaarden zijn voor interoperabiliteit een belangrijke vereiste.

Kenniscentrum
Het Standaardisatieplatform IoT wil fungeren als kenniscentrum op het gebied van standaarden voor IoT. Het Standaardisatieplatform brengt relevante ontwikkelingen en behoeftes van Nederlandse organisaties in kaart en stimuleert de ontwikkeling van standaarden, zowel generiek als voor specifieke sectoren.

Complex
De verwachting is dat in 2020 wereldwijd ongeveer 25 miljard apparaten via internet verbonden zullen zijn. Het IoT standaardisatielandschap is complex: een veelheid aan organisaties werkt aan standaarden voor IoT. Zij werken elk vanuit hun eigen perspectief en business case.

Meer weten over IoT en standaardisatie of wilt u deelnemen in het Standaardisatieplatform IoT: NEN/Smartindustry

]]>
Thu, 05 Jan 2017 13:40:35 +0100 NEN start Standaardisatieplatform voor Internet of Things http:///item/799940/nen-start-standaardisatieplatform-voor-internet-of-things.html&field=Foto1&rType=crop&height=165&width=165.jpg
Karel Kinders per 1 januari Manager bij Centric http:///item/799324/karel-kinders-per-januari-manager-bij-centric.html Karel Kinders is per 1 januari als Manager bij Centric in dienst getreden, waar hij commerciële ondersteuning gaat bieden aan de diverse afdelingen.

In 2016 was Kinders werkzaam bij SAS Nederland als Advisory Business Solutions Manager. De zeven jaar daarvoor was Karel Kinders Managing Director van SAS Nederland, tot januari 2016 toen hij binnen SAS Nederland gekozen heeft voor een andere rol binnen de organisatie.



]]>
Wed, 04 Jan 2017 17:35:15 +0100 Karel Kinders per 1 januari Manager bij Centric http:///item/799324/karel-kinders-per-januari-manager-bij-centric.html&field=Foto1&rType=crop&height=165&width=165.jpg
Computer Profile: Ruim helft organisaties gebruikt cloudapplicaties http:///item/799258/computer-profile-ruim-helft-organisaties-gebruikt-cloudapplicaties.html Ruim de helft van de Nederlandse bedrijfsvestigingen (55 procent) maakt gebruik van applicatiesoftware uit de cloud. Daarmee groeide het gebruik van cloudapplicaties in de afgelopen twee jaar met 15 procentpunt. Dit blijkt uit analyse van Computer Profile op basis van 6.000 gesprekken die zijn gevoerd met IT-verantwoordelijken van Nederlandse bedrijfsvestigingen met 50 of meer medewerkers. De gehanteerde clouddefinitie gaat uit van applicaties uit de public cloud.

Het gebruik van applicaties uit de public cloud is met voorsprong het hoogst in de onderwijssector. Leeromgevingen en leerlingadministratiesystemen zijn in hoge mate cloudtoepassingen, waardoor de penetratie cloudtoepassingen in snel tempo op de 100 procent afstevent in deze sector. De transportsector lijkt vooralsnog het meest terughoudend, hier gebruikt 38 procent van de locaties applicaties uit de cloud.
Segmentatie naar omvang (werknemersklasse) laat zien dat het zwaartepunt in gebruik van cloudapplicaties ligt bij bedrijfslocaties met circa 200 medewerkers. Bij 50 tot 100 werknemers ligt de penetratie namelijk op 48,8 procent, bij 100 tot 200 op 58,8 procent, bij 200 tot 500 op 58,8 procent, bij 500 tot 1.000 op 56,1 procent en bij locaties met meer dan 1.000 medewerkers op 49,5 procent.

Cloudapplicaties vaak HR en Office
Per applicatie is gevraagd of het een oplossing uit de public cloud betreft, een gehoste of private cloudoplossing of dat de applicatie nog steeds on premise binnen de eigen organisatie draait. Als naar het totaal van de aangetroffen public cloudoplossingen wordt gekeken, blijkt dat nog altijd het grootste deel van de huidige public cloudapplicaties een HR-oplossing is (26,2 procent). Het aandeel dat Office uit de cloud inneemt is ten opzichte van een jaar geleden gelijk gebleven en vormt met ruim 23 procent de tweede grootste groep cloudapplicaties. Branchespecifieke toepassingen vormen circa 20 procent van de cloudapplicaties (vertical 15,1 procent + e-learning 4,5 procent).
Wanneer wordt gekeken naar de verspreidingsgraad van public cloudapplicaties, is te zien dat van alle bedrijfsvestigingen circa 26 procent aangeeft gebruik te maken van een HR-toepassing uit de cloud. Een jaar geleden was dat nog 22 procent en twee jaar geleden 18 procent. Als er wordt gekeken naar alle cloudoplossingen, is 23,3 procent een Office-applicatie. Ruim 27 procent van de Nederlandse bedrijven maakt gebruik van een dergelijke applicatie uit de cloud. Dit is een flinke stijging ten opzichte van de 12,5 procent in 2014 en de 8,4 procent in 2013. Deze stijging komt hoofdzakelijk op het conto van het toenemend gebruik van Office 365 van Microsoft. CRM-software uit de public cloud is in gebruik bij 6,7 procent van de bedrijfsvestigingen in het 50+ segment. Het gros betreft Salesforce.com-toepassingen gevolgd door Microsoft CRM Online en Oracle. Zowel documentmanagementsystemen als financiële toepassingen uit de cloud komen voor bij circa 8 procent van de bedrijfslocaties.

Leveranciers van cloudtoepassingen
Microsoft is de meest voorkomende vendor van public cloudoplossingen. Toepassingen van deze fabrikant worden gebruikt bij een kwart van alle bedrijfsvestigingen. Dit komt doordat Microsoft meerdere ijzers in het vuur heeft liggen op het gebied van cloudapplicaties. Het gebruik van Office 365 blijft stijgen, maar daarnaast levert Microsoft ook Exchange-oplossingen uit de cloud, zoals SharePoint en Dynamics. Cloudoplossingen van Raet worden gebruikt door 10 procent van de locaties en ADP door 7,1 procent. Alle andere leveranciers komen bij 7 procent of minder van de locaties voor.

Meer informatie: Computer Profile

]]>
Wed, 04 Jan 2017 15:01:26 +0100 Computer Profile: Ruim helft organisaties gebruikt cloudapplicaties http:///item/799258/computer-profile-ruim-helft-organisaties-gebruikt-cloudapplicaties.html&field=Foto1&rType=crop&height=165&width=165.jpg
Sogeti behaalt Red Hat Premier Business Partner status http:///item/799194/sogeti-behaalt-red-hat-premier-business-partner-status.html Sogeti heeft de Premier Business Partner status van Red Hat verworven op basis van de Nederlandse activiteiten in zowel cloud als datacenter infrastructure services, waaronder middleware.

Daarnaast heeft de IT-dienstverlener volgens Red Hat laten zien dat ze beschikt over de gewenste commerciële en technische kennis en vaardigheden. Sogeti ontwikkelt en beheert software waarbij gebruik wordt gemaakt van op open source gebaseerde Red Hat-technologie in zowel Sogeti’s private cloud-omgeving als op locatie in corporate organisaties.

Volgens Business Line Manager Open Source Robert Jan ten Dijke bij Sogeti kunnen klanten profiteren van de gecombineerde ervaring op het gebied van cloud, DevOps en applicatiemodernisering. “Wij bieden onze klanten het Red Hat OpenShift Container Platform, dat snellere applicatieontwikkeling mogelijk maakt. We passen DevOps-methodieken toe die een open source gebaseerde nieuwe generatie infrastructuur mogelijk maakt. Dat kan meer innovatie bieden, en stelt organisaties in staat om producten en diensten sneller op de markt te brengen, waardoor de klanttevredenheid verbeterd kan worden.”

]]>
Wed, 04 Jan 2017 13:35:45 +0100 Sogeti behaalt Red Hat Premier Business Partner status http:///item/799194/sogeti-behaalt-red-hat-premier-business-partner-status.html&field=Foto1&rType=crop&height=165&width=165.jpg
ORTEC lanceert Data Science business unit http:///item/797872/ortec-lanceert-data-science-business-unit.html ORTEC lanceert de gespecialiseerde business unit ORTEC Data Science om tegemoet te komen aan de toenemende vraag naar ondersteuning op het gebied van digitale transformatie. Albert Bogaard, oprichter van Parkmobile International en partner van ORTEC, wordt CEO van het nieuwe initiatief. ORTEC is aanbieder van optimalisatiesoftware en analyse-oplossingen.

ORTEC Data Science wil organisaties ondersteunen en begeleiden in hun digitale transformatie. De focus ligt daarbij op het opbouwen van kennis en kunde op het gebied van data science, het detacheren van data scientists, de uitvoering van big dataprojecten en de ondersteuning van het C-level in organisaties op strategisch en programmaniveau. De nieuwe business unit heeft daarbij de beschikking over een uitgebreid team van ervaren data scientists, business consultants en programmamanagers.

Specialisatie
ORTEC Data Science is gespecialiseerd in machine learning, artificial intelligence, meta-heuristieken en optimalisatie, met name in gebieden als HR analytics, marketing analytics en smart energy. Daarbij wordt gebruik gemaakt van technologieplatformen als Microsoft Azure en Cortana, Salesforce, IBM Watson en AIMMS. De kennis en kunde op het gebied van analytics wordt aangeboden via The Analytics Academy - het prijswinnende opleidingsinstituut van de Universiteit van Amsterdam, Amsterdam Data Science en ORTEC.

Driekoppige directie
Volgens CEO Albert Bogaard van ORTEC Data Science heeft bij veel organisaties de digitale transformatie op dit moment een grote prioriteit. “Bedrijven en instellingen willen de waarde uit hun data optimaal benutten, maar weten niet goed waar te beginnen en hoe dit te verankeren binnen hun dagelijkse bedrijfsvoering. Om succes op lange termijn te bereiken en écht datagedreven te worden, is een partner zoals ORTEC Data Science voor organisaties onmisbaar.”
In de directie van ORTEC Data Science krijgt Albert Bogaard gezelschap van Lex Knape (Chief Data Science Officer) en Patrick Hennen (COO). Beiden zijn al actief bij ORTEC in leidinggevende posities.

Meer informatie: ORTEC

]]>
Tue, 03 Jan 2017 06:00:00 +0100 ORTEC lanceert Data Science business unit http:///item/797872/ortec-lanceert-data-science-business-unit.html&field=Foto1&rType=crop&height=165&width=165.jpg
Rackspace: Negen voorspellingen over de cloud in 2017 http:///item/797833/rackspace-negen-voorspellingen-over-de-cloud-in.html 2016 was een turbulent jaar voor de cloud. Salesforce werd een speler in e-commerce, HP en Verizon sloten hun openbare clouds, kunstmatige intelligentie brak door, de dominantie van AWS hield aan met ongekende partnersales en Rackspace is van de beurs gehaald. Wat ligt er in het verschiet voor de cloud? Senior leidinggevenden van Rackspace kijken in hun kristallen bol en doen voorspellingen over de cloud in 2017.

1. Activiteiten ultieme uitdaging voor open source
Activiteiten beheren zal de aankomende tien jaar het belangrijkste thema van open source infrastructuur zijn. Organisaties die verschillende open source platformen inzetten lopen tegen de steeds lastiger uitdaging aan om alles efficiënt, betrouwbaar en veilig te laten samenwerken. We naderen een nieuw kruispunt bij de inzet van open source. De primaire focus ligt niet meer op de ontwikkeling van software. De aandacht gaat nu uit naar hoe we deze software succesvol kunnen gebruiken. Er breekt dus een nieuw tijdperk aan waarin activiteiten de ultieme uitdaging zijn voor open source. – Scott Crenshaw, SVP Product en Strategy.

2. Multicloud is de nieuwe realiteit
Nu de combinatie van openbare en particuliere clouds niet meer weg te denken is, maken grote cloud serviceproviders zoals Rackspace, VMware en Microsoft het nu mogelijk om meerdere cloudleveranciers tegelijkertijd in te zetten bij meerdere cloudprojecten. Deze trend noemen we de multicloud en zal in 2017 steeds populairder worden. Verschillende clouds voldoen aan verschillende wensen voor verschillende gebruikers, en we zien dat de meeste bedrijven gebruikmaken van verschillende clouds in meerdere regio's voor uiteenlopende use cases/workloads. De kosten voor het migreren van een oude workload uit het datacenter van de klant en naar de cloud kunnen enorm hoog zijn. – Kaushik Balasubramanian, Sr. Director van VMware practice.

3. Veiligheid voltooit transformatie van IT-functie tot 'geïntegreerde bedrijfsenabler’
Nu we de realiteit onder ogen durven zien en veiligheidsactiviteiten aanpassen aan de complexe en aanhoudende dreigingen van tegenwoordig, wordt veiligheid technologisch dynamischer en bedrijfsgerichter. Uitgebreid inzicht in het bedrijf en de bedrijfsimpact van de data en de systemen die we beschermen maakt effectieve automatisering mogelijk met efficiënte zero trust-omgevingen met weinig of geen permissies. – Daniel Clayton, Director of Operations, Rackspace Managed Security.

4. OpenStack wordt de API van het softwarematige datacenter
In 2017, wanneer de OpenStack-gemeenschap de 15e en 16e grote releases van de geïntegreerde projecten publiceert (Ocata en Pike), zal deze verzameling projecten een van de snelst groeiende open source gemeenschappen ter wereld zijn, en zal het zijn positie als de de facto standaard voor het bouwen van particuliere clouds flink versterken. De kracht van OpenStack is en blijft de API - een standaardinterface waarmee gebruikers en systemen kunnen communiceren met allerlei soorten infrastructuur, zoals compute, netwerk, opslag en andere services. Nu meer en meer organisaties gebruikmaken van OpenStack voor hun particuliere clouds, zien ze de mogelijkheden van het softwarematige datacenter en de veelzijdigheid en innovatie die het mogelijk maakt. – Bryan Thompson, General Manager, OpenStack Private Cloud.

5. De verschuiving naar toepassingen
Application automation wordt steeds belangrijker - en verschuift de aandacht van de infrastructuur naar de toepassing. Containers zullen meer mainstream worden, en men gaat voor het eerst experimenteren met serverloze architectuur (bijvoorbeeld AWS Lambda). – Prashanth Chandrasekar, Vice President en GM, Fanatical Support voor AWS.

6. Serverloze architectuur
Serverloze computing vereenvoudigt het werk van ontwikkelaars en 2017 wordt het jaar waarin dit echt een hoge vlucht gaat nemen. De term ‘serverloos’ klopt natuurlijk niet helemaal. Er zullen altijd servers zijn; serverloze architectuur verwijst naar toepassingen die afhankelijk zijn van services van derden (backend-as-a-service) of code op maat (function-as-a-service). AWS Lambda is hiervan momenteel de populairste leverancier. Serverloos betekent eigenlijk dat ontwikkelaars zich niet meer bezig hoeven te houden met de infrastructuur. En als de drempels voor IoT-toetreding verdwijnen, groeien nieuwe spelers en hun apparaten uit tot een markt met onbegrensde mogelijkheden. – John Engates, Chief Technology Officer.

7. Geavanceerde workloads belangrijkste reden voor overstap naar Microsoft Azure
Verbeteringen van Azure, zoals de Cortana Intelligence Suite, Machine Learning en het Azure Security Center zullen grote hoeveelheden workloads naar Azure trekken dankzij de voordelen van Azure. DevOps-transformatie en datacenterconsolidatie zijn tot nu toe de belangrijkste voordelen geweest van de overstap naar de openbare cloud. Vooral IT-afdelingen binnen bedrijven hebben hiervan geprofiteerd. De hierboven genoemde grotere mogelijkheden zullen een grote impact hebben op alle aspecten van een bedrijf met belangrijke tools om dynamisch te dataminen, te leren van typen acties (niet alleen machines), en de data en resultaten te beveiligen. De cloud van Microsoft doet meer dan computing efficiënter maken - het is een revolutie in het bedrijfsleven. – Jeff DeVerter, CTO van Microsoft Technologies.

8. Dankzij Microsoft Azure Stack wordt Azure dé cloud voor workloads van bedrijven
De broekriem wordt in alle IT-organisaties aangehaald en hogere IT-vaardigheden zijn zeldzaam, en dus moeten IT-organisaties van de gelegenheid gebruikmaken om te standaardiseren op Azure - openbaar en particulier - als voorkeursplatform. Omdat de code van Azure Stack gebaseerd is op dezelfde codebase als Azure, kunnen bedrijven standaardiseren op hun eigen set API's en de mogelijkheden van Azure voor hun particuliere clouds. Dankzij deze twee producten beschikken IT-organisaties over meer efficiency en mogelijkheden dan ooit tevoren. – Jeff DeVerter, CTO van Microsoft Technologies.

9. Internet of Things komt thuis
Steeds meer mensen gaan thuis tegen hun apparaten praten. Amazon.com staat vol met advertenties voor Echo, het audioapparaat van het bedrijf dat altijd verbonden is met de cloud. Echo praat met je en luistert naar de naam Alexa. Je kunt met Google Home praten dankzij Google Assistant, en commando's geven aan je Xbox met Cortana. Het zal niet lang meer duren voordat Microsoft met iets soortgelijks komt voor het hele huis. Apple werkt ook hard aan een concurrent voor Echo, gebaseerd op de stemassistent Siri. Zelfs je auto praat mee, met dashboards die op je andere apparaten lijken, altijd verbonden via Wifi. – John Engates, Chief Technology Officer.

]]>
Mon, 02 Jan 2017 17:54:03 +0100 Rackspace: Negen voorspellingen over de cloud in 2017 http:///item/797833/rackspace-negen-voorspellingen-over-de-cloud-in.html&field=Foto1&rType=crop&height=165&width=165.jpg
Sophos: Meldplicht Datalekken een wassen neus http:///item/795652/sophos-meldplicht-datalekken-een-wassen-neus.html De Autoriteit Persoonsgegevens verkondigde eind december dat er gedurende 2016 in totaal 5.500 datalekken zijn gemeld. Als het aan Managing director Pieter Lacroix van Sophos Nederland ligt, deelt de Autoriteit Persoonsgegevens liever nog gisteren dan vandaag een boete uit voor gemelde datalekken.

Onderzoeken naar de lekken zijn in volle gang, maar de Autoriteit Persoonsgegevens heeft tot nu toe geen boetes opgelegd. Dit is volgens Pieter Lacroix onbegrijpelijk. “Het is te vergelijken met een brute bankoverval of een automobilist die met veel te veel alcohol in zijn bloed een politiefuik inrijdt en vervolgens alleen van de dienstdoende agent ‘voortaan niet mee doen, hè?’ te horen krijgt. Een regelrechte farce, als je het mij op de man af vraagt. Daarnaast denk ik dat het aantal van 5.500 meldingen geen goede weerspiegeling is van het werkelijk aantal datalekken dat in het afgelopen jaar heeft plaatsgevonden.”

Risico
Nederland telt zo’n 130.000 organisaties. Een verloren USB, een gestolen laptop, een confidentieel mailtje naar de verkeerde persoon en ransomware zijn volgens Lacroix stuk voor stuk datalekken die gemeld dienen te worden. “De kans dat slechts vier procent van deze groep één datalek per organisatie in de afgelopen twaalf maanden ervaart én meldt, is minuscuul. En dat Aldo Verbruggen, voormalig officier van Justitie eerder dit jaar openlijk verkondigt dat het voor bedrijven in veel gevallen loont risico te lopen mogelijk later betrapt te worden en dan een eventuele boete te betalen, zet ook niet bepaald zoden aan de dijken.”

Zware boetes
Lacroix gelooft dan ook heilig in het opleggen van meer en zwaardere boetes. “Laat ik voorop stellen dat ik blij ben dat er een wet is die zich over onze veiligheid en privacy buigt. De discussie is aangezwengeld en heeft zelfs zijn weg naar de boardrooms van grote bedrijven gevonden. Maar zonder houtsnijdende repercussies zal de impact bij bedrijven nul zijn en het op termijn van de zakelijke agenda verdwijnen. Want waarom een melding doen als je er toch niet voor wordt gestraft?”

General Data Protection Regulation
In mei 2018 gaat de General Data Protection Regulation (GDPR) van kracht, een wet die voor heel Europa zal gelden en die nog wat meer uitbreiding van de Meldplicht Datalekken vraagt. De Meldplicht Datalekken is volgens Pieter Lacroix eigenlijk een light-versie van GDPR. “Omdat de Nederlandse wetgeving minimaal aan de Europese eisen moet voldoen, krijgen de boetes hopelijk een afschrikkender karakter dan nu in Nederland het geval is. Je moet er als organisatie dan toch niet aan denken dat je mogelijk maximaal 4 procent van je wereldwijde omzet dient af te staan bij het niet melden van een datalek? De Autoriteit Persoonsgegevens zou naar aanleiding van de 5.500 gemelde datalekken haar geloofwaardigheid kracht kunnen bijzetten door het uitdelen van de eerste boetes. Maar tot nu toe blijft het hieromtrent akelig stil. Dit frustreert mij maar ook de gehele beveiligingswereld die dag en nacht aan privacy en security werkt. We kijken daarom uit naar een eerste financiële straf, anders is het concept Meldplicht Datalekken in mijn optiek niet meer dan een wassen neus.”

Meer informatie: Sophos

]]>
Fri, 30 Dec 2016 20:15:27 +0100 Sophos: Meldplicht Datalekken een wassen neus http:///item/795652/sophos-meldplicht-datalekken-een-wassen-neus.html&field=Foto1&rType=crop&height=165&width=165.jpg