Het ethisch gebruik van kunstmatige intelligentie is van fundamenteel belang om loyaliteit en vertrouwen van consumenten en burgers in AI te verkrijgen, zo blijkt uit een nieuwe studie van het Capgemini Research Institute.
Naarmate organisaties meer gebruik maken van de voordelen van AI, zijn kritische consumenten, werknemers en burgers bereid om activiteiten op dit gebied positief te waarderen of juist af te keuren. Respondenten gaven aan loyaler te zijn aan, of meer te kopen van, organisaties waarvan de AI-interacties als ethisch worden beschouwd. Het onderzoek Why addressing ethical questions in AI will benefit organizations vond plaats onder 1.580 managers van grote organisaties in 10 landen en meer dan 4.400 consumenten in 6 landen, waaronder Nederland.
De belangrijkste bevindingen zijn:
Bedrijven die AI op een ethische manier gebruiken, worden beloond: Wereldwijd zegt 62 procent van de ondervraagde consumenten (Nederland: 52 procent) meer vertrouwen te hebben in een bedrijf waarvan de AI-interacties door hen als ethisch worden ervaren; 61 procent zegt dat ze positieve ervaringen met vrienden en familie zullen delen (Nederland: 50 procent), 59 procent zegt dat ze meer loyaliteit aan het bedrijf zullen hebben (Nederland: 43 procent) en 55 procent zegt dat ze meer producten zullen kopen en hoge ratings en positieve feedback op sociale media zullen geven (Nederland 44 procent). Wanneer de AI-interacties van consumenten daarentegen leiden tot ethische kwesties, vormt dit een bedreiging voor zowel de reputatie als het resultaat: 41 procent zei dat ze een klacht zullen indienen als een AI-interactie tot ethische kwesties zou leiden (Nederland: 40 procent) , 36 procent zou een verklaring eisen (Nederland: 32 procent) en 34 procent zou stoppen met de interactie met het bedrijf (Nederland: 29 procent).
Ethische kwesties die het gevolg zijn van AI-systemen zijn waargenomen en ervaren: Leidinggevenden in 9 van de 10 organisaties zijn van mening dat ethische kwesties het gevolg zijn van het gebruik van AI-systemen in de afgelopen 2-3 jaar, met voorbeelden zoals het verzamelen van persoonlijke patiëntgegevens zonder toestemming in de zorg en het overdreven vertrouwen op geautomatiseerde beslissingen in het bank- en verzekeringswezen. Leidinggevenden noemen redenen zoals de druk om AI haastig in te voeren, het niet in overweging nemen van ethiek bij het bouwen van AI-systemen, en een gebrek aan middelen gericht op ethische AI-systemen.
Consumenten, werknemers en burgers maken zich zorgen over ethische kwesties die verband houden met AI en willen enige vorm van regelgeving: Bijna de helft van de respondenten (47 procent) gelooft dat ze ten minste twee soorten gebruik van AI hebben ervaren die de afgelopen 2-3 jaar tot ethische problemen hebben geleid. In Nederland ligt dit percentage iets lager op 42 procent.
De meeste respondenten (75 procent) zeggen meer transparantie te willen wanneer een dienst wordt aangedreven door AI, en dat ze willen weten of AI hen eerlijk behandelt (73 procent). Meer dan driekwart (76 procent) van de consumenten vindt dat er verdere regelgeving moet komen over de manier waarop bedrijven AI gebruiken.
Organisaties beginnen het belang van ethische AI te beseffen: 51 procent van de leidinggevenden vindt het belangrijk om ervoor te zorgen dat AI-systemen ethisch en transparant zijn. Organisaties ondernemen ook concrete acties wanneer ethische kwesties aan de orde worden gesteld. Uit het onderzoek blijkt dat 41 procent van de topmanagers aangeeft een AI-systeem volledig te hebben opgegeven toen een ethische kwestie aan de orde werd gesteld.
“Veel organisaties bevinden zich op een kruispunt in het gebruik van AI. Consumenten, werknemers en burgers staan steeds meer open voor interactie met de technologie, maar zijn zich bewust van de mogelijke ethische implicaties. Dit onderzoek toont aan dat organisaties ethische systemen en gebruiken moeten creëren voor AI om het vertrouwen van mensen te winnen. Dit is niet alleen een compliance-probleem, maar ook een probleem dat een belangrijk voordeel kan opleveren wat betreft loyaliteit, steun en betrokkenheid“, zegt Anne-Laure Thieullent, AI en Analytics Group Offer Leader bij Capgemini. “Om dit te bereiken, moeten organisaties zich richten op het opzetten van de juiste governance, moeten ze niet alleen een gedragscode definiëren op basis van hun eigen waarden, maar deze ook implementeren als een ‘ethics-by-design’ -benadering, en zich vooral richten op het informeren van mensen de manier waarop ze met AI-oplossingen omgaan“.
Drieledige aanpak
Organisaties moeten voorrang geven aan een ethische AI-strategie: om tegemoet te komen aan de zorgen van de consument en het vertrouwensdividend van ethisch AI-gebruik te ontsluiten, moeten organisaties een gerichte aanpak hanteren om systemen geschikt te maken voor hun doel. Capgemini beveelt een drieledige aanpak aan om een strategie voor ethiek in AI te ontwikkelen die alle belangrijke stakeholders omvat:
1. Voor CxO’s en bestuurders: een sterke basis leggen met een strategie en gedragscode voor ethische AI; een beleid ontwikkelen dat aanvaardbare praktijken voor het personeel en de AI-applicaties definieert; structuren voor ethisch bestuur creëren en ervoor zorgen dat er verantwoording wordt afgelegd over AI-systemen; en diverse teams samenstellen om ervoor te zorgen dat er rekening wordt gehouden met het volledige spectrum van ethische kwesties;
2. Voor de klant- en medewerkersgerichte teams, zoals HR, marketing, communicatie en klantenservice: zorgen voor een ethisch gebruik van AI-applicaties; gebruikers opleiden en informeren om het vertrouwen in AI-systemen op te bouwen; gebruikers in staat stellen om meer controle te krijgen en de mogelijkheid te geven om verhaal te kunnen halen; en proactief intern en extern te handelen en te communiceren over AI-kwesties om vertrouwen op te bouwen.
3. Voor AI-, data- en IT-managers en hun teams: streef ernaar om AI-systemen zo transparant en begrijpelijk mogelijk te maken om het vertrouwen van gebruikers te winnen; pas goed datamanagement toe en verminder potentiële vooroordelen in gegevens; monitor voortdurend op precisie en accuratesse; en gebruik technologische hulpmiddelen om ethiek in AI op te bouwen.
Onderzoeksmethodologie
Het onderzoek omvatte meer dan 1.580 kaderleden van grote organisaties (met meer dan 1 miljard dollar aan jaarinkomsten) uit 10 landen (China, Frankrijk, Duitsland, India, Italië, Nederland, Spanje, Spanje, Zweden, het Verenigd Koninkrijk en de VS). De leidinggevenden waren afkomstig uit drie groepen – general management/strategie/bedrijf; IT/AI/datawetenschap/analytica; HR en marketing. Daarnaast werd een consumentenonderzoek uitgevoerd onder 4.400 consumenten uit zes landen (VS, China, VK, Frankrijk, Duitsland, Nederland en het Verenigd Koninkrijk), die in het verleden allemaal een of andere vorm van AI-interactie hebben gehad, zodat zij zich konden verhouden tot ethische, vertrouwens- en transparantiegerelateerde kwesties in AI. Het Capgemini Research Institute hield ook diepte-interviews met meer dan 20 academici, industrie-experts en ondernemers.
Een exemplaar van het rapport kan hier worden gedownload.
7 november (online seminar op 1 middag)Praktische tutorial met Alec Sharp Alec Sharp illustreert de vele manieren waarop conceptmodellen (conceptuele datamodellen) procesverandering en business analyse ondersteunen. En hij behandelt wat elke data-pr...
11 t/m 13 november 2024Praktische driedaagse workshop met internationaal gerenommeerde trainer Lawrence Corr over het modelleren Datawarehouse / BI systemen op basis van dimensioneel modelleren. De workshop wordt ondersteund met vele oefeningen en pr...
18 t/m 20 november 2024Praktische workshop met internationaal gerenommeerde spreker Alec Sharp over het modelleren met Entity-Relationship vanuit business perspectief. De workshop wordt ondersteund met praktijkvoorbeelden en duidelijke, herbruikbare ...
26 en 27 november 2024 Organisaties hebben behoefte aan data science, selfservice BI, embedded BI, edge analytics en klantgedreven BI. Vaak is het dan ook tijd voor een nieuwe, toekomstbestendige data-architectuur. Dit tweedaagse seminar geeft antwoo...
De DAMA DMBoK2 beschrijft 11 disciplines van Data Management, waarbij Data Governance centraal staat. De Certified Data Management Professional (CDMP) certificatie biedt een traject voor het inleidende niveau (Associate) tot en met hogere niveaus van...
3 april 2025 (halve dag)Praktische workshop met Alec Sharp [Halve dag] Deze workshop door Alec Sharp introduceert conceptmodellering vanuit een non-technisch perspectief. Alec geeft tips en richtlijnen voor de analist, en verkent datamodellering op c...
10, 11 en 14 april 2025Praktische driedaagse workshop met internationaal gerenommeerde spreker Alec Sharp over herkennen, beschrijven en ontwerpen van business processen. De workshop wordt ondersteund met praktijkvoorbeelden en duidelijke, herbruikba...
15 april 2025 Praktische workshop Datavisualisatie - Dashboards en Data Storytelling. Hoe gaat u van data naar inzicht? En hoe gaat u om met grote hoeveelheden data, de noodzaak van storytelling en data science? Lex Pierik behandelt de stromingen in ...
Deel dit bericht