Er zijn veel mogelijkheden voor de inzet van AI, maar er zijn ook nogal wat gevaren en beperkingen. Uiteraard zijn er vele mondiale gevaren van AI zoals Suleyman in het boek The Coming Wave en Harari in Nexus beschrijven. Denk aan de grote afhankelijkheid van IT, de grote hoeveelheid energie die datacenters nodig hebben om te kunnen functioneren en er zal sprake zijn van een enorm banenverlies. Hier valt weinig aan te doen, maar er zijn wel degelijk gevaren en beperkingen die door organisaties te managen zijn en daar richt de EU Artificial Intelligence Act zich op (zie voor meer informatie het boek AI Personalisatie strategie).
Deze is ervoor om te zorgen dat AI-tools door organisaties verantwoord worden ontwikkeld en gebruikt. Een belangrijk onderdeel is het categoriseren van AI-tools in vier risiconiveaus. Hoe hoger het risico voor klanten is, hoe strikter en ingrijpender de maatregelen zijn die de wetgever eist. Een mogelijk gevaar is dat organisaties AI-tools inzetten die de grondrechten van consumenten en burgers aantasten.
Wet van Asimov
De wet van Asimov bestaat uit drie regels.
Dit zijn:
- Regel 1: een robot mag geen leed doen aan mensen.
- Regel 2: een robot moet de orders van mensen opvolgen, behalve voor situaties waar dit conflicteert met regel 1.
- Regel 3: een robot moet zijn eigen bestaan beschermen zolang deze bescherming niet conflicteert met de regels 1 en 2.
Maar in de praktijk zie je dat organisaties niet altijd de wet van Asimov, en met name de eerste regel, toepassen. Een voorbeeld zijn uitbuitende personaliserende AI-tools waarbij misbruik gemaakt wordt van klanten in specifieke kwetsbare situaties. Een ander gevaar vormt de inzet van social-scoring systemen waarbij klanten en burgers geëvalueerd en geclassificeerd worden op basis van bijvoorbeeld hun sociaal gedrag of persoonlijkheidskenmerken – met een sterk discriminerende behandeling tot gevolg. Ook de inzet van het met camera’s uitvoeren van een realtime biometrische identificatie zoals gezichtsherkenning, anders dan voor identificatie waarbij je bewijst dat je bent wie je aangeeft te zijn, vormt een gevaar.
Wat mag niet?
In dit kader zou het volgende voorbeeld volgens de verordening in de EU zeker niet mogen. In China werkt Kentucky Fried Chicken (KFC) met het marketingplatform Baidu samen aan een pilot. Gezichtsherkenningstechnologie scant het gezicht van de KFC-bezoeker. Gebaseerd op de ingeschatte leeftijd, geslacht, gezichtsuitdrukking en andere kenmerken geeft de bestelpilaar de klant gepersonaliseerde productaanbevelingen. De informatie wordt verder opgeslagen zodat bij een vervolgbezoek de KFC-bestelpilaar ook het eerdere bestelgedrag kan meenemen in de suggesties.
Beperkingen aan inzet AI
Er zijn meerdere beperkingen verbonden aan de inzet van AI. Veel AI-systemen generen output op basis van statistische voorspellingen van de best mogelijke output, gebaseerd op wat ze geleerd hebben. Ze bepalen niet of de antwoorden menselijk, logisch en überhaupt realistisch zijn. Verder is AI vaak een black box. Er is een kans dat de mens de controle kwijtraakt en men binnen organisaties niet meer snapt hoe AI-systemen aan bepaalde uitkomsten komen.
Er is wel een ontwikkeling op het vlak van Explainable AI en AI-algoritmen die hun redeneerlijn en aannamen die ze maken laten zien. Maar wellicht is het nog verstandiger om als organisatie zelf de tools te ontwikkelen en niet te afhankelijk te willen zijn van externe partijen. Zo werkt de provincie Zuid-Holland aan een eigen ChatGPT, de ‘PZH-assist’, die medewerkers kunnen gebruiken. De ingevoerde data blijft hierbij binnen de provincie. Maar ook organisaties die AI-tools als een kostenreductie inzetten en hierdoor op een onverantwoorde wijze flink zouden kunnen ingrijpen in de levenssfeer van klanten, vormen een gevaar.
Ten slotte zijn er de AI-tools die op basis van verkeerde data zijn ontwikkeld, waardoor er vooroordelen zijn, of de hallucinerende AI-tools die een flinke fout maken door iets dat onjuist is of iets fictiefs te genereren.
Kwaliteitsbeheersing en AI
Een belangrijk onderdeel van een kwaliteitsbeheersysteem is het doorlopend beoordelen van de kwaliteit van een AI-systeem. Zorg er bijvoorbeeld voor dat je doorlopend feedback van klanten verzameld over hun beleving met de AI-tools die ze gebruiken. Dit bijvoorbeeld doordat klanten gemakkelijk feedback kunnen geven. Verder, verzamel feedback van klanten over de inhoud van de antwoorden. Leer van hun ervaringen met foute, opdringerige of onvolledige antwoorden. En zet bijvoorbeeld ‘red teams’ in. Dit zijn medewerkers die de grenzen en ongewenst gedrag van AI-tools opzoeken. Dus val het systeem aan om zo te leren. Gebruik deze input weer om de AI-tools hiervan te laten leren. Maar bovenal: zorg dat de AI-tools voldoen aan de kernwaarden van de organisatie, net zoals je medewerkers.
Bron: AI-personalisatie strategie
Door: Jean-Pierre Thomassen


