Voor organisaties gaan de ethische vragen niet alleen over compliance. Hoe voorkom je reputatieschade bij een datalek? Wat doe je als je verdienmodel afhankelijk is van de mogelijkheden persoonsgegevens te kunnen analyseren? Soms kiezen klanten bewust voor bedrijven die op een transparante en verantwoorde manier omgaan met persoonsgegevens. Organisaties doen er goed aan hierover een standpunt in te nemen. Hieronder een aantal aandachtspunten voor het opstellen van een ethische verklaring.
Grote technologiebedrijven, waaronder Google, Microsoft en IBM, hebben hun eigen ethische verklaringen opgesteld over de wijze waarop zij omgaan met data en kunstmatige intelligentie. Daarin vind je vergelijkbare teksten terug. Google had begin 2019 bovendien een externe adviesgroep in het leven geroepen om te helpen met de implementatie van hun principes en met de afweging van wat goed is voor het bedrijf en goed voor de maatschappij. Deze groep viel echter binnen enkele weken alweer uit elkaar. Dit laat zien dat het formuleren van uitgangspunten en richtlijnen op zichzelf niet voldoende is.
De agenda van de top van de organisatie
Op een verantwoordelijke manier omgaan met kunstmatige intelligentie behoort op de agenda van de top van de organisatie te staan. Applicaties die zijn bedoeld om de efficiency en de winstgevendheid te vergroten, kunnen onbedoeld grote schade aanrichten aan zowel de reputatie van het merk en de organisatie als aan medewerkers, klanten en de samenleving. In het publieke debat kom je niet weg met het formele argument dat je aan alle wet- en regelgeving hebt voldaan, al is het maar omdat veel dingen die nu technisch mogelijk zijn nog niet zijn gereguleerd. Je zult aan externe stakeholders actief moeten kunnen uitleggen dat het gebruik van kunstmatige intelligentie tot eerlijke uitkomsten leidt, dat je de privacy van klanten respecteert en dat je interne procedures robuust zijn.
Gebruik voorbeelden
Om sturing te geven aan de keuzes en gedragingen van de mensen in de organisatie, moet je de algemene ethische uitgangspunten zo veel mogelijk vertalen naar concrete handvatten. Dit is echter geen onderwerp dat je eenvoudig vertaalt in kwantitatieve prestatie-indicatoren. Een oplossing is dan aan de hand van voorbeelden te illustreren in welke situaties je kunstmatige intelligentie kunt toepassen en welke waarborgen je in het proces inbouwt, zoals een mogelijkheid in beroep te gaan tegen systeembeslissingen. Daarbij kun je ook laten zien hoe je tegenstrijdige doelstellingen en waarden moet afwegen.
Stel dilemma’s aan de orde
Hoever ga je in het verzamelen van meer data om de voorspelfout te verkleinen als dat inbreuk doet op de privacy? Wat als het algoritme met het beste resultaat een black box is die we niet begrijpen en niet kunnen uitleggen? En ben je bereid technologie, bijvoorbeeld voor gezichtsherkenning, te verkopen aan organisaties of regimes die daarmee mensenrechten schenden of de democratie ondermijnen? Bestuurders doen er goed aan veel van dergelijke dilemma’s aan de orde te stellen om de ethische pijnpunten boven tafel te krijgen.
Structurele maatregelen en procedures
Binnen de organisatie moet je een cultuur creëren waarin er vragen over ethiek mogen worden gesteld en serieus worden genomen. De top van de organisatie moet daarin het goede voorbeeld geven en er is veel communicatie en training nodig om dit uit te dragen. Daarnaast moet je structurele maatregelen nemen en procedures afspreken die waarborgen dat de ethische afwegingen een vast onderdeel zijn van bijvoorbeeld het productontwikkelingsproces. De procedures voor risicomanagement kunnen hierbij als voorbeeld dienen. Bijkomend voordeel van deze benadering is dat ze handvatten biedt om aan externe toezichthouders en accountants aan te tonen dat je als organisatie ‘in control’ bent.
Vertrouwen van klant en stakeholders
De nadruk ligt vooralsnog op het voorkomen van fouten en ongelukken. Het is nog niet zover dat een sterke, uitgesproken positionering op het gebied van ethiek en het verantwoordelijk gebruik van kunstmatige intelligentie een concurrentievoordeel oplevert. Ook de reputatieschade voor bedrijven die fouten maken, denk aan het schandaal rond Facebook en Cambridge Analytica ten tijde van de Amerikaanse presidentsverkiezingen in 2016, valt erg mee. Consumenten lijken nog steeds bereid hun data af te staan en privacy in te leveren in ruil voor gebruiksgemak. De vraag is of dit zo blijft. Bedrijven doen er goed aan zich voor te bereiden op een intensivering van het maatschappelijk debat over de grenzen van kunstmatige intelligentie. Niet alleen omdat de overheid eisen stelt, maar vooral om het vertrouwen van de klant en de andere stakeholders te behouden.
Geen gebruik is een bewuste keuze
Overigens is het niet gebruiken van kunstmatige intelligentie ook een strategische keuze die tot problemen kan leiden en daarom bewust moet worden gemaakt. Als je weet dat het gebruik van algoritmes voor het selecteren van nieuwe medewerkers tot meer diversiteit leidt, kun je dan nog uitleggen waarom je die algoritmes niet zou gebruiken? Hoeveel ruimte laat je aan professionals om af te wijken van de adviezen van een slim systeem, zeker als een benchmarkstudie heeft aangetoond dat het systeem tot betere resultaten leidt?
Bron: Winnen met kunstmatige intelligentie van Willem Peter de Ridder.
Willem Peter de Ridder geeft op 30 oktober een masterclass tijdens het Grote Kwaliteitscongres.