Technologie en ethiek flink kunnen schuren. Hoe kunnen we de mensheid ervoor behoeden dat hij overvleugeld wordt door kunstmatige intelligentie, robotica en slimme machines? ‘De uitdaging is om technologie zo te ontwerpen en te gebruiken dat deze voldoet aan menselijke, ethische normen. En dat kun je niet alleen aan de markt overlaten’, zegt de Delftse hoogleraar ethiek en technologie Jeroen van den Hoven.
Dat de techniek het van de mensen overneemt, is een stroming in het denken die ver vooruitkijkt. Van den Hoven hoort daar niet bij: ‘Het leidt af van de ongelukken die we de komende tien à twintig jaar kunnen krijgen. Denk aan datalekken, aantasting van privacy en het manipuleren van verkiezingen zoals tijdens de Trump-campagne gebeurd is met data van Facebook-gebruikers door Cambridge Analytica. Intelligentie kruipt in alle slimme apparaten. Maar soms hebben we dingen niet meer volledig onder controle omdat we gewoon nog niet snappen wat die machines precies doen. Of ze slimmer zijn dan mensen of niet, dat boeit me niet zo.’
‘De tendens is om kunstmatige intelligentie uit te rollen in alle maatschappelijke sectoren en in technologie stop je ideeën over de samenleving. Dat impliceert dat belangen van mensen, consumenten en patiënten erbij in kunnen schieten wanneer we in een hyper-connected wereld de risico’s van technologie niet kunnen beheersen en toekomstige generaties blootstellen aan gevaren waarvan we de impact nog niet kunnen overzien.’
Ongemerkt beïnvloeden
Dat de Amerikaanse techsector in korte tijd veel van zijn glans heeft verloren als gevolg van de verspreiding van nepnieuws, geweldsvideo’s, datamisbruik en ernstige beveiligingsproblemen, heeft Van den Hoven ‘absoluut niet overdonderd’. ‘Twee jaar geleden’, vertelt hij, ‘stond onder meer een databedrijf als Cambridge Analytica al op ons netvlies omdat het bezig was met het ongemerkt beïnvloeden van mensen met technologie. Ik heb over dit thema met andere auteurs een artikel gepubliceerd in het vakblad Scientific American. Wanneer je als techonderneming over tientallen miljoenen beschikt, kun je met machine learning, big data en het inkopen van psychologische kennis ook verkiezingen of de Brexit kopen.’
Wanneer je als techonderneming over tientallen miljoenen beschikt, kun je met machine learning, big data en psychologische kennis ook verkiezingen of de Brexit kopen.
‘Met algoritmes is te bepalen welke informatie de gebruiker wellicht wil zien. Informatie die de eigen opvattingen niet weerspreekt en de gebruiker bijna onbewust parkeert in een ideologische afzondering. Algoritmen zijn niet transparant of controleerbaar, ze behoren tot het bedrijfsgeheim. Naarmate meer fenomenen als deepfake face swapping ontstaan en er overal filter bubbles opduiken, zijn feit en fictie niet meer van elkaar te onderscheiden. Digitale manipulatie waarbij mensen bewust op het verkeerde been worden gezet, schaadt ook het open, democratisch gehalte van een samenleving.’
Aan de tekentafel
Met het onder de publieke en politieke aandacht brengen van de gevolgen van de informatietechnologie begon Van Den Hoven (1957) in de jaren negentig. Hij zette onder meer een tijdschrift op over de ethische kanten van de relatie tussen mensenrechten, technologie en bedrijfsleven in de digitale samenleving.
Ethiek is een discipline geworden voor het ontwerpen van een moreel wenselijke, hoogtechnologische wereld.
‘In de jaren negentig werd ik met het vakgebied ethiek voor gek versleten en niet alleen door de techbazen. Inmiddels is het een fashionable topic en is het doel dat de nieuwe generatie ingenieurs ethiek, maar ook duurzaamheid en veiligheid, al aan de tekentafel bij het design van een product integreren. Ethiek is daarmee een discipline geworden voor het ontwerpen van een moreel wenselijke hoogtechnologische wereld. Door vormgeving en keuzes van materiaal en techniek creëer je een biotoop waarin mensen meer mogelijkheden krijgen, of daarin juist beperkt worden. Churchill zei al: “First we shape our buildings and then our buildings shape us”. Ofwel: “We worden zoals de dingen die we gemaakt hebben”.’
Ethiek en technologie
Van den Hoven stond in 2007 aan de basis van het ‘4TU Ethics Institute and Technology’, een netwerk waarin bijna honderd medewerkers van vier technische universiteiten van Nederland samenwerken op het snijvlak van ethiek en technologie. Het instituut geldt als een voorbeeld voor vergelijkbare onderzoeksgroepen in de wereld. Technische topuniversiteiten in China hebben de afgelopen vijf jaren hun curriculum opnieuw ontworpen om ethiek en techniek naar Nederlands voorbeeld te onderwijzen. ‘Miljoenen Chinese ingenieurs gaan kennis maken met ons onderzoek naar verantwoorde omgeving met techniek’, aldus Van den Hoven.
Technische topuniversiteiten in China hebben de afgelopen jaren hun curriculum aangepast om ethiek en techniek naar Nederlands voorbeeld te onderwijzen.
In Nederland heeft het 4TU Ethics Institute onder meer bijgedragen aan het ontwerp van de slimme elektriciteitsmeter – een apparaat dat veel persoonsgegevens verwerkt – en voorwaarden geformuleerd voor de bescherming van de data van huishoudens. Een ander voorbeeld uit de keuken van het instituut is wat Van den Hoven ‘een buitenissig onderwerp’ noemt: onderzoek in opdracht van de rijksoverheid naar alternatieve vormen van lijkbezorging in de uitvaartbranche. ‘Het zogeheten ecoleren is een nieuwe techniek die het lichaam van een overledene omzet in een inactief biologisch poeder. Dat is duurzamer dan begraven of cremeren. Het poeder, het opgeloste lijk dus, is mogelijk te gebruiken als meststof. Dat lijkt me wel een vorm van maatschappelijk innoveren waarbij ethische aspecten nadrukkelijk aan de orde zijn. Maar we doen ook onderzoek naar het design van reactors, naar ethische en veiligheidsaspecten rond operatierobots, naar eksoskeletten waarmee iemand met een verlamming weer kan lopen.’
Human control
‘Een ander onderzoeksterrein is de betekenis meaning of human control, een term uit de wapenindustrie voor wapens die zelf een doel kunnen vernietigen, maar ook toepasbaar is op zelfrijdende auto’s. De vraag is dan of een systeem van artificiële intelligentie, om een drone als voorbeeld uit de wapenindustrie te nemen, onderscheid kan maken tussen een kind van 14 met een neppistooltje of een jongen van 17 die een klusje voor de Taliban moet opknappen. Of, als het om de zelfrijdende auto gaat: stuurt zo’n auto uit zichzelf tegen een muur om een kind te ontwijken, of vraagt zo’n actie om menselijke controle?’
Verantwoord innoveren
Dat Van den Hovens vakgebied een snelle evolutie en acceptatie heeft doorgemaakt, onderstrepen ook de adviezen van de European Group on Ethics in Sciences and Technologies (EGE) waar Van den Hoven lid van is. Voor de EGE, een onafhankelijk adviesorgaan van de Europese Commissie, fungeerde Van den Hoven als rapporteur van het ‘Statement on Artificial Intelligence, Robotics and Autonomous Systems’ dat dit voorjaar is uitgebracht.
Het statement roept op tot het ontwikkelen van een gemeenschappelijk, internationaal erkend ethisch en juridisch kader voor het ontwerp, de productie en het gebruik van kunstmatige intelligentie. Deze ambitie is onderdeel van de strategie van de EC om 20 miljard te investeren in het creëren van een interne markt voor digitale producten en diensten. Dat moet Europa minder afhankelijk maken van Amerikaanse en Chinese bedrijven. Zeventig procent van alle economische voordelen van kunstmatige intelligentie vloeit volgens de EC nu weg naar de VS en China.
AI en de rol van Europa
Van den Hoven: ‘Het vormgeven van kunstmatige intelligentie en big data overeenkomstig het Europees Verdrag van de Rechten van de Mens is een ankerpunt, een krachtig politiek statement waarmee Europa zich onderscheidt van machtsblokken als Amerika, Rusland en China. De technologische ambities en het verantwoord omgaan met data van burgers in Europa zijn onlangs nog toegelicht door Macron, de Franse president, in een interview in Wired Magazine. Daarin legt hij een verbinding tussen de ontwikkeling van artificiële intelligentie en rol van de EU in de geopolitieke verhoudingen in de wereld en de Europese verworvenheden op het gebied van mensenrechten, solidariteit en het sociaal-economisch model. De boodschap is: deel de Europese waarden rond Responsible Innovation. Nederland is in Europa ook leverancier van ideeën over techniek en technologie.’
Verantwoord omgaan met technologie moeten we ook mondiaal voor het voetlicht brengen.
‘Verantwoord omgaan met technologie moeten we ook mondiaal voor het voetlicht brengen met het oog op de sustainable development goals, die de internationale gemeenschap heeft geformuleerd: een duurzame energietransitie vanwege de klimaatverandering, streven naar een circulaire economie, meer gezondheid, veiligheid en privacy voor de wereldbevolking. Om deze grote vraagstukken aan te pakken, is slimme technologie de tool waarmee we maatschappelijk verantwoord innoveren. Als je dat eerst lokaal doet, in Nederland bijvoorbeeld, en vervolgens in de rest van Europa, dan gaat de rest van de wereld ook de voordelen overnemen van technologische oplossingen van bijzondere kwaliteit die wij hier bedenken.’
Betere bescherming
Sinds vorig jaar is in de EU de Europese privacywetgeving (AVG) van kracht, het antwoord op de almaar toenemende digitalisering van informatiestromen, dat moet zorgen voor een betere bescherming van persoonsgegevens. Van den Hoven: ‘Over deze wetgeving schijnt zelfs Zuckerberg, de baas van Facebook, te zeggen dat die helemaal niet zo gek is. Europa krijgt plots voor het beleid voor databescherming bijval uit de wereld, terwijl Europa eerst twintig jaar belachelijk is gemaakt vanwege zijn zogenaamde gezeur over morele kwesties als mensenrechten, gelijkheid, privacy en medezeggenschap.’
Door als organisatie naast allerlei vakmensen ook ethische competenties in huis te halen, bouw je intellectueel zelfvertrouwen op om ethische kwesties te omarmen.
De EU-privacywetgeving is ook geen strak juridisch keurslijf, maar een principal-based wet: ‘We willen dat je het netjes doet’. Een appel dus op de verantwoordelijkheid van de ondernemer, van de organisatie, om met hun kennis van de markt en in wisselwerking met de samenleving zelf na te denken over de ethiek met betrekking tot gegevensverwerking. Zie het als een vorm van horizontaal toezicht vergelijkbaar met de douane en de fiscus. Zo’n model is uitermate dynamisch voor hoogtechnologische omgevingen. Daarvoor kun je niet tienduizend regels maken. Voordat die er zijn is de wereld alweer totaal veranderd. Door als organisatie naast allerlei vakmensen ook ethische competenties in huis te halen, bouw je intellectueel zelfvertrouwen op om ethische kwesties te omarmen in plaats van weg te kijken.’
Chatbots en robots
De verantwoordelijkheid tegen de ongewenste gevolgen van kunstmatige intelligentie ligt bij de mens, zegt u. Acht u het denkbaar dat een zelflerend systeem ook zelf ethische afwegingen kan maken die de ethiek van de mens overstijgt?
‘Dat denk ik niet. Ethiek is een menselijke aangelegenheid. Als we ethiek laten afhangen van wat de machine zegt, dan is de mens ernstig tekortgeschoten. Neem chatbots, deze kun je onderling boodschappen laten overdragen om voor ons een probleem op te lossen. Maar wanneer wij vergeten om de randvoorwaarden, de grammatica voor deze chatbots mee te geven, dan ontwikkelen ze een taal die wij niet meer snappen. Als wij iets dat voor ons vanzelfsprekend is, namelijk dat we computers met elkaar laten praten, niet meer kunnen articuleren en sturen, dan levert dat een risico op.’
Als je zegt: ik laat alles aan de machine over, dan heb je in feite je status als moreel persoon opgegeven.
‘Een andere vraag is of we ethische waarden aan een robot kunnen uitleggen als we zelf niet eens weten wat die waarden zijn. En als dat wel lukt, is het toch lastig om het eens te worden over welke waarden. In een bepaalde context en met een beperkte set regels, kun je een robot zelfstandig dingen laten doen, handelingen laten verrichten voor instrumentele doelen. In de industrie is dat al meer voor de hand liggend dan in de zorg. Daar is meer subtiliteit vereist om met robots geen inbreuk op de privacy te veroorzaken. Maar als je zegt: ik laat alles aan de machine over, dan heb ik in feite mijn status als moreel persoon opgegeven.’
Algoritme auditing
Machine learning gaat over de ontwikkeling van algoritmes en technieken waarmee computers kunnen leren. Zijn er speciale vakmensen nodig, een nieuwe beroepsgroep misschien wel, die kunnen voorkomen dat algoritmes willekeurig en luchthartig worden toegepast waardoor ze ons leven gaan beheersen?
‘Dat soort mensen hebben we zeker nodig. Het gaat om professionals in algoritme auditing, een hybride tussen accountancy en computer science. Het Ethics Institute heeft een Europees project ingediend om te onderzoeken aan welke curricula een masteropleiding voor deze nieuwe beroepsgroep moet voldoen. We hebben tot onze schande en schade in andere branches, zoals de voedselsector, gezien hebben hoe gierend het uit de hand kan lopen als we niet auditen en monitoren.
The devil is in the detail en dat gaat niet alleen over ethiek, over respect en mensenrechten, maar ook over kwaliteit van goederen en diensten, over good manufacturing practice. Naarmate de digitale techniek krachtiger wordt, en autonome systemen de werkvloer overnemen, moeten we meer gaan kijken naar de consequenties voor onze werknemers, klanten en de samenleving als geheel. Op termijn verwacht ik dat bepaalde toepassingen van kunstmatige intelligentie gecertificeerd zijn en de domeinen waarin deze wordt toegepast, de geneeskunde en de rechtspraak bijvoorbeeld, en de morele randvoorwaarden nauwkeurig omschreven zijn. Vergelijk het met de scheepvaart: met een rijnaak mag je niet de oceaan oversteken en als je dat wel doet, ben je niet verzekerd.’
Neutraliteit overheid
Heeft de overheid een rol te vervullen bij de regulering van kunstmatige intelligentie, ter voorkoming van uitwassen die grenzen van de menselijke waardigheid overschrijden?
Van den Hoven: ‘De overheid mag meer daadkracht tonen. Het gaat immers heel hard met de technologie. We moeten het zeker niet alleen aan de markt overlaten. Tegelijk is dat ook het pijnpunt voor het liberalisme, dat juist uitgaat van die neutraliteit van de overheid: tot de voordeur en niet verder. Maar in een hoogtechnologische omgeving is het dogma van de neutraliteit van de staat, kerngedachte van het liberalisme, niet meer houdbaar. Wat we ook doen met die krachtige technologie, het heeft linksom of rechtsom altijd effect op het privéleven van mensen.’
In een hoogtechnologische omgeving is het dogma van de neutraliteit van de staat niet meer houdbaar.
‘Je kunt mensen met slimme technologie fantastische mogelijkheden bieden, zoals stamceltherapie of in-vitrofertilisatie, en met technologie mensen cognitief op een hoger plan brengen. Maar je kunt mensen die mogelijkheden ook onthouden. Anders gezegd: als je niet beslist als overheid beslis je óók en zeg je impliciet iets over wat goed zou zijn voor de levens en het geluk van mensen. En als je wél beslist, geef je ook een oordeel. Dus neutraliteit kan niet meer. De overheid moet politieke instituties creëren waar we met openheid nadenken en praten over de wisselwerking tussen ethiek en techniek, big data, internet of things, privacy en regulering van technologie. In feite heb je het dan over hoe, over hervorming, over het herontwerp van de liberale democratie. En het zou me niet verbazen als technologie zelf in die discussie ook weer een praktisch aandeel zal hebben.’
Prof. dr. M.J. (Jeroen) van den Hoven is Hoogleraar Ethiek en Techniek, Universiteit Delft.
Hij verzorgt een college in de Collegereek Kwaliteit in digitale transitie.
Laatste update: 22 juli 2019