Agentic AI-systemen gaan verder dan traditionele machine learning en chatbots. Ze zijn in staat om dagelijkse werkprocessen op een intelligente manier end-to-end te automatiseren. AI-agents werken op basis van doelen, niet alleen op basis van instructies. Ze redeneren, beslissen én gaan over tot actie. Daarom zien we dat bedrijven in de retailsector AI-agents inzetten voor hun winkelmedewerkers.
AI-agents verbeteren de samenwerking tussen winkelmedewerkers, bieden meer inzicht in voorraadbeheer, verkoopkansen en klantverzoeken, en automatiseren taken op de werkvloer op een innovatieve manier. Ze kunnen bijvoorbeeld een retourverzoek van een klant interpreteren en automatisch de bijbehorende logistieke workflows in gang zetten.
Ook kunnen AI-agents de voorraad op verschillende locaties bewaken en op basis van actuele trends zelfstandig bestellingen bij leveranciers plaatsen. Dit soort realtime optimalisatie voorkomt overbevoorrading of voorraadtekorten zonder dat er handmatig hoeft te worden ingegrepen.
Agents kunnen promotionele activiteiten coördineren door de prijzen in e-commerce-, POS- en marketingsystemen bij te werken. Dit zorgt voor consistentie en stiptheid tijdens campagnes waarbij timing cruciaal is. Sommige agents kunnen zelfs data uit interne dashboards en externe tools halen om samenvattingen van belangrijke inzichten te maken voor managers.
Waarom security een belangrijk aandachtspunt is bij het ontwerp
Agentic AI levert enorme meerwaarde op, maar vergroot ook de verantwoordelijkheid van het systeem. AI agents kunnen namelijk beslissingen nemen die direct van invloed kunnen zijn op de bedrijfsvoering, de omzet en de klantervaring. Er zijn een aantal praktische aandachtspunten waar ontwikkelaars, IT- en operationele tech leiders rekening mee moeten houden:
- Manipulatie van prompts: ongewenste invoer – van klanten of hackers -kan ervoor zorgen dat AI-agents onvoorspelbaar gedrag gaan vertonen, waarbij ze bijvoorbeeld bestellingen wijzigen of betalingen terugstorten.
- Misbruik van tools: een AI-agent kan toegang krijgen tot interne tools zoals prijs-API’s of campagnesystemen die niet bedoeld zijn voor autonoom gebruik, waardoor er ongewenste wijzigingen worden uitgevoerd.
- Controlefouten: zonder context van de bedrijfslogica kan een AI-agent een taak meerdere keren verkeerd uitvoeren, waardoor een fout onbedoeld escaleert, met alle gevolgen van dien voor de omzet of het imago van het bedrijf.
- Data-lekken: AI gegenereerde output kan vertrouwelijke informatie over productprestaties, SKU-details of voorraadpatronen onthullen als deze niet goed wordt gecontroleerd.
- Automatiseringsafwijkingen: na verloop van tijd kunnen agents ongemerkt hun gedrag aanpassen, waardoor ze uiteindelijk niet meer aansluiten op de bedrijfsdoelstellingen of het beleid.
- Firewall / toegangscontrole: Er moeten duidelijke regels zijn over wie en wat er met en door de agent kan communiceren, om te voorkomen dat de agent wordt gekaapt of misbruikt.
Dit zijn geen theoretische, maar praktische risico’s, die toenemen naarmate de autonomie groeit. De oplossing is niet om AI-agents te vermijden, maar om ze in te zetten met veilige, controleerbare grenzen en een veilig ontwerp.
Een veilige levenscyclus voor AI-agents in de retailsector
Om agent-AI op een verantwoorde manier in te zetten, moeten IT- en OT-leiders in sectoren zoals de retail een levenscyclusbenadering hanteren die innovatie en controle in evenwicht brengt. Dit begint met het definiëren van duidelijke grenzen voor de agenten. Het is van belang om expliciet vast te leggen welke taken zij autonoom mogen uitvoeren, met goedkeuring van een mens, en door eveneens precies te bepalen welke handelingen de agenten absoluut niet mogen uitvoeren.
Denk vanaf het begin van het ontwerpproces na over mogelijke dreigingen, gebruikmakend van industriestandaarden. Zet je in de schoenen van een tegenstander: hoe zou iemand de agent kunnen misleiden? Kan de agent zowel intern als extern misbruikt worden? Is het mogelijk om de toegang van de agent te escaleren?
Test de agent samen met verschillende teams voordat deze live gaat. Betrek AI-ontwikkelaars, operationele teams, zakelijke belanghebbenden en beveiligingsteams om blinde vlekken te ontdekken en de veiligheid en effectiviteit in de praktijk te waarborgen.
Blijf de agenten na lancering monitoren en hertrainen. Het gedrag kan in de loop van de tijd veranderen, zelfs in systemen zonder directe leercycli. Zorg voor real-time monitoring en observatie-processen, stel prestatie- grenzen in en plan trainingsmomenten. Behandel agenten als dynamische operationele systemen, niet als statische implementaties.
Door: Srikrishna Shankavaram, Principal Cyber Security Architect, CTO Office, Zebra Technologies