Hoe je een intern AI-beleid opstelt waarmee medewerkers meer kunnen doen en je bedrijf wordt beschermd

Nu AI steeds meer wordt gebruikt, hebben bedrijven intern beleid nodig dat medewerkers meer mogelijkheden biedt en tegelijk risico's beheerst. Ontdek hoe je duidelijke richtlijnen voor vertrouwde AI ontwikkelt die zijn gebaseerd op transparantie, innovatie en praktische stappen.
Het gebruik van AI en agentische AI versnelt in alle sectoren. Executives voelen de druk van het bestuur, investeerders en stakeholders om deze tools veilig in te zetten voor meer efficiëntie en innovatie. De realiteit is dat veel werknemers al AI gebruiken in hun alledaagse werk, maar vaak zonder duidelijke richtlijnen of toezicht. Uit recent onderzoek door Slack blijkt dat het dagelijks gebruik van AI door kantoormedewerkers in de afgelopen zes maanden met maar liefst 233% is gestegen. Medewerkers die AI inzetten, zijn 64% productiever en 81% tevredener in hun werk dan collega’s die AI niet gebruiken. Een andere enquête van Slack laat zien dat werknemers mogelijk niet volledig profiteren van de efficiëntievoordelen van AI zonder de juiste training en begeleiding.
Belangrijke voordelen en overwegingen bij het opstellen van een intern beleid voor AI-gebruik
Bij een effectief intern beleid voor AI-gebruik moeten innovatie en verantwoord gebruik op elkaar afgestemd worden. We noemen enkele belangrijke aandachtspunten voor de richtlijnen:
- Beveiliging en gegevensbescherming: AI-tools kunnen onbedoeld gevoelige informatie blootgeven, waardoor het risico op datalekken en ongeoorloofde toegang toeneemt. Het beleid moet duidelijke richtlijnen geven over welke data in AI-systemen mag worden gebruikt en garanderen dat alleen goedgekeurde tools met versleuteling en toegangscontroles worden ingezet.
- Naleving van voorschriften: toezicht op naleving van de regels bij AI ontwikkelt snel. Bedrijven moeten ervoor zorgen dat het interne AI-gebruik minimaal voldoet aan het groeiende aantal wettelijke vereisten, waaronder diverse staatswetten in de VS en de AI-wet van de Europese Unie. Sommige regelgeving verbiedt bepaalde AI-toepassingen, vereist menselijk toezicht bij AI-beslissingen en verplicht beoordelingen op vooringenomenheid en transparantie. Met een goed gestructureerd intern AI-beleid blijven organisaties de nalevingsvereisten voor en bieden ze medewerkers praktische richtlijnen.
- Afstemming op de bedrijfswaarden: interne richtlijnen voor AI moeten ook aansluiten bij de ethische overtuigingen en bedrijfsprincipes van de organisatie. Veel bedrijven koppelen hun interne AI-beleid bijvoorbeeld aan bestaande normen, zoals gedragscodes. Bij Salesforce laten wij ons leiden door onze waarden, waaronder onze beginselen voor vertrouwde AI, die ook van toepassing zijn op agentische AI. We maken van deze principes gebruik voor de ontwikkeling van ons externe en interne AI-beleid, waarbij we het advies voor medewerkers zo praktisch en gebruiksvriendelijk mogelijk houden. Het opstellen van interne beleidsregels voor het gebruik van AI volgens de bedrijfswaarden bevordert bovendien het vertrouwen van werknemers én klanten.
Vier stappen bij het opstellen van interne AI-richtlijnen
Het meest effectieve AI-beleid richt zich niet alleen op wat medewerkers niet mogen, maar geeft ook duidelijk advies over wat wél kan. Hier geven we een praktisch framework met vier stappen voor het opstellen van interne AI-richtlijnen.
1. Breng het huidige gebruik van AI in kaart en betrek meerdere functieoverschrijdende teams
Organisaties moeten beoordelen hoe medewerkers AI al gebruiken in hun dagelijkse werkzaamheden. Een interne beoordeling geeft inzicht in bestaande en toekomstige AI-toepassingen en helpt potentiële risico’s en kansen te identificeren. Door juridische, beveiligings-, HR-, inkoop- en engineeringteams te betrekken bij het ontwerpproces wordt het beleid alomvattend en worden nalevings-, beveiligings- en ethische aspecten meegenomen. Zo wordt duidelijk waar gedetailleerdere richtlijnen nodig zijn bij intensief gebruik en waar wettelijke of ethische risico’s groter zijn. Voorbeelden hiervan zijn AI-beslissingen over medewerkers, het gebruik van door AI gegenereerde video’s, afbeeldingen en stemmen in marketing, of situaties waarin AI gevoelige bedrijfs- of klantgegevens verwerkt.
2. Geef medewerkers praktisch advies
Een goed gestructureerd AI-beleid ondersteunt veilig experimenteren door aandacht te geven aan goedgekeurde en zelfs aangemoedigde use cases, tools en workflows. Bedrijven moeten AI-tools inzetten die veilig verbinding maken met interne databronnen en taken uitvoeren zonder privacy te schenden. De tool die ik bijvoorbeeld elke dag gebruik, is Slack AI. Hiermee kan ik Einstein niet alleen veilig vragen mijn werkresultaten en ideeën te bewerken, maar ook belangrijke bedrijfsinformatie in Slack te vinden, samen te vatten en te organiseren. Agentforce in Slack breidt de mogelijkheden uit met functies zoals het plannen van teambijeenkomsten en het beantwoorden van teamvragen. Dankzij AI-tools met ingebouwde beperkingen kunnen medewerkers veilig en ethisch werken met AI, zonder onnodige wrijving.
3. Werk met doorlopende monitoring en iteratie
AI-beleid moet meebewegen met de ontwikkelingen in technologie en regelgeving. Organisaties moeten een schema opstellen voor regelmatige beleidsupdates over nieuwe AI-mogelijkheden, veranderende voorschriften en opkomende risico’s. Door een gestructureerd feedbackproces in te voeren, waarin medewerkers input geven over uitdagingen bij AI-gebruik, kunnen richtlijnen continu worden verfijnd. Hoewel inkoopteams een rol spelen bij de evaluatie van AI-tools, is het belangrijk te kiezen voor betrouwbare leveranciers die investeren in beveiliging en verantwoorde AI-ontwikkeling.ntwikkeling.
4. Bied hulpbronnen en training aan medewerkers
Organisaties moeten duidelijke kanalen inrichten waar medewerkers antwoorden vinden op vragen over AI, bijvoorbeeld via een interne AI-agent voor vraag en antwoord. Zorg daarnaast voor ondersteunende middelen, zoals AI-training op Trailhead en tijd voor upskilling en training, zodat medewerkers goed voorbereid zijn op de samenwerking tussen mens en AI. Door te investeren in scholing stimuleer je verantwoord AI-gebruik en versterk je tegelijk het kader voor AI-beheer binnen het bedrijf.
Neem de volgende stap op weg naar verantwoordelijk AI-gebruik
Naarmate het gebruik van AI toeneemt, moeten organisaties proactief duidelijk maken hoe medewerkers AI op een verantwoorde manier kunnen gebruiken om optimaal te profiteren van de kansen die deze technologie biedt. Een goed opgesteld AI-beleid zorgt voor naleving, beschermt data en geeft medewerkers het vertrouwen om AI ethisch en effectief in te zetten binnen de hele organisatie.
Dit is hét moment om je interne AI-beleid op te stellen of te evalueren. Ontdek de AI-tools van Salesforce en Slack, ontwikkeld met betrouwbaarheid en beveiliging als uitgangspunt, en investeer in de training van medewerkers via beschikbare hulpbronnen zoals Trailhead, het gratis online trainingsplatform van Salesforce.