Organisaties maken steeds vaker gebruik van kunstmatige intelligentie (AI) voor hun behoeften op het gebied van automatisering, besluitvorming, klantenondersteuning en groeistrategie. Een grotere AI-werklast brengt echter ook belangrijke beveiligings- en privacyoverwegingen met zich mee. Ontdek hoe bedrijven op een veilige manier kunnen profiteren van AI met het Salesforce Platform. De ingebouwde Einstein Trust Layer pakt beveiligingsproblemen aan door te zorgen voor robuuste databeveiliging, privacynaleving, transparante AI-activiteiten, strikte toegangscontroles en uitgebreide audittrails.
Waarom veilige AI-workflows voor bedrijven zo belangrijk zijn
AI staat voor geavanceerde technologie die machines in staat stelt mensachtig gedrag na te bootsen, zoals leer- en probleemoplossende processen. AI is een onderzoeksgebied dat Large Language Models (LLM’s), complexe algoritmen en grote datasets omvat die gebruikmaken van machine learning.
Hoewel het concept van AI al tientallen jaren bestaat, is door de recente versnelling en toepassing van groeiende hoeveelheden data de rekenkracht ervan exponentieel toegenomen. Uit een recent onderzoek van Salesforce blijkt dat meer dan twee derde (68%) van analyse- en IT-teams verwacht dat de datavolumes de komende 12 maanden zullen toenemen, waardoor het beveiligen van data die in taalmodelprompts wordt ingevoerd, een nog grotere uitdaging wordt.
Wat is AI voor bedrijven?
In een zakelijke omgeving zijn AI-systemen afhankelijk van betrouwbare en nauwkeurige invoergegevens om aanbevelingen voor besluitvorming te genereren. Bij het verwerken van klantdata is het belangrijk om de voordelen van twee soorten AI-modellen te begrijpen als het gaat om de toepassing ervan op zakelijke behoeften:
- Voorspellende AI maakt gebruik van geavanceerde algoritmen en patroonherkenning om data uit het verleden te analyseren en trends in een bepaald scenario te voorspellen. Voorspellende AI heeft veel zakelijke gebruiksscenario’s die zorgen voor een betere klantervaring en besluitvorming. Het gaat dan bijvoorbeeld over vraagprognoses voor salesteams, triage van support via chatbots voor serviceteams, het geven van productaanbevelingen voor commerce-conversies, en nog veel meer.
- Generatieve AI (Gen AI) creëert nieuwe content over een bepaald onderwerp op basis van een invoerprompt. Het kan content, afbeeldingen en zelfs softwarecode genereren. De zakelijke gebruiksscenario’s omvatten veel verschillende domeinen, van het genereren van oproepoverzichten voor salesteams en berichtenscripts voor servicemedewerkers tot het personaliseren van marketingmateriaal voor gerichte campagnes, en meer.
Pak de belangrijkste LLM-risico’s aan bij het bouwen van je Gen AI-oplossing
Ontdek hoe het Salesforce Platform risico’s aanpakt, welke controles je moet hanteren en de belangrijkste richtlijnen voor beveiligingsteams om de Gen AI-beveiliging te evalueren.


Maak gebruik van AI voor bedrijfsefficiëntie
Veel bedrijven gebruiken AI om een concurrentievoordeel te behalen door de efficiëntie, innovatie en klantervaring te verbeteren. Er zijn veel gebruiksscenario’s voor de toepassing van AI, zoals:
- Een beter timemanagement: AI zorgt voor een beter timemanagement door processen te stroomlijnen en tijdrovende taken te automatiseren. Voorbeelden zijn geautomatiseerde planning, prioritering en taakautomatisering.
- Slimmere besluitvorming: AI verbetert de besluitvorming door snel grote datasets te analyseren en inzichten te geven of prognoses te maken.
- Rechtstreekse ondersteuning: AI-chatbots bieden 24/7 ondersteuning en gepersonaliseerde aanbevelingen, waardoor de klanttevredenheid wordt verbeterd door middel van snelle respons.
- Verhoogde omzet: AI kan de omzet verhogen door marketingteams te helpen campagnes te optimaliseren met groeistrategieën op maat, door salesteams sneller deals te laten sluiten door de beste vervolgstappen te bepalen, en IT-teams sneller te laten implementeren met prestatie- en operationele inzichten.
4 strategieën voor veilige AI-systemen
Bij het gebruik van gevoelige data in AI-datasets is het van cruciaal belang om rekening te houden met beveiliging en privacy. Het invoeren van onnauwkeurige data kan beveiligingsrisico’s met zich meebrengen, waaronder schending van de dataprivacy, inbreuk op de databeveiliging en algoritmische bias.
Bij LLM’s leert het model ook de invoerdata, die via het continu lerende algoritme onderdeel worden van de output. Met andere woorden: de ingevoerde informatie is direct gerelateerd aan de gegenereerde output. Het model gebruikt patronen die het heeft geleerd uit zijn trainingsdata om een antwoord te genereren dat contextueel relevant is voor de invoer. Het is dus belangrijk om toegangscontroles van deze modellen te beheren, door maatregelen te treffen die een betrouwbaar AI-systeem in stand houden.
Hier volgen enkele tips om AI-systemen te beveiligen:
- Databeveiliging: AI-systemen moeten beschikken over robuuste beveiligingsmaatregelen om datalekken te voorkomen. Dit omvat versleuteling van data in opslag en tijdens overdracht, veilige API’s, veilige toegangscontroles en beperkte dataretentie na het beoogde gebruik.
- Dataprivacy: AI-systemen verwerken enorme hoeveelheden data die persoonlijk identificeerbare informatie (PII) kunnen bevatten. Zorg ervoor dat je veilig met deze data omgaat, waarbij je rekening houdt met alle toepasselijke wet- en regelgeving op het gebied van dataprivacy. Het depersonaliseren en maskeren van data waar mogelijk is een belangrijke methode om het lekken van gevoelige gebruikersinformatie te voorkomen.
- Algoritmische bias: Train AI-systemen op diverse datasets om bias te voorkomen. Volgens een recent onderzoek van Salesforce maakt 63% van de ondervraagde klanten zich zorgen over bias in AI. Houd rekening met de kwaliteit van de data, de grootte van een dataset en de relevantie van data voor de use case. Het is ook belangrijk om AI-systemen regelmatig te controleren op bias en eerlijkheid.
- Transparantie: AI-systemen moeten transparant zijn en uitleg geven over hun voorspellingen en beslissingen. Transparantie begint met de erkenning dat de systeemoutput gebruikmaakt van AI. Daarom is het belangrijk om documentatie bij te houden over hoe AI-systemen worden gebruikt. Dit helpt niet alleen bij het opbouwen van vertrouwen bij gebruikers, maar wordt ook steeds meer een wettelijke vereiste.
Salesforce Platform verwerkt veilige workflows
Het Salesforce Platform is een suite AI-producten waarmee alle gebruikers van Salesforce die grote datasets binnen hun organisatie verwerken, toegang krijgen tot de kracht van AI. Het Salesforce Platform maakt workflows slimmer met behulp van zowel voorspellende als generatieve mogelijkheden om de meeste impact te genereren. Agentforce behoort ook tot het platform, een tool die gebruikers helpt taken te automatiseren en aanbevelingen te doen, waardoor de productiviteit en besluitvorming worden verbeterd.
Prompts met veilige grounding
Het gebruik van AI kan tal van risico’s met zich meebrengen. De Einstein Trust Layer is ontworpen om veelvoorkomende beveiligingsrisico’s te detecteren en te beperken bij het gebruik van deze krachtige tool. De Trust Layer zorgt ervoor dat er sprake is van verantwoorde AI-praktijken, dat gebruikersdata met de grootste zorg worden verwerkt en dat de integriteit van het AI-systeem niet wordt aangetast.
- Databeveiliging: De Einstein Trust Layer zorgt ervoor dat alle gegevens die door Einstein worden verwerkt, beschermd worden door de robuuste beveiligingsmaatregelen van Salesforce. Dit omvat ook versleuteling van data in opslag en tijdens overdracht. Beschouw het een beetje als de tussenschakel tussen je data die zijn opgeslagen in Salesforce en je eigen data lake.
- Oog voor privacy: De Einstein Trust Layer zorgt ervoor dat de AI-engine gebruikersdata respecteert en de naleving van wereldwijde privacywet- en regelgeving ondersteunt. Het is ontworpen om data te verwerken op een manier die de privacy en toestemming van de gebruiker respecteert.
- Toegangscontrole en machtigingen: De Einstein Trust Layer zorgt ervoor dat Einstein dezelfde robuuste mechanismen op het gebied van toegangscontrole handhaaft als het Salesforce Platform. Dit voorkomt ongeautoriseerde toegang tot gevoelige data.
- Audittrails:De Einstein Trust Layer zorgt ervoor dat alle acties die door Einstein worden ondernomen, worden vastgelegd in de uitgebreide audittrails van Salesforce. Dit zorgt voor zichtbaarheid en aansprakelijkheid, en helpt bij het detecteren van en reageren op ongebruikelijke activiteiten.
Over het algemeen biedt de toepassing van AI in bedrijfsprocessen weliswaar aanzienlijke voordelen, maar brengt ook bepaalde beveiligingsrisico’s met zich mee. Het Salesforce Platform, met zijn slim ontworpen Einstein Trust Layer, pakt deze problemen effectief aan en zorgt voor databeveiliging, respecteert privacy, biedt transparante AI-activiteiten en hanteert robuuste toegangscontroles en audittrails.
Meer informatie:
- Bronnen: Einstein Trust Layer en Salesforce Platform
- Video: Bescherm databeveiliging en privacy met de Einstein Trust Layer
- Help: Over generatieve AI voor Einstein
- Trailhead: Verhoog de productiviteit met Einstein AI
- Salesforce-rapport: Zes strategieën om je voor te bereiden op betrouwbare generatieve AI
- Forrester-rapport: Maak gebruik van generatieve AI zonder dat dit ten koste gaat van beveiliging
Best practices van Salesforce op het gebied van beveiliging
Vertrouwen staat bij ons voorop. Bekijk onze bronnen voor meer informatie over onze best practices op het gebied van beveiliging.


