Skip to Content

The State of AI: hoe we hier belandden (en wat te verwachten)

A woman and a robot shake hands in front of glowing portals, symbolising collaboration in future technology.

Salesforce's Chief Scientist en Chief Futurist, die er vanaf de begindagen van AI bij waren, vertellen over de evolutie ervan en wat we kunnen verwachten.

De Chief Scientist en Chief Futurist van Salesforce, die AI vanaf het prille begin meemaakten, vertellen over de ontwikkeling ervan en wat we kunnen verwachten.

AI heeft een lange weg afgelegd sinds het prille begin en heeft zich ontwikkeld van sciencefiction tot een krachtige technologie die wereldwijd verschillende sectoren vormgeeft.

Om hier dieper op in te gaan, praat Itai Asseo met twee van Salesforce’s baanbrekende experts die al sinds de begindagen betrokken zijn bij het vormgeven van AI: Chief Scientist Silvio Savarese en Chief Futurist Peter Schwartz. Zij vertellen over de weg tot nu toe en wat we kunnen verwachten van AI, nu het steeds meer invloed heeft op hoe we leven en werken.

Ontdek hoe AI je CRM naar een hoger niveau tilt.

Lees in ons rapport hoe AI je klantrelaties versterkt, nieuwe mogelijkheden schept en je team effectiever maakt.

Is AI echt zo nieuw?

Asseo: Bedankt dat jullie hier zijn om te praten over een onderwerp dat jullie carrières heeft bepaald. Peter, ik begin bij jou. Je herinnert mensen er graag aan dat je de langstzittende werknemer bij Salesforce bent. Je hebt in je leven veel innovatiecycli gezien. AI bestaat natuurlijk al een hele tijd. Kun je ons daar wat meer over vertellen?

Schwartz: Ik ben net 78 geworden en ik houd me al meer dan 50 jaar bezig met nadenken over de toekomst. Ik begon mijn carrière bij het Stanford Research Institute, een van de twee hubs van AI-onderzoek in Amerika. Je had SRI in Stanford, en je had MIT. Ik was vanaf 1972 nauw betrokken bij de discussies rond AI, en eerlijk gezegd liep dat toen op niets uit. Het werd het begin van de eerste ‘AI-winter’. (Een AI-winter verwijst naar een periode waarin er weinig geld en interesse was voor AI)

Het oorspronkelijke idee achter AI was om te begrijpen hoe de menselijke hersenen werken, om dat vervolgens na te bouwen in computermodellen. Maar daar liepen we tegen een probleem aan: de werking van onze hersenen bleek veel ingewikkelder dan iemand had verwacht. Dat leidde eind jaren ’70 tot die eerste AI-winter.

In de jaren ’80 kwam er weer nieuwe belangstelling door de opkomst van parallel computing. Een goede vriend van me, Danny Hillis, was de uitvinder daarvan. Hij had midden jaren ’80 een bedrijf dat Thinking Machines heette. Hij had een geweldige slogan op zijn deur: “Ik wil een machine bouwen die trots op mij zal zijn.” Maar ook dat lukte niet. Wel besefte hij dat we het heel anders moesten aanpakken.

In de jaren ’90 en begin 2000 had AI niets meer te maken met het nabootsen van de hersenen. Er zat geen cognitief model meer achter de wiskundige kant van AI, en dat opende juist nieuwe mogelijkheden. We waren niet langer beperkt door wat we wel en niet begrepen van de hersenen.

Asseo: Silvio, jij staat al jaren aan de frontlinie van AI-onderzoek. Kun je ons helpen de brug te slaan tussen de geschiedenis die Peter schetste en waar we nu staan?

Savarese: Ik begon mijn promotieonderzoek in 2000, midden in zo’n AI-winter. Het was misschien wel de zevende of achtste. AI was toen geen aantrekkelijk onderwerp. De technologie was nog niet ver genoeg om echt bruikbaar te zijn. Het was een lastige tijd. Toch vond ik het fascinerend, vandaar dat ik het ging studeren.

We werkten toen met Bayesiaanse modellen, krachtige statistische hulpmiddelen voor besluitvorming. Zoals Peter al zei: deze netwerken waren gebaseerd op data en probeerden niet de hersenen na te bootsen of daar inspiratie uit te halen. Maar deze datagedreven netwerken hadden één groot nadeel: ze hadden veel ‘feature engineering’ nodig. Dat betekent dat je de data eerst uitgebreid moest bewerken voordat het model ermee kon werken. Het model kon niet zomaar ruwe data verwerken, dus moest je die eerst voorbewerken. Daardoor waren de resultaten niet geweldig.

Toen kwam 2010: we gingen weer neurale netwerken gebruiken. Die waren tientallen jaren eerder al populair geweest, maar werden opeens weer interessant omdat ze data konden verwerken zonder al die voorbewerking. Ze konden gewoon ruwe data verwerken. Daardoor waren ze bruikbaar voor allerlei verschillende toepassingen. Het was ongelooflijk om te zien hoe de prestaties opeens de pan uit rezen!

Weer tien jaar later zijn we nu in het tijdperk van transformers en aandachtsmodellen beland. We hebben nu niet alleen geen voorbewerking meer nodig, maar ook geen annotaties. Dat betekent dat deze modellen miljarden gegevenseenheden kunnen verwerken. Daarom zijn deze modellen zo enorm geworden en noemen we ze grote taalmodellen. Wat we toen zagen, had niemand verwacht: opeens konden we in gewone taal met de modellen praten. Ze konden redeneren, content maken, tekst schrijven, video’s en beelden genereren en zelfs plannen maken. En dat maakt ze zo spannend.

Grote actiemodellen zijn de volgende stap na grote taalmodellen. Ze begrijpen niet alleen taal, maar weten ook hoe ze moeten handelen, actie kunnen ondernemen en kunnen leren van feedback om steeds beter te worden.

Silvio Savarese, chief scientist Salesforce

Asseo: Wat is de volgende stap? Waar gaan we naartoe?

Savarese: De volgende stap is wat wij grote actiemodellen noemen, wat volgens ons de evolutie van grote taalmodellen is. Door deze modellen te trainen, kunnen ze niet alleen tekst voorspellen en maken, maar begrijpen ze ook hoe ze moeten handelen, actie kunnen ondernemen en kunnen leren van feedback uit hun omgeving om steeds beter te worden.

Schwartz: Als je kijkt naar het originele idee van grote actiemodellen en hoe we nu Agentforce lanceren – de snelheid waarmee we van concept naar commercieel product zijn gegaan is verbazingwekkend!

AI maakt een enorme groeispurt door

Asseo: Inderdaad, en dat komt mede door het geweldige werk van ons AI Research-team hier bij Salesforce. Zij schreven enkele van de eerste papers over de transformer, wat later leidde tot wat we nu kennen als Generative Pre-trained Transformers, oftewel GPT.

Laten we het over het heden hebben. De laatste jaren is er met alle ontwikkelingen rond generatieve AI ongelooflijk veel veranderd. Vorig jaar hadden we het nog over copilots, nu praten we over agents. Het gaat razendsnel, en misschien komt daardoor ook de onzekerheid. Peter, als toekomstdenker heb je dagelijks te maken met onzekerheden. Wat hoor jij van bedrijfsleiders en klanten?

Schwartz: Besluitvormers en bedrijven zitten met een heleboel grote vragen: hoe snel ontwikkelt de technologie zich? Hoe snel kunnen we toepassingen succesvol implementeren? Wat zijn de gevolgen? Welke regelgeving komt er om het gebruik van AI in goede banen te leiden?

Vanochtend sprak ik nog met het hoofd van een grote bank. Ze zijn heel enthousiast, maar ze moeten ook heel voorzichtig zijn. Ze hebben voor bijna alles wat ze met AI willen doen eerst goedkeuring nodig van toezichthouders.

Er zijn letterlijk duizenden [AI] startups in deze sector. De meeste zullen het niet redden.

Peter Schwartz, chief futurist, Salesforce

Ik hoorde gisteren precies hetzelfde van het hoofd van een zorginstelling. Ook zij moeten heel voorzichtig zijn met regelgeving, vooral als het gaat om patiëntgegevens. En dat is nog maar één aspect. Er zijn verschillende scenario’s mogelijk voor hoe dit zich gaat ontwikkelen.

De regelgeving rond persoonsgegevens kan zich snel en soepel ontwikkelen, maar het is ook goed mogelijk dat we een terugval zien in AI-implementaties. Als mensen dingen uitproberen, werkt het ene wel en het andere niet. Het is een klassieke productcyclus; dit hoort bij het leerproces.

Er zijn letterlijk duizenden startups in deze sector. De meeste zullen het niet redden. Maar sommige groeien uit tot de giganten van de volgende generatie. Misschien zit er wel een nieuwe Apple of Google tussen. Salesforce heeft net Tenyx overgenomen, een bedrijf gespecialiseerd in AI-spraaktechnologie. En binnenkort kun je bij Salesforce gewoon praten met je AI.

Ik denk dat we nog een tijd met deze onzekerheden te maken krijgen. Er is een heel goed boek, “Co-Intelligence” van Ethan Mollick, dat ik van harte kan aanbevelen. Hij adviseert om met scenarioplanning te werken om met de vele onzekerheden rond AI om te gaan.

Asseo: Er is een bekend gezegde: “De beste manier om de toekomst te voorspellen, is door hem zelf te creëren.” De AI-onderzoeksgroep van Salesforce komt met zoveel innovaties. Tijdens de keynote sprak Marc Benioff bijvoorbeeld over de Atlas Reasoning Engine, die sterk beïnvloed is door dat werk. Silvio, kun je iets vertellen over de belangrijkste technologieën uit onze onderzoeksgroep die de innovatie voor Agentforce vormgeven en aandrijven?

Savarese: Laat me eerst even uitleggen wat we hier precies bouwen met Agentforce. We ontwikkelen twee soorten autonome systemen. Het ene noemen we een AI-assistent, het andere AI-agents. AI-assistenten werken nauw samen met mensen en helpen bij dagelijkse taken zoals e-mails schrijven, afspraken maken en reserveringen plannen.

Dit vereist veel maatwerk – de assistent moet begrijpen wat de voorkeuren van de gebruiker zijn en daar rekening mee houden om een taak goed uit te voeren. In dit scenario stuurt een mens de assistent aan om te helpen bij deze taken, we noemen dat ‘human in the loop’.

Daarnaast hebben we AI-agents, die niet op één persoon zijn afgestemd maar op een groep gebruikers of zelfs een hele organisatie. Ze zijn gespecialiseerd in bepaalde vaardigheden en krijgen specifieke rollen toegewezen. Organisaties kunnen ze naar behoefte inzetten om op te schalen en complexe taken uit te voeren.

Met Agentforce bieden we eigenlijk beide types. Wat alle agents en assistenten gemeen hebben, zijn twee dingen: het geheugen en het brein.

Het geheugen stelt deze assistenten en agents in staat om eerdere gebeurtenissen te onthouden, zoals gesprekken, en om cruciale informatie op te halen voor het uitvoeren van taken, zoals gegevens over producten, klanten, beleid of best practices. Dit verrijkt de agents met de juiste kennis. En samen met de engineeringteams bouwen we ook aan de volgende generatie van ons zogenaamde RAG-systeem, oftewel retrieval augmented generation. Hiermee kunnen we effectief informatie uit databases halen en aan de agents geven.

Het tweede belangrijke onderdeel is het brein, technisch gezien de reasoning engine. (De reasoning engine van Salesforce is ontwikkeld binnen het AI-onderzoeksteam). Deze wordt gebruikt om een taak op te delen in een reeks stappen die een agent kan uitvoeren. Daarbij moeten we ook feedback kunnen verzamelen uit de omgeving.

Asseo: Als we inderdaad van AI die tekst genereert naar AI die actie onderneemt gaan, en we meer autonomie mogelijk maken, ontstaat ook het risico dat we vertrouwen beschadigen. Wat als deze agents iets doen wat we niet willen of niet bedoelen, of iemand beledigen, of erger? Hoe zorgen we voor vertrouwen bij deze agent-technologie?

Savarese: Het is inderdaad complex om deze agents betrouwbaar te maken. We moeten zeker weten dat wat we bouwen veilig is voor klanten. We zitten eigenlijk in een lastige positie. Generatieve AI voor consumenten brengt veel minder risico’s met zich mee. Als een agent bijvoorbeeld een verkeerde restaurantaanbeveling doet, is dat vervelend, maar daar blijft het bij. Maar voor bedrijven kan het echt desastreuze gevolgen hebben als een agent plannen verkeerd uitvoert.

Daarom bouwen we verschillende vangrails in waardoor agents binnen veilige en betrouwbare grenzen opereren. Deze vangrails zijn ontworpen op basis van best practices. We kunnen vangrails en bedrijfslogica inbouwen in de manier waarop we deze agents ontwikkelen.

Hierbij is het belangrijk dat we werken met een iteratief proces waarin we feedback van gebruikers verzamelen en begrijpen waar agents kunnen verbeteren. Transparantie is daarbij essentieel. We zorgen ervoor dat agents aan gebruikers kunnen uitleggen wat ze van plan zijn bij belangrijke beslismomenten en in situaties waar er potentiële risico’s zijn die schadelijk kunnen zijn voor het bedrijf.

Asseo: Dat klinkt heel genuanceerd. Peter, wat betekent dit voor de maatschappij, als we kijken naar vertrouwen en de autonomie die we deze agents beginnen te geven?

Schwartz: Dit is volgens mij echt een historische verandering. We bevinden ons in een nieuwe wereld. En eerlijk gezegd weten we het niet precies, er is nog veel onzeker. Maar we gaan AI-agents overal tegenkomen, in allerlei verschillende contexten. Ze zullen op de achtergrond dingen regelen, zodat jij er niet over na hoeft te denken. En dat laatste is cruciaal: je hoeft er niet over na te denken.

Maar zoals Silvio al zei, hebben we nog steeds mensen nodig in dat proces, en dat blijft nog wel even zo. Een van de films waar ik aan meeschreef, “War Games”, heeft een moment tegen het einde waar Matthew Broderick in de commandoruimte is en het lijkt alsof er Sovjetraketten over de Noordpool komen. Dan wijst John Wood, de computerwetenschapper, naar het scherm en zegt: “Zie je niet dat dit een computerhallucinatie is?”

We hebben computerhallucinaties eigenlijk al in 1979 uitgevonden in die film. Maar het laat wel zien waar we op moeten letten. Het was een mens die herkende dat dit een spel was en geen werkelijkheid. En ik denk dat we nog vaak in dat soort situaties terecht gaan komen, waarbij we nog lange tijd menselijke controle nodig hebben om er zeker van te zijn dat wat de agents doen overeenkomt met wat mensen bedoelen.

Hoe ziet de toekomst eruit voor AI?

Asseo: Je neemt ons nu mee naar de toekomst, Peter, ons laatste onderwerp. We gaan naar een wereld waarin autonome agents overal zijn en we allemaal persoonlijke assistenten hebben. Laten we daar eens dieper op ingaan. Silvio, jij hebt veel werk gedaan op het gebied van robotica. Hoe gaat zich dat vertalen en hoe ziet die wereld eruit als je agents en robotica combineert?

Savarese: Tijdens mijn carrière bij Stanford werkte ik jarenlang in het Robotica Lab aan onderzoek naar robotwaarneming, waardoor robots de wereld kunnen begrijpen en zien. We werkten toen met enorme robots met grote armen, en we leerden ze dingen als een omelet bakken of espresso maken. Als ik terugkijk naar die onderzoeksuitdagingen, zie ik dat we nu met vergelijkbare uitdagingen te maken hebben. Een robot bouwen en een agent ontwikkelen zijn eigenlijk vergelijkbare problemen.

Als je kijkt naar een agent die een reis voor je boekt, of een robot die een omelet bakt, dan voeren ze vergelijkbare taken uit. Ze hebben allebei geheugen nodig – de robot moet de ingrediënten voor de omelet onthouden en weten waar het kookgerei ligt. En de digitale agents moeten onthouden welke websites ze moeten bezoeken om een vlucht te boeken.

Ze hebben ook allebei een brein nodig, want de robot moet een plan maken om die omelet te bakken. Daar horen stappen en procedures bij. En voor het boeken van een reis moet de agent ook een reeks stappen bedenken om dat succesvol af te ronden.

Een belangrijk punt dat voor beiden geldt is de omgeving, die niet altijd meewerkt. Stel dat de robot geen eieren kan vinden of de olie of pannen niet kan vinden. Wat dan? Ze kunnen niet zomaar opgeven, toch? Ze moeten een plan B hebben. Hetzelfde geldt als een agent een reis probeert te boeken en geen tickets of geschikte vlucht kan vinden. Wat doe je dan? Je moet met een alternatief plan komen. Dit vermogen om je aan te passen aan een dynamische of zelfs tegenwerkende omgeving is cruciaal.

Het grote verschil tussen robots en agents is dat de agent digitaal is en de robot fysiek. Dat betekent dat we de juiste mogelijkheden moeten ontwikkelen met zintuiglijke systemen (zicht, tast, geluid) die de weg vrijmaken voor de volgende generaties agents.

Asseo: Welk advies zou je geven aan managers, en eigenlijk iedereen, die begint met het experimenteren met AI op het werk?

Schwartz: Steek je handen uit de mouwen. Bouw een agent. Begin met verschillende modellen te experimenteren. Kijk wat voor jou werkt, wat werkt in jouw vakgebied. Het is nog zo nieuw dat experimenteren enorm loont.

Savarese: En laten we het vertrouwen niet vergeten. Laten we niet vergeten dat we deze agents op een veilige manier moeten bouwen. Ik wil twee belangrijke punten benadrukken. Ten eerste moeten we zorgen voor transparantie, zodat duidelijk is wat door AI is gemaakt en wat door mensen. We moeten daar in ons hoofd en in het hoofd van onze klanten een duidelijk onderscheid in maken.

Het tweede punt is aansprakelijkheid. In een scenario waarin de agents van de ene partij iets proberen te doen wat botst met de agents van een andere partij – wie is er dan verantwoordelijk bij een conflict? Hoe gaan we dit soort situaties reguleren? Dit is heel belangrijk, want het komt er snel aan. Het is een probleem waar we snel mee te maken krijgen.

Ontdek hoe AI je CRM naar een hoger niveau tilt.

Lees in ons rapport hoe AI je klantrelaties versterkt, nieuwe mogelijkheden schept en je team effectiever maakt.






Wil je niks missen? Meld je aan voor onze online nieuwsbrief!