Skip to Content

Status-Check KI: Wie alles begann, wo wir heute stehen, was uns erwartet

Im Interview: Chief Scientist Silvio Savarese und Chief Futurist Peter Schwartz zur Evolution künstlicher Intelligenz.

Science Fiction war gestern. Seit ihren Pioniertagen hat künstliche Intelligenz eine steile Karriere hingelegt und ist heute eine treibende Kraft, die Branchen weltweit neu gestaltet. Auf der diesjährigen Dreamforce interviewte ich zwei gestandene KI-Experten zur historischen Entwicklung künstlicher Intelligenz – und wie sie unser Leben und unsere Arbeit zukünftig prägen wird. Silvio Savarese ist als Chief Scientist und Peter Schwartz als Chief Futurist bei Salesforce beschäftigt.

Künstliche Intelligenz: Von den Anfängen bis heute

Asseo: Vielen Dank, dass Sie beide hier sind, um über Künstliche Intelligenz zu sprechen und damit über das Thema, das Ihre beiden Karrieren geprägt hat. Wir werden drei Hauptbereiche behandeln: Die Geschichte der KI, eine aktuelle Momentaufnahme und einen Ausblick in die Zukunft.

Peter, ich beginne mit Ihnen. Als dienstältester Mitarbeiter bei Salesforce haben Sie schon zahlreiche Innovationszyklen miterlebt. Künstliche Intelligenz gibt es ja nicht erst seit gestern – würden Sie uns einen kurzen historischen Aufriss liefern?

Im Interview auf der Dreamforce 2024: Chief Scientist Silvio Savarese (Mitte) und Chief Futurist Peter Schwartz (rechts)

Schwartz: Gerade bin ich 78 geworden und beschäftige mich seit über 50 Jahren mit zukunftsorientierten Fragestellungen. Meine Karriere begann ich am Stanford Research Institute (SRI), einem der beiden Hotspots der KI-Forschung in Amerika – bei dem anderen handelt es sich um das Massachusetts Institute of Technology (MIT). Ich engagierte mich aktiv am Diskurs rund um künstliche Intelligenz, der ab 1972 in Gang kam.

Die ursprüngliche Idee der anfänglichen KI-Forschung war, die Funktionsweise des menschlichen Gehirns zu verstehen und dann Computermodelle zu erstellen, die diese Funktionen simulieren. Allein – das menschliche Gehirn erwies sich als komplexer, als man erwartet hatte. Mit diesem strategischen Problem brach in den späten 70ern der erste „KI-Winter“ an, damit gemeint ist eine Phase, in der das Interesse an und die Finanzierung von KI-Projekten auf Eis lagen.

Mit der Erfindung von Parallelrechnern flammte das Interesse am Thema wieder auf. Danny Hillis, mit dem ich eine sehr enge Freundschaft pflege, hatte das „Parallel Computing“ erfunden und betrieb Mitte der 80er Jahre ein Unternehmen namens Thinking Machines. An Dannys Tür stand der ambitionierte Slogan: „Ich möchte eine Maschine bauen, die stolz auf mich sein wird.“ Nun, mit Parallel Computing alleine klappte das nicht. Aber damit erkannte Danny: Für zukünftige Forschungsansätze braucht eine völlig andere Strategie.

Parallel Computing

verkürzt die Rechenzeit für komplexe Aufgaben. Statt eine Berechnung Schritt für Schritt auf einem einzigen Prozessor auszuführen, werden die einzelnen Schritte gleichzeitig (parallel) auf verschiedenen Prozessoren oder Kernen verarbeitet. Dies ist besonders nützlich bei großen Datenmengen oder rechenintensiven Anwendungen wie maschinellem Lernen.

In den 1990er und frühen 2000er Jahren vollzog sich ein Paradigmenwechsel: Das Konzept KI wurde komplett vom Modell des menschlichen Gehirns entkoppelt. Die mathematische Architektur Künstlicher Intelligenz wurde jetzt losgelöst von kognitiven Modellen gedacht. Wir wollten die KI-Forschung nicht länger durch die Grenzen dessen, was wir über das Gehirn wissen, einschränken. Das eröffnete ganz neue Möglichkeiten.

Asseo: Silvio, Sie sind seit vielen Jahren leitend in der KI-Forschung tätig. Peter hat uns soeben durch wichtige Momente der früheren KI-Geschichte geführt – wie leitet sich der heutige Entwicklungsstand daraus ab?

Savarese: Ich begann mit meiner Promotion im Jahr 2000, mitten in einem jener „KI-Winter“ – es wird der siebte oder achte gewesen sein. Besonders sexy war das Thema KI zu dieser Zeit nicht. Die Technologie war noch nicht produktionsreif. Ich war trotzdem davon fasziniert und wählte sie zu meinem Forschungsgegenstand. 

Zum damaligen Zeitpunkt arbeiteten wir mit Bayes’schen Modellen, also leistungsstarken statistischen Tools für die Entscheidungsfindung. Um auf Deinen vorigen Punkt einzugehen, Peter: Das waren rein datengesteuerte Modelle, sie basierten nicht auf dem Versuch einer Simulation der menschlichen Gehirns.

Leider aber bringen datengesteuerte Modelle einen enormen Aufwand an Feature Engineering mit sich. Das KI-Modell kann die Rohdaten nicht direkt „absorbieren“; sie müssen aufwändig vorbereitet werden, damit die KI sie verarbeiten kann (siehe Infobox). Damit blieb die Gesamtperformance dieser Modelle recht schwach.

Traditionelles Machine Learning

… erklären wir am besten an einem konkreten Beispiel: Ein Spam-Filter soll automatisch verdächtige E-Mails erkennen und aus der Inbox filtern. Doch wie bringt man ihm das bei?

  1. Daten vorbereiten
    • Beim sogenannten Feature Engineering extrahieren Entwicklerteams aus den Rohdaten relevante Merkmale (Features) und formatieren sie für die Weiterverarbeitung durch das KI-Modell. Für den Spam-Filter würden aus sämtlichen E-Mails Features wie z. B. die Häufigkeit typischer Schlüsselwörter oder Absenderinformationen extrahiert.
    • Anschließend versehen die Entwicklerteams die extrahierten Features mit sogenannten Annotationen oder Labels. Im Beispiel würde z. B. das Merkmal hohe Häufigkeit des Schlüsselworts „gratis“ mit dem Label „Spam“ gekennzeichnet. Ein Label dient dem KI-Modell als Zielvariable bzw. richtige Antwort, die es beim Training lernen soll.
  2. Modell trainieren
    • Im nächsten Schritt wird das Modell mit den aufbereiteten, korrekt gelabelten Daten trainiert. Dabei lernt es, die Beziehung zwischen Features und ihren Labels zu verstehen. Mit diesem Wissen kann das Modell neue, unbekannte Daten analysieren und korrekt klassifizieren: Der Spam-Filter erkennt eine eingehende E-Mail mit einer Häufung des Schlüsselworts „gratis“ als Spam.

Spulen wir vor bis 2010: Plötzlich fanden wir neuronale Netzwerke, die Jahrzehnte zuvor einmal populär und seitdem eher wieder in Vergessenheit geraten waren, wieder hochspannend. Warum? Mit ihnen fiel das aufwändige Feature Engineering weg, d. h. die Rohdaten mussten nicht mehr, wie noch beim traditionellen Machine Learning, für einen speziellen Anwendungsfall aufbereitet werden. Damit ließen sich neuronale Netzwerke wesentlich flexibler und breiter einsetzen. Und: Im Vergleich zu den Vorgängermodellen ging ihre Performance schlagartig durch die Decke.

Deep Learning

basiert auf künstlichen neuronalen Netzwerken, die die Funktionsweise des menschlichen Gehirns nachahmen, um Muster in Daten zu erkennen. Diese Modelle bestehen aus zahlreichen Knoten („Neuronen“), die in mehreren Schichten angeordnet sind (daher „deep“).

Anders als klassische Lernalgorithmen brauchen neuronale Netzwerke kein Feature Engineering, weil sie direkt aus den Rohdaten relevante Merkmale automatisch lernen. Aber: Sie brauchen immer noch Annotationen, um zu wissen, was sie vorhersagen sollen.

Beispiel: Damit ein neuronales Netzwerk E-Mails als „Spam“ oder „Nicht-Spam“ klassifizieren kann, wird es auf komplette E-Mails mit den Labels „Spam“ bzw. „Nicht-Spam“ trainiert. Es lernt automatisch, anhand welcher Merkmale sich beide Kategorien unterscheiden.

Spulen wir ein Jahrzehnt weiter: In der neuen Ära der „Transformer“ wird nicht nur das Feature Engineering obsolet, es braucht jetzt auch keine Annotationen mehr. Das heißt, bei Transformern fällt die komplette Datenvorbereitung weg. Diese großen Sprachmodelle können Milliarden von Rohdaten direkt verarbeiten.

Und dann zeigten transformer-basierte Modelle ein Verhalten, das niemand erwartet hatte: Wir konnten uns mit ihnen in natürlicher Sprache unterhalten, sie zogen logische Schlüsse, generierten Text, Bilder, Videos oder planten komplexe Aufgaben. Und das ist wirklich aufregend. 

Transformer

wurden 2017 eingeführt und sind die Basis moderner Sprachmodelle wie GPT. Anders als ältere Modelle, die jedes Wort nacheinander verarbeiten, erfasst ein Transformer gleichzeitig alle Beziehungen zwischen den Wörtern in einem Text und kann somit Wörter im syntaktischen und semantischen Kontext analysieren. Transformer können außerdem Anfragen parallel und damit wesentlich schneller und effizienter als ältere Modelle verarbeiten.

Transformer-Modelle wurden ursprünglich entwickelt, um statistische Muster in Texten zu lernen und damit realistisch klingende Texte zu generieren, längere Texte zusammenzufassen oder zu übersetzen. Statt aber nur quantitativ bessere Ergebnisse zu liefern, zeigten die Modelle qualitativ neue Fähigkeiten, für die sie nicht explizit trainiert wurden und die an menschenähnliche Intelligenz erinnern: Sie konnten logisch schlussfolgern, kreative neue Inhalte erstellen oder natürlichsprachliche Dialoge führen. Dieses als Emergenz bezeichnete Phänomen ist nicht abschließend geklärt.

Asseo: Und was kommt danach? Wie wird die Entwicklung Künstlicher Intelligenz weitergehen?

Savarese: Der nächste Schritt sind so genannte Large Action Models, eine evolutionäre Weiterentwicklung der großen Sprachmodelle. Sie generieren nicht nur Inhalte; sie verstehen, was als Nächstes zu tun ist, sie können tatsächlich handeln, und sie verbessern feedbackbasiert ständig ihre Leistung.

Large Action Models lösen Large Language Models ab. Sie verstehen, was als nächstes zu tun ist, sie können tatsächlich handeln, und verbessern feedbackbasiert ihre Performance.

Silvio Savarese, Chief Scientist, Salesforce

Schwartz: Vom ursprünglichen Konzept eines Large Action Models bis zur kommerziellen Markteinführung von Agentforce verging kaum Zeit – das ist sagenhaft.

Asseo: Allerdings. Das haben wir der fantastischen Arbeit des Salesforce AI Research-Teams zu verdanken, das einige grundlegende Forschungsarbeiten zu Transformer-Modellen beigesteuert hat und damit maßgeblich beteiligt war an der Entwicklung der Generative Pre-trained Transformer oder kurz: GPT.

Künstliche Intelligenz: Aktuelle Entwicklungen

Und jetzt sind wir mitten in der Gegenwart. Seit der Einführung generativer KI vor einigen Jahren überschlagen sich die Ereignisse. Vergangenes Jahr waren Copiloten der letzte Schrei, heute sind es KI-Agenten. Dieses rasante Entwicklungstempo erzeugt auch ein enormes Maß an Unsicherheit. Peter, in Ihrer Eigenschaft als Futurist sind Ungewissheiten Ihr täglich Brot. Was für ein Feedback erhalten Sie aktuell von Führungskräften und Kundenunternehmen?

Schwartz: Nun, aktuell treiben Unternehmen eine Menge drängender Fragen um. Wie schnell wird sich die Technologie weiterentwickeln? Wie schnell können wir KI-Anwendungen erfolgreich installieren? Welche Folgen wird das haben? Welche Vorschriften werden den Einsatz von KI regeln? Gerade erst heute Morgen habe ich mit dem Vorstand einer großen Bank gesprochen. Die sind absolut begeistert von KI, brauchen aber die Genehmigung von Aufsichtsbehörden, bevor sie sie in irgendeiner Form einsetzen können.

Es gibt tausende KI-Start-ups. Die meisten werden scheitern.

Peter Schwartz, Chief Futurist, Salesforce

Ähnlich formulierte es der Leiter eines Gesundheitsunternehmens gestern in einem Gespräch: Gerade wenn es um sensible Patientendaten geht, müssen strenge Regularien greifen. Wie geht es hier weiter? Entweder werden zügig entsprechende Regulierungen im Zusammenhang mit personenbezogenen Daten (PII) durchgesetzt, oder zahlreiche KI-Projekte werden zumindest temporär ausgebremst. Wenn Menschen neue Sachen ausprobieren, klappt so einiges, manches aber auch nicht. So verläuft ein typischer Innovationszylus, im Lernprozess wird das, was nicht funktioniert, aussortiert. Tausende von Start-ups drängeln sich in diesem neuen Segment. Die meisten werden scheitern. Aber eine Handvoll hat das Zeug, sich zum nächsten Branchenriesen in den Dimensionen von Apple oder Google zu entwickeln. Mit Tenyx hat Salesforce vor kurzem ein Unternehmen übernommen, das sich auf KI-Sprachsteuerung spezialisiert hat. Sie werden schon bald mit Ihrer Salesforce KI sprechen können!

Asseo: Wie heißt es doch so schön: „Der beste Weg, die Zukunft vorherzusagen, ist, sie zu gestalten.“ Die AI Research Group von Salesforce hat schon zahlreiche Innovationen auf den Weg gebracht. CEO Marc Benioff erwähnte in seiner Keynote unter anderem die Atlas Reasoning Engine, an der die Forschungsgruppe maßgeblich beteiligt war. Silvio, können Sie uns einige der wichtigsten Technologien nennen, die unsere Forschungsgruppe erarbeitet hat, um das Projekt Agentforce voranzutreiben?

Savarese: An dieser Stelle möchte ich noch einmal kurz erklären, was wir mit Agentforce eigentlich entwickeln. Es handelt sich konkret um zwei Typen autonomer Systeme: KI-Assistenten und KI-Agenten.

KI-Assistenten arbeiten eng mit Menschen zusammen und unterstützen sie bei der Erledigung alltäglicher Aufgaben wie dem Schreiben von E-Mails, der Buchung von Terminen, der Durchführung von Reservierungen usw. Sie sind hochgradig für ihre jeweiligen Nutzer:innen personalisiert und berücksichtigen beim Erledigen von Aufgaben deren individuelle Präferenzen. In diesem Szenario leitet ein Mensch die Arbeit des KI-Assistenten an („Human in the Loop“).

KI-Agenten hingegen arbeiten nicht nur für einzelne Anwender:innen, sondern sind für größere Nutzergruppen oder das gesamte Unternehmen tätig. Ihnen wird eine klar definierte Rolle zugewiesen und sie sind auf bestimmte Aufgabenbereiche spezialisiert. Unternehmen können sie jederzeit einsetzen, um ihre Kapazitäten zu skalieren oder komplexe Aufgaben effizienter zu erledigen.

Mit Agentforce können Sie sowohl KI-Assistenten als auch KI-Agenten einsetzen. Beide KI-Typen haben ein „Gedächtnis“ und ein „Gehirn“.

Mit ihrem Gedächtnis können sich KI-Assistenten und KI-Agenten an vergangene Ereignisse erinnern, z. B. an Gesprächsverläufe. Außerdem hilft es ihnen, die für die Erledigung von Aufgaben relevanten Informationen abzurufen, z. B. zu Produkten, Kund:innen, Richtlinien oder Best Practices. Kurz: Ihr Gedächtnis stattet sie mit dem erforderlichen Wissen aus. Gemeinsam mit unseren Engineering-Teams entwickeln wir aktuell die nächste Generation unseres RAG-Systems (Retrieval Augmented Generation), das Informationen aus beliebigen Speicherquellen extrahiert und den KI-Assistenten und KI-Agenten zur Verfügung stellt.

Beim Gehirn der KI-Assistenten bzw. -Agenten handelt es sich technisch gesehen um die bereits erwähnte Reasoning Engine, die das Salesforce AI Research Team entwickelt hat. Die Reasoning Engine zerlegt eine Aufgabe in eine Abfolge logischer Schritte, die der KI-Assistent bzw. -Agent ausführt. Diesen Aktionsplan muss sie feedbackbasiert optimieren können.

Entdecken Sie Agentforce

Kundenbetreuung vereinfachen, personalisieren und beschleunigen: mit KI-Agenten für Marketing, E-Commerce, Vertrieb und Kundenservice.

Asseo: Wenn wir einer KI ermöglichen, nicht bloß Inhalte zu generieren, sondern eigenständig zu handeln, wenn wir ihr also mehr Autonomie zugestehen – riskieren wir dann nicht, dass die KI das in sie gesetzte Vertrauen missbrauchen könnte? Was ist, wenn KI-Agenten Dinge tun, die sie nicht tun sollen, die unseren Absichten zuwiderlaufen, die uns schaden? Wie können wir uns auf agentenbasierte Technologien verlassen?

Savarese: Die Entwicklung absolut zuverlässiger, vertrauenswürdiger KI-Agenten, auf die unsere Kund:innen sich verlassen können, ist tatsächlich komplex und herausfordernd. Die private Nutzung generativer KI birgt ein deutlich geringeres Risiko: Es mag ärgerlich sein, sollte ein KI-Agent bei einer Tischreservierung einen Fehler machen, aber am Ende des Tages ist nichts wirklich Schlimmes passiert. Wenn aber KI-Agenten, die für Unternehmen arbeiten, Fehler machen, führt das unter Umständen zu verheerenden Konsequenzen im großen Maßstab.

Damit unsere KI-Agenten zuverlässig und sicher im Rahmen der vorgeschriebenen Richtlinien agieren, geben wir ihnen zahlreiche Leitplanken mit, die auf bewährten Verfahren basieren. Diese Leitplanken und Geschäftslogiken fließen direkt in den Entwicklungsprozess ein.

Hier verfolgen wir einen iterativen Ansatz, bei dem wir das Feedback der Anwender:innen einholen und darauf basierend die KI-Agenten weiter verbessern können. Transparenz ist das A und O. Die Anwender:innen müssen jederzeit nachvollziehen können, warum und wie die Agenten Entscheidungen treffen, besonders gilt das für kritische Situationen, die sich potenziell nachteilig auf das Unternehmen auswirken könnten.

Asseo: Das klingt nach einem sehr komplexen, aber durchdachten Ansatz. Ich frage mich, Peter: Wie wird es sich auf unsere Gesellschaft auswirken, wenn wir KI-Agenten zunehmend mehr Handlungsautonomie einräumen?

Schwartz: Wir befinden uns an einem historischen Wendepunkt, in einer neuen Epoche. Wir können hier und heute ehrlicherweise nicht alle Implikationen vorausehen. Sicher ist, dass wir zukünftig in allen möglichen Situationen und Umgebungen mit KI-Agenten zu tun haben werden, die fleißig im Hintergrund alle möglichen Aufgaben für uns erledigen werden, ohne dass wir uns damit weiter belasten müssen.

Trotzdem macht Silvio hier einen Punkt: Es braucht den Human in the Loop, also Menschen, die die Technologie letztendlich verstehen und beaufsichtigen, und daran wird sich in absehbarer Zeit nichts ändern. Nehmen wir eine Schlusszene aus „WarGames“, an diesem Film von 1983 habe ich als Autor mitgewirkt. Matthew Broderick verfolgt von der Kommandozentrale zur Überwachung des Luftraums aus den Anflug sowjetischer Raketen auf die Vereinigten Staaten, bis ihn der Informatiker John Wood darauf hinweist, dass es sich hierbei um eine täuschend echte Simulation handele. Das Prinzip der Computer Hallucination haben wir gewissermaßen mit diesem Film erfunden, und es ist wegweisend für unseren zukünftigen Umgang mit KI-Systemen. Im Film war es ein Mensch, der den Unterschied zwischen Simulation und Realität erkannt hat. Und genau diese menschliche Komponente wird es auch in Zukunft brauchen, um sicherzustellen, dass KI-Agenten in unserem Sinne handeln.

Asseo: Und damit sind wir in der Zukunft angelangt, dem letzten Abschnitt dieses Interviews. Wir befinden uns auf einer Reise in eine Welt voller autonomer KI-Agenten und persönlicher KI-Assistenten. Wagen wir einen Ausblick auf mögliche künftige Entwicklungen. Silvio, Sie waren in ihrer Karriere viel im Bereich der Robotik unterwegs. Könnte man beide Technologien, KI-Agenten und Robotik, miteinander verschmelzen?

Savarese: In Stanford habe ich jahrelang im Bereich Robotic Perception geforscht, also daran, wie Roboter die Welt wahrnehmen und verstehen können. Im Robotic Lab haben wir riesigen Robotern mit großen Greifarmen etwa das Zubereiten eines Omelettes oder eines Espressos beigebracht. Rückblickend kann ich sagen: Die damaligen Herausforderungen sind mit den aktuellen vergleichbar. Die Problemstellungen sind ähnlich, ob ich nun einen Roboter baue oder einen KI-Agenten. 

Bleiben wir bei unseren Beispielen: Ein Roboter bereitet ein Omelett zu. Ein KI-Agent bucht eine Reise. Beide Aufgaben sind im Wesentlichen strukturgleich. Der Roboter braucht ein Gedächtnis, um sich zu merken, welche Zutaten und Kochutensilien er für die Zubereitung eines Omeletts braucht. Vergleichbar müssen sich digitale Agenten merken, über welche Websites sie Flüge reservieren können.

Außerdem brauchen sowohl der Roboter als auch der KI-Agent eine Art Gehirn, um ihre Aufgaben planvoll durchzuführen. Sowohl die Zubereitung eines Omelettes als auch das Buchen eines Fluges erfolgen in einer Sequenz einzelner Arbeitsschritte.

Und: Sowohl der Roboter als auch der KI-Agent müssen auch in einer suboptimalen Arbeitsumgebung zurechtkommen. Der Roboter könnte beispielsweise die Eier nicht finden, oder der KI-Agent nicht den passenden Flug. Sollen sie dann einfach aufgeben? Nein, für solche Fälle braucht es einen Plan B. Das ist eine ganz wichtige Eigenschaft, die sich Roboter und KI-Agent teilen: die Fähigkeit, sich an einen dynamischen Arbeitskontext, sogar regelrecht widrige Umstände anpassen zu können. 

Der einzige wirkliche Unterschied besteht darin, dass Roboter physisch und KI-Agenten digital sind. Diese Differenz müssen wir mit den passenden sensorischen Technologien überbrücken. Vielleicht kann die nächste Generation von KI-Agenten sehen, hören oder tasten.  

Asseo: Zuguterletzt: Wie sollten Führungskräfte – oder eigentlich alle Menschen in Unternehmen – das Thema KI anpacken? Haben Sie einen Tipp?

Schwartz: Legen Sie einfach konkret los. Bauen Sie einen KI-Agenten. Testen Sie verschiedene Modelle. Finden Sie heraus, was zu Ihnen und Ihrer Arbeitsumgebung passt. Gerade in dieser frühen Phase der noch relativ jungen Technologie zahlt sich Experimentieren aus.

Savarese: Und lassen Sie dabei nie den Faktor Vertrauen außer Acht. Es ist wichtig, sichere und zuverlässige Agenten zu bauen. Dazu zwei wichtige Punkte. Erstens muss man jederzeit klar unterscheiden können, was KI-generiert ist und was Menschen gemacht haben. Und zweitens müssen wir uns Fragen rund um Verantwortlichkeiten bzw. Haftbarmachung stellen. Stellen Sie sich vor, zwischen KI-Agenten, die für eine Interessengruppe arbeiten, und den für eine andere Organisation tätigen KI-Agenten treten Interessen- bzw. Handlungskonflikte auf. Wer ist dann letztendlich verantwortlich für das, was getan wird, wie werden solche Meinungsverschiedenheiten geregelt? Dieses Szenario wird eintreten – und wir als Menschen müssen zügig an konstruktiven Lösungen arbeiten.

Entdecken Sie Agentforce

Kundenbetreuung vereinfachen, personalisieren und beschleunigen: mit KI-Agenten für Marketing, E-Commerce, Vertrieb und Kundenservice.

E-Books, Events, Webinare und Business-Tipps - direkt in Ihr Postfach