Skip to Content

KI, der man vertrauen kann: 5 Leitlinien.

Salesforce macht sich stark für die sichere, akkurate und ethische Entwicklung und Nutzung künstlicher Intelligenz.

Künstliche Intelligenz (KI) wird unser Leben und unsere Arbeit tiefgreifend verändern und selbst die innovativsten Unternehmen in den kommenden Jahren vor neue Herausforderungen stellen.

Generative KI birgt spezifische Risiken. Potenziell macht sie zwar viele gute Sachen – aber es kann auch einiges schiefgehen. Zahlreiche Unternehmen drängen mit dieser transformativen Technologie auf den Markt, und es ist extrem wichtig, dass sich diese Entwicklung bewusst und bedacht vollzieht. Die bloße Bereitstellung von KI-Tools reicht nicht aus. Es braucht Leitlinien zum verantwortungsbewussten Umgang. Mitarbeiter:innen, Partnerunternehmen und Kund:innen brauchen die richtigen Tools für die sichere, akkurate und ethische Entwicklung und Nutzung künstlicher Intelligenz.

Salesforce und KI

Salesforce verfügt ebenso wie andere Unternehmenstechnologien über ein enormes Potenzial für den Einsatz künstlicher Intelligenz.

KI ist schon jetzt ein integraler Bestandteil der Customer 360-Plattform, und unsere Einstein-KI-Technologien treffen täglich fast 200 Milliarden Prognosen für die Geschäftsanwendungen von Salesforce. Beispiele:

  • Der Vertrieb kann mittels KI-Insights die optimalen nächsten Schritte ableiten und Deals schneller abschließen.
  • Für die Service-Abteilung kann KI menschliche Konversation simulieren und wiederkehrende Fragen und Aufgaben beantworten, so dass die Mitarbeiter:innen mehr Zeit für die Bearbeitung komplexerer Anfragen gewinnen.
  • Marketing kann dank KI das Kundenverhalten besser nachvollziehen und Timing, Targeting und Inhalte personalisieren.
  • Commerce kann dank KI hochgradig personalisierte Einkaufserlebnisse und smarteren Online-Handel verwirklichen.

Generative KI ist eine mittlerweile so ausgereifte Technologie, dass unsere Kund:innen ihre Zielgruppen deutlich personalisierter ansprechen können – das gilt für Kundenkontakte in den Bereichen Vertrieb, Kundenservice, Marketing, E-Commerce und IT. Aktuell untersuchen wir, wie unsere Kund:innen – auch die, die keine zertifizierten Salesforce-Entwickler:innen beschäftigen – mit KI schnell und einfach hochwertigen, schlanken Code schreiben können, der möglichst wenige Zeilen umfasst und daher weniger Rechenleistung verbraucht.

Leitlinien für eine KI, der man vertrauen kann

In alle unsere Produkte integrieren wir ethische Leitplanken und Richtlinien, damit unsere Kund:innen verantwortungsvoll innovieren und potenzielle Probleme frühzeitig erkennen und abfangen können.

Angesichts der enormen Chancen und Risiken im Bereich generativer KI haben wir mit unseren Trusted AI Principles ein Paket neuer Richtlinien für eine verantwortungsvolle Entwicklung und Implementierung geschnürt.

In den Pioniertagen KI-basierter Technologien ist die Entwicklung entsprechender Richtlinien ein kontinuierlicher Prozess. Lernen, besser werden, gemeinsam mit anderen nach Lösungen suchen – das ist unser Anspruch.

Die folgenden fünf Grundsätze sind ein für Salesforce und andere Organisationen richtungsweisender Leitfaden für die Entwicklung vertrauenswürdiger KI-Tools.

  1. Genauigkeit: Damit KI verifizierbare Ergebnisse generiert, braucht es Modelle mit einer ausgewogenen Mischung aus Genauigkeit, Präzision und Sensitivität (Accuracy, Precision, Recall). Dafür müssen unsere Kund:innen ihre Modelle mit ihren eigenen Daten trainieren können. Wir informieren unsere Kund:innen über Unsicherheiten in Bezug auf den Wahrheitsgehalt der KI-Antworten und geben ihnen die Möglichkeit, den generierten Output zu überprüfen. Kontrollmethoden sind etwa Quellenangaben, Begründungen für die von der KI gegebenen Antworten (siehe auch chain-of-thought prompts), das Hervorheben von Bereichen, die unbedingt nachgeprüft werden sollten (z. B. Statistiken, Bewertungen, Daten), sowie Hürden für die vollständige Automatisierung kritischer Abläufe (z. B. die Freigabe von Code in einer Produktionsumgebung ohne menschliche Aufsicht).
  2. Unbedenklichkeit: Alle unsere KI-Modelle werden kritisch auf Bias, Toxizität und schädliche Inhalte geprüft. Wir bewerten dazu methodisch die Faktoren Voreingenommenheit, Nachvollziehbarkeit (Explainability) und Robustheit und bilden Red Teams zum Aufspüren von Sicherheitslücken. Enthalten die Trainingsdaten für die KI personenbezogene Informationen, müssen für diese strikte Schutzmechanismen wie Data Masking greifen. Es braucht Richtlinien zur Minimierung weiterer typischer Risiken (z. B. sollte Code in einer Sandbox bereitgestellt und nicht automatisch in die Produktion übernommen werden).
  3. Integrität: Wir prüfen streng, woher wir die Daten für das Training und die Evaluierung unserer Modelle beziehen (z. B. öffentlich verfügbare oder von Nutzer:innen bereitgestellte Daten) und ob wir sie nutzen dürfen. Außerdem müssen wir darüber informieren, wenn eine KI selbständig Inhalte erstellt hat (z. B. Chatbot-Antworten an Kund:innen oder automatisch generierte Wasserzeichen).
  4. Empowerment: In einigen Fällen sollte man Prozesse komplett automatisieren, andere Fälle verlangen menschliches Urteilsvermögen und eine eher flankierende Rolle der KI. Hier braucht es eine balancierte Herangehensweise für Lösungen, die menschliche Mitarbeiter:innen maximal unterstützen und für alle zugänglich sind (z. B. Generierung von ALT-Text für Bilder).
  5. Nachhaltigkeit: Wir wollen optimal dimensionierte Modelle mit einem möglichst geringen CO2-Footprint entwickeln. Groß dimensionierte KI-Modelle sind nämlich nicht automatisch besser: Oft leisten kleinere, gut trainierte Modelle mehr als größere, weniger intensiv trainierte.