Experten weltweit sind sich einig: KI wird das Leben der Menschen in einem selten zuvor erlebten Ausmaß verändern und beeinflussen. Die Veränderungen werden selbst den Wandel durch die Verbreitung des Internets noch in den Schatten stellen. Die derzeit sichtbaren Anwendungsbeispiele zeigen noch nicht einmal die Spitze des Eisbergs der noch schlummernden KI-Potenziale. Unsere KI-Lösung Einstein unterstützt unsere Kunden heute bereits täglich mit mehr als vier Milliarden Empfehlungen und Prognosen über unsere Cloud-Lösungen.

Daraus erwächst eine enorme Verantwortung für uns, der wir uns stellen müssen und wollen. Deshalb hat Salesforce die ethische und humane Nutzung von Technologie als strategisches Unternehmensziel definiert. Um das zu erreichen, haben wir seit Anfang des Jahres mit Paula Goldman die erste Chief Ethical and Humane Use Officer an Bord. Ihre Aufgabe ist, unsere Strategie in die Tat umzusetzen. Einer der Grundpfeiler ist unsere Selbstverpflichtung, die drei Bereiche adressiert:

  • Gemeinwohlorientierung: KI muss sich an den globalen Werten und Rechten, wie den universellen Menschenrechten und dem Respekt vor Diversität, orientieren sowie Gleichberechtigung und Gerechtigkeit fördern.
  • Verantwortlichkeit: Die Entwicklung und der Einsatz von KI müssen rechts- und gesetzeskonform gestaltet werden sowie den höchsten Sicherheitsstandards entsprechen.
  • Nachvollziehbarkeit: KI-basierte Systeme müssen transparent und nachvollziehbar sein. Sie brauchen integrierte Mechanismen, um sie überwachen und anpassen sowie schädliche Ergebnisse von vornherein vermeiden zu können.


KI ist nicht neutral
Mittlerweile haben wir – nicht nur Salesforce, sondern die gesamte Branche – einen Wendepunkt erreicht. Denn Technologie ist nicht gut oder schlecht – sie ist das, was wir aus ihr machen. Daraus folgt, dass sie nicht neutral ist. Deshalb ist das Verständnis davon, wie KI funktioniert, von elementarer Bedeutung. Ein Algorithmus wird nicht „böse“ oder „gut“ programmiert. Er selbst ist zunächst neutral – und arbeitet und lernt mit den Daten, die man ihm zur Verfügung stellt.

So gehören Vorurteile, „bias“, zu den größten Problemfeldern von KI. Ein Algorithmus, der sich auf Daten stützt, die vorgefertigte Meinungen oder Vorurteile abbilden, wird diese immer wieder anwenden und dadurch verstärken. Und wir wissen: Das meiste von dem, was in der Welt schlecht läuft, hat seinen Ursprung in Vorurteilen. Sie sind der Nährboden von Ungerechtigkeit und Diskriminierung. Wir haben es in der Hand, KI zum Wohle aller Menschen zu gestalten. Wir können diskriminierende Datensätze, die beispielsweise bestimmten Gruppen den Erhalt von Bankkrediten erschweren, eliminieren und dem Algorithmus diese Vorurteile gar nicht erst beibringen. Wir unterstützen auch unsere Kunden dabei, diese Themen rechtzeitig zu erkennen und ihre KI entsprechend zu trainieren: eine Gruppe unseres KI-Forschungsteams rund um die Ethics and AI Spezialistin Kathy Baxter kümmert sich aktiv darum, Kunden in diesen Belangen zu beraten.

Wer Salesforce kennt weiß, dass wir uns als Unternehmen bereits seit der Gründung 1999 vehement für Grundwerte und -rechte wie Chancengleichheit und Gerechtigkeit einsetzen. Wie wir sie tatsächlich umsetzen, habe ich am Beispiel der Lohngleichheit erst vor kurzem an dieser Stelle erläutert. Desweiteren legen wir auch an unsere Kunden und Partner hohe ethische Maßstäbe an. Es ist eine Frage der Haltung, des Willens und der konsequenten Umsetzung: Denn wenn wir erkennen, dass KI ein Spiegel unserer selbst ist, können wir dafür sorgen, dass sie uns nur von unserer besten Seite zeigt. Und das ist meiner Meinung nach diejenige, die universale Menschenrechte als höchstes Gut betrachtet und danach handelt.