Skip to Content

Unsere Prinzipien für vertrauenswürdige KI

Ethische Prinzipien für die Entwicklung und Nutzung künstlicher Intelligenz bei Salesforce.

Dieser Artikel ist eine Übersetzung des gleich lautenden Beitrags im Salesforce AI Research Blog und beschreibt die Prinzipien, die Salesforce für die Entwicklung und Nutzung künstlicher Intelligenz verabschiedet hat.

Die fünf Grundwerte bei Salesforce lauten: Vertrauen, Kundenerfolg, Innovation, Chancengleichheit und Nachhaltigkeit. Darüber hinaus legen wir großen Wert auf eine verantwortungsbewusste Entwicklung und Nutzung unserer Lösungen. Dafür steht unser Office of Ethical and Humane Use.

Künstliche Intelligenz (KI) ist eine neue Technologie mit weltveränderndem Potenzial. Sie ergänzt die menschliche Intelligenz, erweitert die menschlichen Fähigkeiten und generiert nützliche und verwertbare Informationen für unsere Mitarbeiter:innen, Kund:innen und Partner.

Wir sind der Meinung, dass alle Menschen von den Vorteilen künstlicher Intelligenz profitieren sollten. Das bedeutet mehr, als einfach die Technologie verfügbar zu machen. KI muss für alle sicher und inklusiv sein. Wir nehmen diese Verantwortung ernst und verpflichten uns, unseren Mitarbeiter:innen, Kund:innen und Partnern die nötigen Instrumente für eine sichere, präzise und ethische Entwicklung und Nutzung von KI zur Verfügung zu stellen.

Unsere KI-Prinzipien

2018 begannen wir, Prinzipien für eine vertrauenswürdige KI zu formulieren. Sie sollten auf alle Produkte, Anwendungsfälle und Kund:innen von Salesforce anwendbar sein. Im Laufe eines Jahres holten wir Feedback von verschiedenen Mitarbeiter:innen und Führungskräften aus allen Abteilungen ein, u. a. aus den Bereichen Engineering, Produktentwicklung, UX, Data Science, Recht, Gleichstellungswesen, Öffentlichkeitsarbeit und Marketing. Die Prinzipien wurden unter der Schirmherrschaft unserer damaligen Co-CEOs Marc Benioff und Keith Block sowie allen Verantwortlichen für unser gesamtes Produktportfolio hinweg einhellig verabschiedet. Wie wir in unserem Ethical AI Maturity Model darlegen, konnten wir so sicherstellen, dass jede:r im Unternehmen involviert war, sich für die Umsetzung der Prinzipien verantwortlich fühlt und sie in seiner täglichen Arbeit anwendet.

Verantwortung

Wir wollen Menschenrechte wahren, die uns anvertrauten Daten schützen, wissenschaftliche Standards einhalten und Richtlinien gegen missbräuchliche Nutzung durchsetzen. Von unseren Kund:innen erwarten wir, dass sie unsere KI verantwortungsbewusst und in Übereinstimmung mit unseren gegenseitigen Vereinbarungen einsetzen (vgl. Acceptable Use Policy).

Haftung

Wir halten uns gegenüber unseren Kund:innen, Partnern und der Gesellschaft für rechenschaftspflichtig. Auf der Basis von unabhängigem Feedback verbessern wir kontinuierlich unsere Methoden und Richtlinien und tragen dafür Sorge, Schaden von Kund:innen und Endverbraucher:innen abzuwenden.

Transparenz

Unsere Kund:innen sollen nachvollziehen können, warum die KI bestimmte Empfehlungen und Vorhersagen trifft. So können sie fundierte Entscheidungen treffen, Fehlerquellen erkennen und mögliche Risiken eindämmen.

Empowerment

KI funktioniert am besten in Kombination mit menschlichen Fähigkeiten. Sie soll Menschen unterstützen und ihnen dabei helfen, bessere Entscheidungen zu treffen. Unsere technologischen Entwicklungen sollen Menschen produktiver und ihre Arbeit effektiver machen.

Inklusion

KI sollte die menschliche Lebensqualität verbessern und die Grundwerte nicht nur ihrer Erfinder, sondern aller Akteure vertreten. Unsere KI soll Prinzipien wie Vielfalt, Gleichberechtigung und Gerechtigkeit gewährleisten.

KI-Prinzipien, praktisch angewandt

Prinzipien zu haben reicht nicht aus, sie müssen gelebt werden. Das geht nur im Team: Alle Mitarbeiter:innen im Unternehmen müssen verstehen, wie sie die ethischen Grundsätze praktisch anwenden. Im Folgenden nennen wir konkrete Beispiele.

Verantwortung

Im Vorfeld der Entwicklung von KI-Funktionen überlegen wir nicht nur, was möglich ist, sondern auch, was ethisch korrekt ist. Um den Schutz der Menschenrechte zu gewährleisten, entwickeln und optimieren wir Lösungen in Zusammenarbeit mit externen Sachverständigen.

Wir vermitteln unseren Kund:innen das erforderliche Wissen für eine verantwortungsbewusste und sichere Nutzung unserer KI. Salesforce-Mitarbeiter:innen, -Kund:innen und -Partner sollen eventuelle Voreingenommenheit (Bias) in den von ihnen entwickelten und genutzten Systemen erkennen und eindämmen können. Dazu geben wir Ihnen wirksame Tools und Ressourcen an die Hand. Sie werden z. B. darüber informiert, wenn ein Modell sensible Datenkategorien und Proxy-Variablen verarbeitet, und sie können nachvollziehen, anhand welcher Faktoren die KI Vorhersagen trifft.

Im Sinne der Risikominimierung und Produktsicherheit halten wir uns an strenge Sicherheits- und Datenschutzstandards. Wir erfüllen die gesetzlichen Vorschriften zur KI-Forschung und -Nutzung. Unsere Forschungsarbeit entspricht den höchsten wissenschaftlichen und qualitativen Sicherheitsstandards. Die Ergebnisse werden im Peer-Review-Verfahren geprüft, in Fachzeitschriften veröffentlicht und auf Konferenzen und Branchenveranstaltungen vorgestellt.

Haftung

Unser Ethikbeirat veranstaltet regelmäßige Workshops mit externen Expert:innen für Menschenrechte und Technologieethik. Ebenso befindet sich unser Customer Advisory Board im offenen Austausch mit unseren Kund:innen, deren Feedback wir in unsere Entscheidungsprozesse einbeziehen.

Wir sind uns unseren Verpflichtungen innerhalb der IT- und Softwarebranche und gegenüber der Gesellschaft bewusst. Deshalb arbeiten wir gemeinsam mit Branchenverbänden, zivilgesellschaftlichen Gremien und Regierungsorganisationen an der kontinuierlichen Verbesserung unserer Verfahren und Richtlinien. Dazu gehören unter anderem das US National Institute of Standards and Technology, das US National AI Advisory Committee oder Singapore’s Advisory Council on the Ethical Use of AI and Data.

Unsere Mitarbeiter:innen können jederzeit ihre Fragen und Kritikpunkte an uns richten, z. B. über unser anonymes Online-Meldesystem, Slack oder E-Mail.

Transparenz

Wir informieren nicht nur transparent darüber, wie wir unsere KI-Modelle entwickeln, sondern machen auch ihre Empfehlungen und Prognosen nachvollziehbar. Öffentlich zugängliche Modellkarten beschreiben, wie die Modelle entwickelt wurden, stellen korrekte und nicht bestimmungsgemäße Anwendungsfälle vor und geben Auskunft über mögliche ethische oder gesellschaftliche Implikationen sowie über die Leistungsbewertung der Modelle. Wir erklären nachvollziehbar, wie unsere KI-Modelle Ergebnisse und Prognosen generieren (Explainable AI, XAI).

Unsere Kund:innen haben jederzeit volle Kontrolle über ihre Daten und Modelle. Die von Salesforce Produkten verarbeiteten Daten sind zu keinem Zeitpunkt Eigentum von Salesforce – sie gehören den Kund:innen. Unsere Nutzungsbedingungen und der Verwendungszweck der KI-Funktionen von Salesforce werden den Kund:innen klar dargelegt.

Empowerment

Nicht nur professionelle Data Scientists, sondern auch Menschen mit geringerem technischem Know-How sollen KI-Anwendungen ohne weitere Programmierkenntnisse mit wenigen Klicks entwickeln können. Dazu reduzieren wir die Komplexität unserer KI-Technologie auf ein Minimum. Zudem bieten wir auf unserer kostenfreien Lernplattform Trailhead KI-Schulungen, die Menschen jeder fachlichen Herkunft Kompetenzen für die Jobs der digitalen Zukunft vermitteln. Diese umfassen neben generellen Themen wie dem Umgang mit Bias auch produktspezifische Trainings für einen verantwortungsbewussten Umgang mit der Salesforce KI.

Das KI-Team bei Salesforce verpflichtet sich, neue und wegweisende Forschungsergebnisse direkt in die Produktentwicklung einfließen zu lassen, damit unsere Kund:innen vom technologischen Fortschritt profitieren können.

Inklusion

Wir testen unsere Modelle mit vielfältigen und repräsentativen Datensätzen. Wir untersuchen die potenziellen Effekte von KI-Services für ein breites Spektrum von Kund:innen, Anwender:innen und Rahmenbedingungen. Dazu führen wir Consequence Scanning und Build with Intention Workshops durch. Wir bilden inklusive Teams, die unterschiedliche Erfahrungshorizonte und Standpunkte vertreten. Dabei orientieren wir uns stets an unserem Grundwert der Chancengleichheit.

Wir packen das zusammen an.

Wir bei Salesforce sind fest davon überzeugt, dass die ethische Nutzung hochentwickelter Technologien wie KI ein äußerst komplexes Thema ist. Das muss klar kommuniziert werden – nicht nur von uns im Speziellen, sondern von der IT- und Softwarebranche insgesamt. Wir befürworten einen offenen Dialog aller Akteure und unter Beteiligung unserer Mitarbeiter:innen, Kund:innen, Partner und Communities.

Wir sollten diese Veränderungen und neuen Fragestellungen als Gemeinschaft angehen und dabei unterschiedliche Stimmen und Perspektiven berücksichtigen. Nur gemeinsam können wir einen positiven Wandel und eine technologische Entwicklung vorantreiben, die die Leistungsfähigkeit von KI für die volle Entfaltung des menschlichen Potenzials nutzt.

Kathy Baxter Principal Architect, Ethical AI Practice Mehr von Kathy