Vertrauen und Transparenz stehen bei KI im Mittelpunkt. KI ist nicht per se gut oder schlecht, aber ihre Datengrundlage kann verzerrt sein und toxische oder diskriminierende Ergebnisse verursachen. Unternehmen müssen Kund:innen auch klar machen, wie sie KI nutzen, wie ihre Daten mit KI-Systemen interagieren und welche der Informationen, die sie sehen, KI-generiert sind.
„Die Formel für die Zukunft der Konsumgüterbranche lautet: Daten + KI + CRM + Vertrauen. Man kann diese Dinge nicht isoliert voneinander betrachten oder sie als separate Investitionen betrachten. Sie alle wirken in einer endlosen Schleife zusammen und helfen dabei, den erstaunlichen transformativen Wandel zu erschließen, der vor uns liegt.“ [Video ansehen]
– Najah Phillips
, Senior Product Marketing Manager, Salesforce Consumer Goods Cloud
„Die Welt der Unternehmenssoftware wird völlig umgepolt. Unternehmen mit nicht vertrauenswürdiger KI werden auf dem Markt keinen Erfolg haben.“ [Video ansehen] – Abhay Parasnis
, Gründer und CEO, Typeface![Wird in neuem Fenster geöffnet]()
„Es besteht die reale Gefahr, dass die Diskriminierung, die wir in der Gesellschaft haben, [durch KI-Technologien] systematisch wird. Da eine Welt voller unsichtbarer Algorithmen vor uns liegt, müssen wir meines Erachtens ganz klar sagen oder Disclaimer bereitstellen, wie unsere Fehlerquoten aussehen.“ [Video ansehen]
– Timnit Gebru
, Gründer und Executive Director, Distributed AI Research Institute![Wird in neuem Fenster geöffnet]()
„Auch wenn ich den ganzen Hype – oder die Hysterie – um KI nicht unbedingt teile, glaube ich an das transformative Potenzial von KI und bin zuversichtlich, dass Vertrauen in der KI-Diskussion eine ebenso zentrale Rolle spielen wird wie die Technologie selbst. Und ich finde es ermutigend, dass immer mehr von uns über die ethischen Auswirkungen der spannendsten Innovationen unserer Zeit nachdenken und heute Schritte unternehmen, um morgen eine sichere und vertrauenswürdige KI zu gewährleisten.“ [Weiterlesen]
– Paula Goldman
, Chief Ethical and Humane Use Officer, Salesforce
„Wenn unsere Benutzer der Technologie nicht vertrauen, werden wir sie nicht in unser Produkt integrieren. Deshalb wenden wir viele Ressourcen und Mühe auf, um potenzielle Risikofaktoren wie Toxizität oder Verzerrung zu beseitigen. So können wir das Vertrauen unserer Kund:innen in die Daten stärken, die beim Training verwendet wurden.“ [Video ansehen]
– Aiden Gomez
, Mitbegründer und CEO, Cohere![Wird in neuem Fenster geöffnet]()
„Ich glaube, dass Vertrauen durch Transparenz und Kontrolle entsteht. Man will die Datensätze sehen, mit denen diese Modelle trainiert wurden. Man will sehen, wie dieses Modell erstellt wurde und welche Art von Verzerrungen dabei auftreten. So kann man dem System vertrauen. Es ist wirklich schwer, etwas zu vertrauen, das man nicht versteht.“ [Video ansehen]
– Clem Delangue
, Mitbegründer und CEO, Hugging Face![Wird in neuem Fenster geöffnet]()
„Wenn ich mit Expert:innen auf diesem Gebiet spreche, sind Fehlinformationen das Thema, über das sie sich die größten Sorgen machen. … Ich denke, wir müssen besser werden, und das bedeutet, dass Unternehmen automatisierte Tools entwickeln müssen. Es bedeutet, dass Videos und andere Inhalte mit Wasserzeichen gekennzeichnet werden müssen, damit wir wissen, dass sie künstlich erstellt wurden. Wir brauchen eine Provenienzkette, damit man erkennen kann, dass es sich um Filmmaterial handelt, das rechtmäßig mit einem Gerät aufgenommen wurde, und was damit alles angestellt wurde.“ [Video ansehen
]
– Ina Fried
, Chief Technology Correspondent, Axios
![Wird in neuem Fenster geöffnet]()
„In Bezug auf das Verzerrungsproblem gibt es einen Silberstreif am Horizont. Nehmen wir zum Beispiel einen Algorithmus an, der vorhersagen soll, wer für eine Beförderung infrage kommt. Und nehmen wir an, es gäbe eine Supermarktkette, die Frauen statistisch gesehen nicht so oft befördert wie Männer. Der Algorithmus lässt sich womöglich leichter reparieren als die Ansichten von 10.000 Filialleitern.“ [Video ansehen]
– Richard Socher
, CEO und Gründer, You.com![Wird in neuem Fenster geöffnet]()
„Oft liegen Fehler nicht in der KI begründet. Sie sind menschliches Versagen, und wir sind nicht bereit, die Tatsache anzugehen, dass es in den Teams, die die Systeme überhaupt erst entwickeln, an Diversität mangelt. Und vorsichtig ausgedrückt achten sie nicht so sehr darauf, Trainingssätze auszubalancieren, damit das Ergebnis richtig funktioniert. Aber Teams lassen so etwas immer wieder zu. Hier wird klar: Wer das menschliche Problem ausblendet, kann nicht erwarten, dass die KI es für einen löst.“ [Video ansehen]
– Vivienne Ming
, Executive Chair und Mitbegründerin, Socos Labs![Wird in neuem Fenster geöffnet]()
„Mit großer Macht geht auch große Verantwortung für Sicherheit und Datenschutz einher. Der Konflikt zwischen Datenschutz und Geschäftszielen ist nicht neu – die meisten von uns sind es gewohnt, ein Gleichgewicht zwischen Geschwindigkeit und coolen neuen Technologien einerseits sowie Sicherheit andererseits herzustellen.“ [Video ansehen]
– Suzie Compton
, Senior Director, Product Management, Salesforce Privacy and Data Management