PRESS AND NEWS

 

Salesforce dévoile ses 5 principes pour le développement responsable de l’intelligence artificielle et de l’IA générative

Favorable à une régulation de l’intelligence artificielle, Salesforce souhaite réaffirmer son engagement pour développer une IA éthique, responsable et basée sur la confiance et l’innovation.

Paris, le 1er août 2023 – A l’heure où l’adoption de l’intelligence artificielle générative constitue un défi technologique majeur pour les entreprises, Salesforce, le leader mondial des solutions de gestion de la relation client (CRM), publie ses cinq principes pour le développement responsable de cette nouvelle technologie.

A mesure que les entreprises accélèrent leur développement et gagnent en productivité grâce à l’intelligence artificielle, elles doivent placer la notion de confiance au coeur de leurs priorités. A ce titre, Salesforce publie ses lignes directrices en réponse aux risques posés par l’intelligence artificielle et l’IA générative en particulier, qu’il s’agisse des biais, de la confidentialité, de la sécurité ou encore de l’exactitude du contenu généré.

Salesforce est favorable à une régulation de l’intelligence artificielle adaptée à ses différents usages et proportionnée aux risques potentiels liés à son utilisation. Pour Salesforce, cette régulation doit pouvoir garantir la protection des utilisateurs, favoriser la confiance et encourager l’innovation autour de cette technologie.

Rendre l’IA accessible, éthique et digne de confiance

Salesforce promeut un développement responsable de l’intelligence artificielle pour tous les cas d’usage : du chatbot basé sur l’IA aisément réalisable, à des outils de diagnostics médicaux complexes qui nécessitent une supervision accrue. La priorité consiste donc à réguler la technologie de manière adaptée. Un modèle de régulation unique pourrait en effet freiner l’innovation, créer une concurrence déloyale et retarder le déploiement de nouvelles technologies de pointe.

Salesforce soutient une régulation équilibrée qui puisse aider la société à bien aborder le virage de l’intelligence artificielle. Elle s’appuie sur les concepts suivants :

  1. Une approche fondée sur les risques : cette approche doit prendre en compte le contexte dans lequel ces technologies sont utilisées. Dans certains secteurs comme celui de la santé, elles sont davantage susceptibles de présenter des risques élevés pour les populations et la société dans son ensemble. A ce titre, une régulation de l’IA basée sur les risques devrait avant tout se focaliser sur les cas d’usages à haut risque, en particulier ceux dont les implications juridiques, financières et éthiques pourraient être à l’origine de préjudices importants, ou remettre en question les droits et les libertés des individus.
  2. Des adaptations selon le contexte, le type de contrôle et l’utilisation qui en est faite : les réglementations doivent tenir compte du contexte, du contrôle et des usages des technologies et mettre en place des dispositifs de protection adéquats. Par exemple, les développeurs d’IA génératives doivent être responsables de l’entraînement des modèles et des jeux de données utilisés. De leur côté, les équipes en charge du déploiement de ces technologies décident de la manière dont l’outil sera utilisé, et doivent donc être responsables de la mise en place des règles qui régiront les interactions avec l’IA.
  3. Des lois sur la confidentialité des données : la mise en place de réglementations sur la protection des données protégeant le droit fondamental à la vie privée est la base d’une régulation responsable de l’IA. L’IA s’appuyant sur les données, les nouvelles réglementations spécifiques à l’IA générative doivent donc permettre de régir l’utilisation et la confidentialité des informations destinées à l’entraînement de futurs modèles, par souci de protection des données personnelles.
  4. De la transparence : les systèmes basés sur l’intelligence artificielle peuvent fonctionner comme des boîtes noires, ce qui complique l’analyse de leurs processus de prise de décisions. Les individus doivent pouvoir en être informés, comprendre le raisonnement effectué derrière toute recommandation fournie et savoir s’ils interagissent avec un être humain ou un personnage virtuel.
  5. Un contrôle et une responsabilité des pouvoirs publics : mener des évaluations sur l’impact de l’IA est une manière de promouvoir la responsabilité et la confiance vis-à-vis des systèmes d’IA présentant des risques élevés. Les autorisations ou déclarations d’utilisation peuvent jouer un rôle important en matière de conformité, mais elles doivent être mises en place en fonction du niveau effectif des risques encourus. Elles doivent par ailleurs promouvoir un équilibre entre conformité, accès au marché, concurrence et innovation.
  6. Une harmonisation avec les réglementations existantes : plusieurs lois et politiques mises en oeuvre offrent déjà des garde-fous quant à l’utilisation de l’IA, à l’image des différents règlements mis en place à l’échelle mondiale sur la protection des données personnelles. Les législateurs et autres parties prenantes qui veulent définir de nouvelles normes réglementaires doivent donc évaluer les textes existants pour vérifier s’ils ne répondent pas déjà à certaines de leurs préoccupations.
  7. Des réglementations universelles et durables : compte tenu du développement rapide des technologies d’intelligence artificielle, les différentes réglementations relatives à l’IA doivent être à la fois compatibles à l’échelle mondiale, durables, et évolutives. Elles doivent offrir un cadre éthique pour le développement et le déploiement de systèmes d’intelligence artificielle, et non se focaliser sur une technologie spécifique à un moment donné.

Une coopération indispensable entre les pouvoirs publics, les acteurs économiques, le monde académique et la société civile

Salesforce s’engage de manière proactive à collaborer avec les pouvoirs publics et toutes les autres parties prenantes pour promouvoir des normes responsables, basées sur les risques et applicables à l’échelle mondiale :

  • Salesforce soutient la collaboration entre acteurs publics et privés, à l’image des travaux du G7 et des activités menées de longue date par l’Organisation de coopération et de développement économiques (OCDE).
  • Au sein de l’Union européenne, Salesforce reconnaît les progrès réalisés avec l’adoption de l’AI Act par le Parlement Européen en juin dernier et soutient l’adoption d’une approche basée sur les risques dans le texte définitif.

Salesforce s’engage également à bâtir des systèmes d’IA fiables, transparents et responsables, axés sur l’équité, l’exactitude, la confidentialité des données, ainsi que sur leur impact positif pour la société. Enfin, l’entreprise réitère également ses engagements au fur et à mesure que la technologie continuera d’évoluer.

Plus d’informations :

  • Découvrez les 5 principes pour le développement responsable de l’IA générative de Salesforce en cliquant ici.
  • Découvrez les conseils de Salesforce pour adopter en toute sécurité l’IA générative dans les applications d’entreprise et obtenir des résultats tangibles en cliquant ici.
  • Découvrez comment Salesforce facilite l’adoption d’une IA générative de confiance en entreprise grâce à AI Cloud en cliquant ici.


Salesforce est Supporteur Officiel des Jeux Olympiques et Paralympiques de Paris 2024
Salesforce fournit des solutions de gestion de la relation client, à travers sa plateforme Customer 360. Ce partenariat permet à Paris 2024 de proposer des contenus personnalisés à sa communauté de fans et de supporters.

À propos de Salesforce
Salesforce permet aux entreprises de toutes tailles et de tous secteurs d'activité de se connecter à leurs clients d'une manière totalement nouvelle en combinant la puissance de l'IA, des données et de la gestion de la relation client.
Plus d'informations sur Salesforce (NYSE : CRM) : Communiqués | Web | Twitter | LinkedIn | YouTube

Contacts presse
RUMEUR PUBLIQUE | salesforce@rumeurpublique.fr
Marion LARIVIERE | tél : 06 28 11 07 75 – marion.lariviere@rumeurpublique.fr
Sébastien LANGA | tél : 06 14 10 68 21 - sebastien.langa@rumeurpublique.fr
Rebecca BIRNA | tél : 06 35 27 23 41 - rebecca.birna@rumeurpublique.fr
Mary BARTHE | tél : 06 18 70 66 31 - mary.barthe@rumeurpublique.fr
Amanda LIBERCIER SALDANA | tél : 06 18 98 49 37 - amanda.libercier-saldana@rumeurpublique.fr

Salesforce
Patrice TAUREL | tél : 07 63 95 04 45 - ptaurel@salesforce.com
Guillaume TOURRES | tél : 06 76 78 63 61 - gtourres@salesforce.com