QU'EST-CE QU'UNE IA RESPONSABLE ?

Une IA responsable sur laquelle vous pouvez compter

Les possibilités d'innovation de l'IA sont illimitées, mais cette technologie doit être développée et utilisée de manière sûre et éthique. Découvrez ce que nous faisons pour instaurer la confiance et la transparence pour un avenir meilleur.

Image d'une femme souriante.

NOTRE APPROCHE

Voici nos piliers de l'IA responsable

Image d'un homme serrant la main à quelqu'un.

Principes

Nous pensons que l'IA doit être une force au service du progrès et qu'elle doit faire passer l'humain avant tout.

Nos valeurs comme boussole

L'IA responsable n'est pas seulement bonne pour les affaires, c'est aussi une question de valeurs. Nous nous efforçons de développer des solutions basées sur l'IA qui renforcent le potentiel humain, favorisent la transparence et l'équité, et garantissent la confidentialité et la protection des données.

Découvrez comment nos principes s'alignent sur nos valeurs fondamentales.

Image de personnes discutant et collaborant.

Pratiques

Nous créons et suivons de bonnes pratiques pour atténuer les risques.

Gouvernance : identification et atténuation des risques

Nous adoptons une approche de l'IA responsable basée sur les risques, en identifiant le niveau de sensibilité de chaque nouvelle application de l'IA. Nous gérons ensuite les risques associés aux conséquences involontaires tout au long de la création et de la maintenance de chaque application.

Découvrez comment nous atténuons les risques.

Image de personnes souriantes à un bureau.

Personnes

Nous nous appuyons sur un groupe d'experts diversifié pour instaurer et mettre à jour notre gouvernance.

Réunir des experts produits et des points de vue différents

Notre Chief Responsible AI Officer et notre équipe composée de social scientists, de data scientists, d'ingénieurs et d'experts en technologie soutiennent et maintiennent notre gouvernance responsable de l'IA. Notre équipe dirigeante guide ce travail, et nos interlocuteurs privilégiés en matière d'IA responsable veillent à son adoption.

Découvrez comment placer l'humain au cœur de l'IA.

Image de personnes se réunissant et collaborant.

Politiques

Nous pilotons une réglementation de l'IA qui instaure la confiance et permet l'innovation.

Promouvoir une IA responsable

Nous sommes fiers de jouer un rôle de premier plan dans les discussions sur la réglementation de l'IA à tous les niveaux de gouvernance aux États-Unis, en Europe et en Asie.

Nous avons également travaillé avec des leaders du secteur pour établir ensemble des pratiques exemplaires en matière d'IA au travail.

Apprenez-en plus sur nos efforts en la matière.

Image de personnes en train de collaborer.

PRATIQUES CLÉS

Un développement responsable, à chaque étape

Nos principes constituent une base solide pour développer notre approche. Mais nous ne nous arrêtons pas là : nous les mettons en pratique à chaque étape du développement. Découvrez quelques-unes de nos pratiques clés.

Promouvoir des cadres éclairés

Nous participons activement à l'élaboration de cadres et de réglementations de premier plan, tels que le cadre de gestion des risques liés à l'IA du National Institute of Standards and Technology (NIST) aux États-Unis et la loi sur l'IA de l'Union européenne.

Concevoir pour l'IA responsable

Nous tenons compte du potentiel de conséquences involontaires tout au long du développement de nos produits et mettons la sûreté et la sécurité au cœur de nos priorités. Cela implique de mettre en place des garde-fous pour garantir l'équité, la transparence, l'explicabilité, la fiabilité et plus encore.

Donner de la visibilité à nos clients

Pour aider nos clients à mettre en place une IA responsable au sein de leur propre entreprise, nous expliquons comment nos solutions basées sur l'IA sont conçues ainsi que leur fonctionnement et la manière dont elles sont entraînées et testées. Des fiches d'information décrivant notamment les évaluations des risques et les mesures d'atténuation pertinentes sont disponibles pour tous les clients.

« La transparence autour de la façon dont les modèles d'IA et de Machine Learning sont entraînés est essentielle pour instaurer la confiance. Les systèmes qui ne sont pas assez sophistiqués pour offrir cette transparence seront en difficulté. Workday dispose des ressources et de la capacité de réflexion nécessaires pour tous nous pousser plus loin. »

– SVP, Chief Information Officer

Image d'une personne à son bureau.

PERSPECTIVES D'AVENIR

Façonner un avenir équitable et transparent pour l'IA

Le paysage technologique évolue, tout comme notre travail pour faire progresser l'utilisation responsable de l'IA. Nous sommes impatients de découvrir des cas d'usage encore plus innovants tout en garantissant l'équité et la transparence pour tous.

Élargir notre Advisory Board

Nous intégrons davantage de perspectives issues de disciplines et de domaines d'expertise différents.

Accroître les investissements

Nous continuons d'explorer la formation continue à l'IA responsable et les opportunités de collaboration avec les clients, les partenaires et les législateurs.

Accompagner nos clients

Nous travaillons en permanence avec nos clients pour rechercher davantage d'opportunités de déployer l'IA de manière responsable.

RAPPORT SUR L'INTELLIGENCE ARTIFICIELLE

Renforcer la confiance en matière d'IA

Les dirigeants et les collaborateurs conviennent que l'IA offre de nombreuses opportunités, mais le manque de confiance dans le fait qu'elle sera déployée de manière responsable constitue un obstacle. La solution réside dans la collaboration et la réglementation. 

62 %

des dirigeants de la région EMEA accueillent favorablement l'IA dans leur entreprise.

23 %

des collaborateurs ne sont pas convaincus que leur employeur place leurs intérêts avant les siens lors de l'adoption de l'IA.

70 %

des dirigeants d'entreprise veulent une IA avec intervention humaine.

80 %

des collaborateurs affirment que leur entreprise ne communique pas de directives sur l'utilisation de l'IA.


Notre approche de la confiance

Prêt à passer à la vitesse supérieure ?