QU’EST-CE QU’UNE IA RESPONSABLE?
Une IA responsable sur laquelle vous pouvez compter.
L’IA offre des possibilités d’innovation illimitées, mais elle doit aussi être développée et utilisée de manière sécuritaire et éthique. Découvrez ce que nous faisons pour accroître la confiance et la transparence afin de bâtir un avenir meilleur.
NOTRE APPROCHE
Les piliers d’une IA responsable auxquels nous tenons.
PRATIQUES CLÉS
Un développement responsable, à chaque étape.
Nos principes constituent une base solide pour notre approche. Toutefois, nous ne nous arrêtons pas là : nous les mettons en pratique à chaque étape du développement. Découvrez quelques-unes de nos pratiques clés.
Prôner des cadres bien pensés.
Nous participons activement à l’élaboration de cadres et de réglementations de premier plan, comme le cadre de gestion des risques liés à l’IA du National Institute of Standards and Technology (NIST) des États-Unis et la loi sur l’IA de l’Union européenne.
Concevoir une IA responsable.
Nous tenons compte de la possibilité de conséquences involontaires tout au long du développement de nos produits et gardons toujours la sécurité à l’esprit. Nous mettons donc en place des mécanismes de protection pour assurer l’équité, la transparence, l’explicabilité, la fiabilité, etc.
Faire preuve de transparence envers nos clients.
Pour aider nos clients à mettre en place une IA responsable dans leurs propres organisations, nous leur expliquons les méthodes de conception de nos solutions d’IA, leur fonctionnement et la façon dont elles sont entraînées et testées. Tous nos clients ont accès à des fiches de renseignements, qui décrivent notamment les évaluations de risques et les mesures d’atténuation pertinentes.
« La transparence sur la manière dont les modèles d’IA et d’apprentissage automatique sont entraînés est essentielle pour instaurer la confiance. Les systèmes qui ne sont pas assez sophistiqués pour offrir une telle transparence auront des difficultés. Workday dispose des ressources et de la capacité de réflexion nécessaires pour nous permettre d’aller de l’avant. »
— Vice-président principal et directeur des technologies de l’information
PERSPECTIVES D’AVENIR
Un avenir équitable et transparent pour l’IA.
Le paysage technologique et le travail que nous accomplissons pour faire progresser l’utilisation responsable de l’IA évoluent en parallèle. Nous sommes impatients de découvrir des cas d’utilisation encore plus novateurs tout en assurant l’équité et la transparence pour tous.
Élargir notre conseil consultatif.
Nous intégrons davantage de points de vue en accueillant des gens issus de disciplines et de domaines d’expertise différents.
Accroître l’investissement.
Nous continuons d’explorer les formations continues sur l’IA responsable et les possibilités de collaboration avec nos clients, nos partenaires et les législateurs.
Travailler en partenariat avec nos clients.
Nous collaborons avec nos clients en continu pour trouver d’autres possibilités de déploiement responsable de l’IA.
RAPPORT SUR L’INTELLIGENCE ARTIFICIELLE
Renforcer la confiance envers l’IA.
Les dirigeants et les employés reconnaissent que l’IA présente de nombreuses occasions d’affaires, mais le manque de confiance dans son déploiement responsable constitue un obstacle. La solution? La collaboration et la réglementation.
62 %
des dirigeants accueillent favorablement l’adoption de l’IA dans leur organisation.
23 %
des employés pensent que leur employeur risque de privilégier ses propres intérêts lors de l’adoption de l’IA.
70 %
des dirigeants d’entreprise estiment que l’IA doit permettre une intervention humaine.
80 %
des travailleurs affirment que leur entreprise ne communique pas de directives sur l’utilisation de l’IA.
Notre approche en matière de confiance.