Les principes éthiques pour une Intelligence Artificielle de confiance

La transformation numérique portée notamment par l’Intelligence Artificielle (IA) impacte notre quotidien et notre environnement de travail. Adopter un cadre éthique de l’IA est, dès lors, nécessaire pour avoir une démarche responsable.

Le groupe Michelin souhaite que l’usage de l’Intelligence Artificielle réponde pleinement à ses ambitions « tout Durable » : People x Profit x Planet.

image-20250715-072652

Définition

L’IA est généralement appréhendée au travers de son application concrète dans un système d’IA, ci-après « IA » ou « système d’IA ».

Le "système d'IA" est défini par le Règlement européen du 13 juin 2024, comme étant « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels».

L’IA englobe plusieurs technologies et domaines d’applications qui s’appuient sur des modèles ou des algorithmes.


Exemples :

- IA générative : création d’un contenu (texte, image, vidéo, son, …) sur la base d’une requête ;

- IA de prédiction : prédiction d’un résultat sur la base d’un historique ;

- IA de reconnaissance et de classification : reconnaissance visuelle d’objet, classement d’images, détection de comportement anormaux, etc.

Opportunités

L’IA a connu des développements significatifs ces dernières années (algorithmes complexes, IA génératives fondées sur des larges modèles de langage) et transforme la façon dont les entreprises utilisent les données. Les applications utilisant l'IA sont nombreuses dans divers domaines (transport, santé, marketing, services publics, etc.).

En effet, l'IA apporte des opportunités tant pour l’entreprise (ex : produits et services innovants, gains de productivité, détection de non-conformités, etc.) que pour les personnes (aide à la décision, amélioration du bien-être au travail, inclusion des personnes en situation de handicap, etc.).

Michelin possède une longue tradition d’innovation, d’engagements environnementaux et sociétaux et entend continuer à exercer un rôle majeur pour un avenir plus durable pour tous.

 

Risques

Au-delà des opportunités qu’elle propose, l'IA présente également des risques avérés ou potentiels à l’échelle des entreprises mais aussi de la société, au travers :

- De sa conception et de l’entrainement de ses modèles : biais possibles dans les jeux de données d’apprentissage de l’IA pouvant aboutir à des cas de discrimination, de mauvaise qualité et/ou de pollution des données, de perte de confidentialité de données à caractère personnel, etc. ;

- De son usage : opacité du fonctionnement du système d’IA, instabilité de sa performance (ex. hallucinations), impact sur la santé et bien-être au travail des personnes utilisant les systèmes d’IA, biais de confiance excessive sans réflexion critique, perte du libre arbitre et de contrôle, partage de données relevant du secret des affaires ou de la propriété intellectuelle, atteinte au droit de la concurrence, etc. ;

- Des inquiétudes sociétales et environnementales : hypertrucage (« deepfake »), manipulation des populations par la diffusion de fausses informations, utilisation des systèmes d’IA pour la surveillance de masse des populations via des caméras intelligentes, transformation profonde de certains métiers, technologie énergivore, etc.

Des efforts collectifs tant par les acteurs publics que privés sont nécessaires pour garantir des systèmes d'IA de confiance.

Encadrement

L'enjeu est de concilier les usages des systèmes d’IA avec les valeurs du Groupe tout en assurant le respect des réglementations applicables.

La volonté de Michelin est d’anticiper et de maîtriser les risques induits par le développement et le déploiement des systèmes d’IA au sein du Groupe et de s’assurer que l’innovation portée par ces systèmes d’IA sera en adéquation avec nos valeurs.

Cette conciliation est la condition sine qua non pour la création d'un environnement permettant d’offrir à chacun une meilleure façon d’avancer.

communaute_locale_opaque@2x

Principes

Pour assurer une utilisation des systèmes d’IA qui soit à la fois créatrice de valeurs et de confiance, Michelin s’engage à utiliser et développer des systèmes d’IA selon trois principes fondamentaux.

Ces trois principes viennent en complément des engagements du Groupe pris, notamment en matière d’environnement et de sécurité des systèmes d’information.

Ils ont vocation à évoluer dans le temps pour tenir compte des évolutions réglementaires, des progrès technologiques, de l’analyse des impacts, mais également des attentes des employés et des parties prenantes du Groupe.

Principe 1 : une IA centrée sur l’humain
Les systèmes d’IA doivent être conçus et utilisés de façon à être au service de l’Humain et respecter ses droits et libertés fondamentaux (dignité, auto-détermination, vie privée, équité, non-discrimination, etc.).

Pour cela, le Groupe s’appuie sur les éléments suivants :

La supervision humaine : tout système d’IA sera conçu et utilisé en garantissant un niveau adéquat d’appréciation et de supervision humaine (ex : proscrire toute décision susceptible d’avoir des impacts significatifs sur une personne, tels qu’un licenciement, une promotion, etc. qui reposerait exclusivement sur une décision d’un système d’IA).

human centrics (002)

La préservation de la santé et du bien-être des employés : Les systèmes d’IA que nous concevons, et utilisons doivent être fiables, sûrs, et sécurisés tout au long de leur cycle de vie, afin de répondre aux objectifs fixés et de ne présenter aucun de risque non acceptable pour les personnes, en particulier pour leur santé et leur bien-être (perte d’autonomie, déresponsabilisation, désinformation, etc.).

Le respect des données personnelles : Une IA respectueuse des personnes impose également des mesures de contrôle appropriées des données personnelles traitées pour prévenir les atteintes à la vie privée ou la perte de confidentialité des données et assurer la qualité, l’intégrité et la pertinence des données par rapport aux finalités pour lesquelles elles sont traitées.

La non-discrimination et l’équité : Les systèmes d’IA que nous déployons ou acquérons doivent être paramétrés de manière adaptée et proportionnée pour éviter des biais, discriminations ou la reproduction de stéréotypes.

La sensibilisation et la formation : La sensibilisation sur les enjeux liés au développement ou au déploiement responsable de l’IA est essentielle. Le développement des compétences et des parcours professionnels des employés doit être accompagné afin de favoriser la confiance vis-à-vis de ces technologies, de répartir équitablement les bénéfices de l’usage de l’IA au sein de Michelin, mais aussi permettre à chacun de se prémunir contre les risques qu’elle présente tels que l’absence de contrôle des contenus générés par les systèmes d’IA, la perte de compétences clefs, etc…).

Michelin s’engage, en intégrant l’utilisation de l’IA au sein du Groupe, à préserver le bien-être et les droits des personnes grâce à une organisation adaptée et à une évaluation de ses impacts négatifs potentiels.

Principe 2 : une IA transparente et explicable
Michelin dispense des formations pour s'assurer que les utilisateurs des solutions d'IA disposent des connaissances fondamentales, telles que la compréhension des fonctions de base de l'IA, ses implications pratiques et les considérations éthiques.

Pour les équipes opérationnelles et techniques, la formation est adaptée à leurs rôles et responsabilités afin que tout système d'IA développé ou déployé au sein du Groupe soit suffisamment transparent et explicable pour assurer la confiance des utilisateurs.

29290272_l (002)

Transparent signifie :
- Fournir une fiche explicative pour les systèmes d’IA d’aide à la décision pour préciser son cadre et ses limites d’utilisation ;
- Veiller à la bonne information des personnes utilisant l’IA pour leur permettre d’identifier d’éventuels biais ou erreurs et prendre des décisions de manière responsable ;
- Informer les personnes dans un format adapté quand elles interagissent avec un système d’IA ou sont exposées à certains contenus générés par l’IA.

Explicable signifie :
- Être capable de décrire comment le système d’IA a produit un résultat particulier, a posteriori ou en temps réel en fonction du contexte ;
- Proposer un système d’IA dont le résultat est intelligible (a minima interprétable) et reproductible;
- Privilégier les systèmes d’IA disposant de fonctionnalités permettant de comprendre la façon dont le système d’IA fonctionne, avec des notes explicatives. Le niveau d’explication doit dépendre du contexte et de la gravité des conséquences si le résultat est erroné ou imprécis (ex : la proposition d’un itinéraire touristique par un dialogueur (« chatbot ») avec l’application ViaMichelin a moins d’impact qu’un pronostic médical vital).

Transparence et explicabilité doivent prendre en considérations d’autres exigences, notamment en matière de propriété intellectuelle, et/ou de protection contre le piratage, etc.

Principe 3 : Une responsabilité adaptée (“accountability”)
Michelin s’engage à s’assurer du bon fonctionnement des systèmes d’IA développés et déployés et à mettre en place une gouvernance adaptée pour superviser et piloter l’utilisation de l’IA au sein du Groupe.

Cette gouvernance s’assure que les risques identifiés sont connus et maitrisés et que les systèmes d’IA sont conformes aux principes éthiques du Groupe.

58304886_xxl (002)

Michelin s’engage en particulier lorsqu’il développe des systèmes d’IA à :
- Effectuer des tests pour améliorer la qualité des résultats (ex : supervision humaine pendant la phase d’entraînement, etc.) ;
- Vérifier et démontrer que les précautions prises permettent de réduire les risques éventuels à un niveau acceptable ;
- Prendre en compte le multiculturalisme, le multilinguisme et la diversité des équipes ;
- Vérifier que les systèmes remplissent efficacement l’usage pour lequel ils sont prévus (indicateurs de succès, etc.) ;
- Apporter la garantie que ces systèmes présentent un niveau suffisant de conformité légale, de robustesse et de sécurité, etc. (ex : démonstration de conformité, respects des normes, etc.).

Lorsque Michelin déploie des systèmes d'IA, il en confie la supervision à une personne responsable disposant de la compétence, de la formation et de l'autorité nécessaires pour assurer le respect des principes éthiques du Groupe et de la réglementation applicable.

Michelin s’engage également à examiner, le cas échéant, les dilemmes et arbitrages éthiques dans le cadre d’une gouvernance transversale et adaptée.

Je dois

Chaque employé doit contribuer au respect des trois principes ci-dessus énoncés et doit :

  • Suivre les formations obligatoires définies par le Groupe.
  • Respecter les conditions d’utilisation, règles et processus définis lors de la configuration d’un nouvel outil IA.
  • Avoir une utilisation pertinente et raisonnée des systèmes d’IA mis à disposition par Michelin (questionner en amont le “pourquoi”, à savoir la plus-value qu’apporterait une IA par rapport à une solution sans IA et le “pour qui”, quels sont les bénéfices escomptés pour les employés ou tout autre partenaire externe du Groupe (par exemple les clients, les fournisseurs), etc.).

Des exigences spécifiques s'appliquent aux employés en fonction de leur rôle et de leurs responsabilités dans le développement ou la fourniture de systèmes d'IA :

  • Fournir des systèmes d’IA transparents, vérifiables et explicables afin d’aider les utilisateurs de ces systèmes d’IA à faire des choix éclairés (notes explicatives, etc.) et en assurant la traçabilité des décisions.
  • Fournir des systèmes d’IA robustes afin qu’ils fonctionnent correctement pour la finalité pour laquelle ils ont été prévus.
  • Mettre en œuvre des systèmes d’IA sûrs, pour lesquels la sécurité et la confidentialité des données sont assurées tout au long de leur cycle de vie en prenant en compte les risques que l’IA peut accentuer (diffusion de données du fait de droit d’accès trop larges, protection du secret des affaires, mauvaise classification des documents, etc.)
  • Assurer la traçabilité des données, des processus et décisions prises au cours du cycle de vie du système d'IA.
  • Désigner pour chaque système d’IA mis à disposition, une personne responsable de sa performance, de son exactitude et de son impact sur les résultats du Groupe.
  • Fournir pour chaque système d’IA une documentation précise, incluant son cadre et ses limites d’utilisation.
  • Identifier les risques relatifs à chaque système d’IA, les surveiller, et mettre en place des mesures préventives et correctives.
  • Concevoir des systèmes d’IA pour qu’ils soient durables en optimisant l'utilisation des ressources afin de réduire notre empreinte carbone.
  • Favoriser la diversité des équipes travaillant sur l’IA en termes de profils, de compétences, d’expériences, meilleurs garants contre les risques de biais et de manière générale des risques éthiques.

Je ne dois pas

Chaque salarié ne doit pas :

  • Mettre en œuvre ou acquérir des systèmes d’IA dont les cas d’usage sont contraires aux valeurs et principes éthiques du Groupe ou prohibés par la réglementation (IA visant à manipuler ou tromper, etc.).
  • Acquérir des systèmes d’IA sans s’assurer au préalable, ou exiger des garanties (contractuelles, certifications, évaluation de conformité, etc.) auprès du fournisseur concernant le respect de la réglementation existante (propriété intellectuelle, confidentialité, etc.).
  • Se fier entièrement à un système d’IA dans un processus décisionnel ayant un impact important sur un employé (ex : changement de poste, promotion, etc.)
  • Réutiliser les résultats proposés par un système d’IA sans vérifier au préalable l’absence d’erreurs (CR de réunion, note d’information, etc.)
  • Mettre en œuvre des systèmes d’IA qui comportent un risque de diffusion d’informations confidentielles ou personnelles (ex : données de géolocalisation, etc.).

Qui contacter ?

Pour toute question relative aux enjeux éthiques de l’IA, vous pouvez faire appel au Service Juridique / Compliance (DCJ) ou au service DOTI/DAI.