Los principios éticos para una inteligencia artificial de confianza

La transformación digital, impulsada en gran medida por la inteligencia artificial (IA), está teniendo un impacto directo tanto en nuestra vida cotidiana como en el ámbito profesional. Por ello, es necesario establecer un marco ético para la IA, con el fin de garantizar un uso responsable.

El grupo Michelin desea que el uso de la inteligencia artificial responda plenamente a sus ambiciones “todo Sostenible”: People x Profit x Planet.

image-20250715-072652

Definición

La IA suele entenderse a través de su aplicación concreta en un sistema de IA, en lo sucesivo “IA” o “sistema de IA”.

El “sistema de IA” se define en el Reglamento Europeo de 13 de junio de 2024 como “un sistema basado en máquinas que está diseñado para funcionar con diversos niveles de autonomía y que puede mostrar capacidad de adaptación tras su despliegue, y que, para objetivos explícitos o implícitos, infiere, a partir de la entrada que recibe, cómo generar salidas tales como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales”.

La IA abarca diversas tecnologías y ámbitos de aplicación que se basan en modelos o algoritmos.


Ejemplos:

- IA generativa: creación de contenido (texto, imagen, vídeo, audio, etc.) a partir de una solicitud;

- IA predictiva: predicción de un resultado basándose en un historial.

- IA de reconocimiento y clasificación: reconocimiento visual de objetos, clasificación de imágenes, detección de comportamientos anormales, etc.

Contexto

Oportunidades

La IA ha experimentado avances significativos en los últimos años (algoritmos complejos, IA generativa basada en modelos de lenguaje de gran escala) y está transformando la forma en que las empresas utilizan los datos. Las aplicaciones que utilizan la IA son cada vez más numerosas y abarcan múltiples sectores (transporte, sanidad, marketing, servicios públicos, etc.).

La IA ofrece oportunidades tanto para las empresas (por ejemplo, desarrollo de productos y servicios innovadores, aumento de la productividad, detección de incumplimientos, etc.) como para las personas (ayuda en la toma de decisiones, mejora del bienestar en el trabajo, inclusión de personas con discapacidad, etc.).

Michelin cuenta con una sólida trayectoria en materia de innovación y compromiso medioambiental y social, y aspira a seguir desempeñando un papel relevante en la construcción de un futuro más sostenible para todos.

 

Riesgos

Más allá de las oportunidades que ofrece, la IA también presenta riesgos reales o potenciales a escala empresarial y social, entre ellos:

- En su diseño y entrenamiento de modelos: posibles sesgos en los conjuntos de datos de aprendizaje de la IA que pueden dar lugar a casos de discriminación, mala calidad o contaminación de los datos, pérdida de confidencialidad de los datos personales, etc.

- En su utilización: opacidad en cuanto al funcionamiento del sistema de IA, inestabilidad en el rendimiento (por ejemplo, alucinaciones), impacto en la salud y el bienestar en el trabajo de las personas que utilizan los sistemas de IA, confianza excesiva sin reflexión crítica, pérdida de autonomía en la toma de decisiones, divulgación de información sujeta al secreto comercial o a la propiedad intelectual, vulneración del Derecho de la competencia, etc.

- En el plano social y medioambiental: ultrafalsos (deepfakes), manipulación de la opinión pública mediante la difusión de información falsa, uso de sistemas de IA para la vigilancia masiva de la población a través de cámaras inteligentes, transformación profunda de determinadas profesiones, tecnología con un elevado consumo energético, etc.

Se requiere un esfuerzo conjunto de los actores públicos y privados para garantizar sistemas de IA de confianza.

Marco de actuación

El reto consiste en conciliar el uso de los sistemas de IA con los valores del Grupo, garantizando al mismo tiempo el cumplimiento de la normativa aplicable.

El objetivo de Michelin es anticipar y controlar los riesgos derivados del desarrollo y la implantación de sistemas de IA dentro del Grupo, así como garantizar que la innovación que aportan estos sistemas de IA sea acorde con nuestros valores.

Esta conciliación es una condición sine qua non para crear un entorno que permita ofrecer a todos una mejor forma de avanzar.

communaute_locale_opaque@2x

Principios

Para garantizar un uso de los sistemas de IA que genere valor y confianza, Michelin se compromete a utilizar y desarrollar sistemas de IA basados en tres principios fundamentales.

Estos tres principios complementan los principios ya adquiridos por el Grupo, en particular en materia de medioambiente y seguridad de los sistemas de información.

Dichos principios irán evolucionando con el tiempo para adaptarse a los cambios regulatorios, a los avances tecnológicos, al análisis de sus impactos y a las expectativas de los/as empleados/as y demás partes interesadas del Grupo.

Principio 1: una IA centrada en el humano
Los sistemas de IA deben diseñarse y utilizarse de manera que estén al servicio de las personas y respeten sus derechos y libertades fundamentales (dignidad, autodeterminación, privacidad, equidad, no discriminación, etc.).

Para ello, el Grupo se apoya en los siguientes pilares:

  • La supervisión humana: todos los sistemas de IA se diseñarán y utilizarán garantizando un nivel adecuado de evaluación y supervisión humana (por ejemplo, prohibiendo cualquier decisión que pueda tener consecuencias significativas en una persona, como un despido, un ascenso, etc., que se base exclusivamente en una decisión de un sistema de IA).
human centrics (002)
  • La protección de la salud y el bienestar de los/as empleados/as: los sistemas de IA que diseñamos y utilizamos deben ser fiables, seguros y protegidos a lo largo de todo su ciclo de vida, con el fin de cumplir los objetivos establecidos y no representar ningún riesgo inaceptable para las personas, en particular para su salud y bienestar (pérdida de autonomía, pérdida de responsabilización, desinformación, etc.).
  • El respeto de los datos personales: una IA respetuosa con las personas también exige la adopción de medidas de control adecuadas de los datos personales tratados, con el fin de prevenir violaciones de la privacidad o la pérdida de confidencialidad de los datos y garantizar la calidad, integridad y pertinencia de los datos en relación con los fines para los que se tratan.
  • La no discriminación y la equidad: los sistemas de IA que implementamos o adquirimos deben configurarse de manera adecuada y proporcionada, con el fin de evitar sesgos, discriminaciones o la reproducción de estereotipos.
  • La sensibilización y la formación: la concienciación sobre los retos asociados al desarrollo y uso responsable de la IA es fundamental. El desarrollo de las competencias y la evolución profesional de los/as empleados/as deben ir acompañados de medidas destinadas a fomentar la confianza en estas tecnologías, repartir de forma equitativa los beneficios asociados a su uso dentro de Michelin y permitir que cada persona pueda protegerse frente a los riesgos que entrañan, como la falta de control de los contenidos generados por los sistemas de IA, la pérdida de competencias clave, etc.

Michelin se compromete, en el proceso de integración de la IA en el Grupo, a proteger el bienestar y los derechos de las personas mediante una organización adecuada y la evaluación de sus posibles consecuencias negativas.

Principio 2: una IA transparente y justificable

Michelin imparte formaciones para garantizar que los/as usuarios/as de las soluciones de IA dispongan de los conocimientos fundamentales, como la comprensión de sus funciones básicas, sus implicaciones prácticas y las consideraciones éticas.

Para los equipos operativos y técnicos, la formación se adapta a sus funciones y responsabilidades, de modo que cualquier sistema de IA desarrollado o implementado dentro del Grupo sea lo suficientemente transparente y justificable como para garantizar la confianza de los usuarios.

29290272_l (002)

Transparente significa:

- Proporcionar una ficha explicativa para los sistemas de IA utilizados como herramienta de apoyo a la toma de decisiones, especificando su alcance y sus límites de uso;
- Garantizar que las personas que utilizan la IA dispongan de la información adecuada para identificar posibles sesgos o errores y adoptar decisiones de forma responsable;
- Informar a las personas, en un formato adecuado, cuando estén interactuando con un sistema de IA o expuestas a determinados contenidos generados mediante IA.

Justificable significa:
-
Ser capaz de describir cómo el sistema de IA ha producido un resultado determinado, a posteriori o en tiempo real, en función del contexto;

- Ofrecer un sistema de IA cuyo resultado sea inteligible (como mínimo interpretable) y reproducible.

- Dar prioridad a los sistemas de IA que cuenten con funciones que permitan comprender su funcionamiento, mediante notas explicativas. El nivel de explicación deberá adaptarse al contexto y a la gravedad de las consecuencias que pudiera tener un resultado erróneo o impreciso (por ejemplo, la recomendación de una ruta turística por parte de un asistente virtual (chatbot) en la aplicación ViaMichelin no tiene el mismo impacto que un diagnóstico médico crítico).

La transparencia y la comprensión deben tener en cuenta otras exigencias, en particular en materia de propiedad intelectual y/o protección contra la piratería, etc.

Principio 3: una responsabilidad adecuada (accountability)

Michelin se compromete a garantizar el buen funcionamiento de los sistemas de IA desarrollados e implementados, así como a establecer una gobernanza adecuada para supervisar y controlar el uso de la IA dentro del Grupo.

Dicha gobernanza garantiza que los riesgos identificados sean conocidos y controlados, y que los sistemas de IA cumplan con los principios éticos del Grupo.

58304886_xxl (002)

En particular, Michelin se compromete, en el desarrollo de sistemas de IA, a:

- Realizar pruebas para mejorar la calidad de los resultados (por ejemplo, supervisión humana durante la fase de entrenamiento, etc.);
- Comprobar y demostrar que las medidas adoptadas permiten reducir los riesgos potenciales a un nivel aceptable;
- Tener en cuenta el multiculturalismo, el multilingüismo y la diversidad de los equipos;
- Comprobar que los sistemas cumplen eficazmente la función para la que están destinados (indicadores de éxito, etc.);
- Garantizar que estos sistemas presentan un nivel suficiente de cumplimiento normativo, solidez y seguridad, etc. (por ejemplo, demostración de conformidad, cumplimiento de la normativa, etc.).

Cuando Michelin implementa sistemas de IA, confía su supervisión a una persona responsable que cuenta con la competencia, la formación y la autoridad necesarias para garantizar el cumplimiento de los principios éticos del Grupo y de la normativa aplicable.

Asimismo, Michelin se compromete a examinar, cuando sea necesario, los dilemas y decisiones éticas en el marco de una gobernanza transversal y adaptada.

Qué debo hacer

Cada empleado/a debe contribuir al cumplimiento de los tres principios anteriormente mencionados y debe:

  • Realizar las formaciones obligatorias definidas por el Grupo.
  • Respetar las condiciones de uso, las normas y los procesos definidos durante la configuración de una nueva herramienta de IA.
  • Hacer un uso responsable y adecuado de los sistemas de IA puestos a disposición por Michelin (preguntarse de antemano el “por qué”, es decir, qué valor añadido aportaría una IA en comparación con una solución sin IA, y el “para quién”, cuáles son los beneficios esperados para los/as empleados/as o cualquier otro socio externo del Grupo (por ejemplo, clientes, proveedores), etc.).

Se aplican exigencias específicas a los/as empleados/as dependiendo de su función y de sus responsabilidades en el desarrollo o el suministro de sistemas de IA:

  • Proporcionar sistemas de IA transparentes, verificables y justificable para ayudar a los usuarios de los sistemas de IA a tomar decisiones fundadas (notas explicativas, etc.) y garantizar la trazabilidad de las decisiones adoptadas por dichos sistemas.
  • Proporcionar sistemas de IA sólidos, que funcionen correctamente en relación con la finalidad para la que han sido diseñados.
  • Implementar sistemas de IA seguros, en los que se garantice la seguridad y la confidencialidad de los datos durante todo su ciclo de vida, teniendo en cuenta los riesgos que la IA puede acentuar (difusión de datos por derechos de acceso excesivos, protección del secreto comercial, clasificación incorrecta de documentos, etc.).
  • Garantizar la trazabilidad de los datos, de los procesos y de las decisiones tomadas durante el ciclo de vida del sistema de IA.
  • Designar, para cada sistema de IA puesto a disposición, una persona responsable de su rendimiento, precisión y de las consecuencias que pueda tener en los resultados del Grupo.
  • Proporcionar, para cada sistema de IA, una documentación precisa que incluya su alcance y sus límites de utilización.
  • Identificar los riesgos asociados a cada sistema de IA, supervisarlos y establecer medidas preventivas y correctivas.
  • Diseñar sistemas de IA que sean sostenibles, optimizando el uso de los recursos para reducir nuestra huella de carbono.
  • Fomentar la diversidad en los equipos que trabajen con IA, tanto en perfiles como en competencias y experiencias, por ser un factor clave para prevenir sesgos y otros riesgos éticos.

Qué no debo hacer

  • Implementar o adquirir sistemas de IA cuyo uso sea contrario a los valores y principios éticos del Grupo o esté prohibido por la normativa aplicable (IA destinada a manipular o engañar, etc.).
  • Adquirir sistemas de IA sin asegurarse previamente o sin exigir garantías (contractuales, certificaciones, evaluación de conformidad, etc.) al proveedor sobre el cumplimiento de la normativa vigente (propiedad intelectual, confidencialidad, etc.).
  • Confiar plenamente en un sistema de IA en un proceso de toma de decisiones que tenga consecuencias significativas en un/a empleado/a (por ejemplo, cambio de puesto, ascenso, etc.).
  • Reutilizar los resultados propuestos por un sistema de IA sin haber comprobado previamente que no contienen errores (actas de reuniones, notas informativas, etc.).
  • Implementar sistemas de IA que impliquen un riesgo de divulgación de información confidencial o personal (por ejemplo, datos de geolocalización, etc.).

¿A quién contactar?

Para cualquier consulta relacionada con cuestiones éticas en el ámbito de la inteligencia artificial, puedes dirigirte al Servicio Jurídico / Compliance (DCJ) o al departamento DOTI/DAI.