Princípios éticos para uma Inteligência Artificial confiável

A transformação digital impulsionada principalmente pela Inteligência Artificial (IA) impacta nosso cotidiano e nosso ambiente de trabalho. Adotar uma estrutura ética para a IA é, portanto, necessária para se ter uma abordagem responsável.

O Grupo Michelin deseja que o uso da Inteligência Artificial responda plenamente às suas ambições “totalmente sustentáveis”: Pessoas x Lucro x Planeta.

image-20250715-072652

Definição

A IA é geralmente entendida através de sua aplicação concreta em um sistema de IA, doravante denominado “IA” ou “sistema de IA”.

O “sistema de IA” é definido pelo Regulamento Europeu de 13 de junho de 2024 como “um sistema automatizado projetado para operar em diferentes níveis de autonomia e capaz de demonstrar capacidade de adaptação após a sua implantação e que, para fins explícitos ou implícitos, deduz, a partir dos insumos que recebe, a forma de gerar saídas, tais como previsões, conteúdos, recomendações ou decisões que podem influenciar os ambientes físicos ou virtuais”.

A IA abrange várias tecnologias e domínios de aplicação que se baseiam em modelos ou algoritmos.

 

Exemplos:

- IA generativa: criação de conteúdo (texto, imagem, vídeo, som, etc.) com base em uma solicitação;

- IA preditiva: previsão de um resultado com base em um histórico;

- IA de reconhecimento e classificação: reconhecimento visual de objetos, classificação de imagens, detecção de comportamentos anormais, etc.

Oportunidades

A IA tem passado por desenvolvimentos significativos nos últimos anos (algoritmos complexos, IA generativa baseada em modelos de linguagem amplos) e está transformando a maneira como as empresas utilizam os dados. As aplicações que utilizam IA são numerosas em diversos campos (transporte, saúde, marketing, serviços públicos, etc.).

De fato, a IA traz oportunidades tanto para as empresas (por exemplo, produtos e serviços inovadores, ganhos de produtividade, detecção de não conformidades, etc.) quanto para as pessoas (auxílio na tomada de decisões, melhoria do bem-estar no trabalho, inclusão de pessoas com deficiência, etc.).
A Michelin possui uma longa tradição de inovação e compromissos ambientais e sociais e pretende continuar a desempenhar um papel importante para um futuro mais sustentável para todos.

 

Riscos

Além das oportunidades que oferece, a IA também apresenta riscos comprovados ou potenciais para as empresas e para a sociedade, através de:

- Sua concepção e o treinamento de seus modelos: possíveis vieses nos conjuntos de dados de aprendizagem da IA que podem resultar em casos de discriminação, baixa qualidade e/ou poluição dos dados, perda de confidencialidade dos dados pessoais, etc.;

- Seu uso: opacidade do funcionamento do sistema de IA, instabilidade de seu desempenho (por exemplo, alucinações), impacto na saúde e no bem-estar no trabalho das pessoas que utilizam sistemas de IA, confiança excessiva sem reflexão crítica, perda do livre arbítrio e do controle, compartilhamento de dados confidenciais ou de propriedade intelectual, violação do direito da concorrência, etc.;

- Preocupações sociais e ambientais: deepfake, manipulação de populações através da difusão de informações falsas, utilização de sistemas de IA para a vigilância em massa de populações através de câmeras inteligentes, transformação profunda de certas profissões, tecnologia com elevado consumo energético, etc.

São necessários esforços coletivos, tanto por parte dos atores públicos quanto privados, para garantir sistemas de IA confiáveis.

Estrutura

O desafio é conciliar os usos dos sistemas de IA com os valores do Grupo, garantindo o cumprimento das regulamentações aplicáveis.

A Michelin deseja antecipar e controlar os riscos decorrentes do desenvolvimento e da implantação de sistemas de IA dentro do Grupo e garantir que a inovação proporcionada por esses sistemas esteja em conformidade com nossos valores.

Essa conciliação é condição sine qua non para a criação de um ambiente que permita oferecer a todos uma maneira melhor de avançar.

communaute_locale_opaque@2x

Princípios

Para garantir uma utilização dos sistemas de IA que seja simultaneamente criadora de valor e de confiança, a Michelin compromete-se a utilizar e desenvolver sistemas de IA de acordo com três princípios fundamentais.

Esses três princípios complementam os compromissos assumidos pelo Grupo, especialmente em matéria de meio ambiente e segurança dos sistemas de informação.

Eles têm como objetivo evoluir ao longo do tempo para levar em consideração as mudanças regulatórias, os avanços tecnológicos, a análise de impactos, mas também as expectativas dos funcionários e das partes interessadas do Grupo.

Princípio 1: uma IA centrada no ser humano

Os sistemas de IA devem ser concebidos e utilizados de forma a estarem a serviço do ser humano e a respeitarem os seus direitos e liberdades fundamentais (dignidade, autodeterminação, privacidade, equidade, não discriminação, etc.).

Para tal, o Grupo baseia-se nos seguintes elementos:

Supervisão humana: todo sistema de IA será concebido e utilizado garantindo um nível adequado de avaliação e supervisão humana (por exemplo, proibir qualquer decisão suscetível de ter um impacto significativo sobre uma pessoa, como uma demissão, uma promoção, etc., que se baseie exclusivamente numa decisão de um sistema de IA).

A preservação da saúde e do bem-estar dos funcionários: os sistemas de IA que concebemos e utilizamos devem ser confiáveis, seguros e protegidos ao longo de todo o seu ciclo de vida, a fim de responder aos objetivos definidos e não apresentar nenhum risco inaceitável para as pessoas, em particular para a sua saúde e bem-estar (perda de autonomia, desresponsabilização, desinformação, etc.).

Respeito pelos dados pessoais: uma IA que respeita as pessoas também exige medidas adequadas de controle dos dados pessoais tratados para evitar violações da privacidade ou perda de confidencialidade dos dados e garantir a qualidade, integridade e relevância dos dados em relação às finalidades para as quais são tratados.

Não discriminação e equidade: os sistemas de IA que implementamos ou adquirimos devem ser configurados de forma adequada e proporcional para evitar preconceitos, discriminação ou a reprodução de estereótipos.

Sensibilização e treinamento: a sensibilização para as questões relacionadas com o desenvolvimento ou a implementação responsável da IA é essencial. O desenvolvimento das competências e dos percursos profissionais dos funcionários deve ser acompanhado, a fim de promover a confiança nessas tecnologias, distribuir equitativamente os benefícios do uso da IA dentro da Michelin, mas também permitir que cada um se proteja contra os riscos que ela apresenta, tais como a falta de controle dos conteúdos gerados pelos sistemas de IA, a perda de competências essenciais, etc.

Ao integrar o uso da IA no Grupo, a Michelin se compromete a preservar o bem-estar e os direitos das pessoas por meio de uma organização adequada e da avaliação de seus impactos negativos potenciais.

human centrics (002)

Princípio 2: uma IA transparente e explicável

A Michelin oferece treinamentos para garantir que os usuários das soluções de IA tenham conhecimentos básicos, como a compreensão das funções básicas da IA, suas implicações práticas e considerações éticas.

Para as equipes operacionais e técnicas, o treinamento é adaptado às suas funções e responsabilidades, para que qualquer sistema de IA desenvolvido ou implementado no Grupo seja suficientemente transparente e explicável para garantir a confiança dos usuários.

 

29290272_l (002)

Transparente significa:
- Fornecer um documento explicativo para os sistemas de IA de apoio à tomada de decisão, a fim de precisar o seu quadro e os limites da sua utilização;
- Garantir que as pessoas que utilizam a IA estejam bem informadas para que possam identificar possíveis vieses ou erros e tomar decisões de forma responsável;
- Informar as pessoas em um formato adequado quando interagem com um sistema de IA ou são expostas a determinados conteúdos gerados pela IA.

Explicável significa:

- Ser capaz de descrever como o sistema de IA produziu um resultado específico, a posteriori ou em tempo real, dependendo do contexto;
- Propor um sistema de IA cujo resultado seja inteligível (no mínimo interpretável) e reproduzível.
- Dar preferência a sistemas de IA com funcionalidades que permitam compreender o funcionamento do sistema de IA, com notas explicativas. O nível de explicação deve depender do contexto e da gravidade das consequências se o resultado for errado ou impreciso (por exemplo, a proposta de um itinerário turístico por um dialogador (“chatbot”) com o aplicativo ViaMichelin tem menos impacto do que um prognóstico médico vital).

A transparência e a explicabilidade devem levar em consideração outras exigências, nomeadamente em matéria de propriedade intelectual e/ou proteção contra pirataria, etc.

 

Princípio 3: Uma responsabilidade adequada (“accountability”)

A Michelin compromete-se a garantir o bom funcionamento dos sistemas de IA desenvolvidos e implementados e a estabelecer uma governança adequada para supervisionar e orientar a utilização da IA dentro do Grupo.

Esta governança assegura que os riscos identificados são conhecidos e controlados e que os sistemas de IA estão em conformidade com os princípios éticos do Grupo.

A Michelin compromete-se, em particular, ao desenvolver sistemas de IA, a:

- Realizar testes para melhorar a qualidade dos resultados (por exemplo, supervisão humana durante a fase de treinamento, etc.);
- Verificar e demonstrar que as precauções tomadas permitem reduzir os riscos potenciais a um nível aceitável;
- Levar em consideração o multiculturalismo, o multilinguismo e a diversidade das equipes;
- Verificar se os sistemas cumprem eficazmente a finalidade para a qual foram concebidos (indicadores de sucesso, etc.);
- Garantir que esses sistemas apresentam um nível suficiente de conformidade legal, robustez e segurança, etc. (por exemplo: demonstração de conformidade, respeito pelas normas, etc.).

Quando a Michelin implementa sistemas de IA, confia a sua supervisão a uma pessoa responsável com a competência, formação e autoridade necessárias para garantir o respeito pelos princípios éticos do Grupo e pela regulamentação aplicável.

A Michelin compromete-se igualmente a examinar, se necessário, os dilemas e arbitragens éticas no âmbito de uma governança transversal e adequada.

 

58304886_xxl (002)

In particular, when developing AI systems, Michelin is committed to:
- Perform tests to improve the quality of results (e.g. human supervision during the training phase, etc.);
- Verify and demonstrate that the precautions taken reduce potential risks to an acceptable level;
- Take into account multiculturalism, multilingualism and the diversity of teams;
- Verify that systems are effectively performing their intended purpose (indicators of success, etc.);
- Ensuring that these systems have a sufficient level of legal compliance, robustness and security, etc. (e.g.
demonstration of compliance, compliance with standards, etc.).

When Michelin deploys AI systems, it entrusts the supervision of them to a responsible person with the necessary skills, training and authority to ensure compliance with the Group's ethical principles and applicable regulations.

Michelin is also committed to examining, where appropriate, ethical dilemmas and trade-offs within the framework of cross-functional and appropriate governance.

Fazer: Devo

Cada funcionário deve contribuir para o cumprimento dos três princípios acima enunciados e deve:

• Seguir as formações obrigatórias definidas pelo Grupo.

• Respeitar as condições de uso, regras e processos definidos aquando da configuração de uma nova ferramenta de IA.
• Utilizar de forma pertinente e razoável os sistemas de IA disponibilizados pela Michelin (questionar antecipadamente o “porquê”, ou seja, o valor acrescentado que uma IA traria em comparação com uma solução sem IA, e o “para quem”, quais são os benefícios esperados para os funcionários ou qualquer outro parceiro externo do Grupo (por exemplo, clientes, fornecedores), etc.).

Exigências específicas se aplicam aos funcionários de acordo com suas funções e responsabilidades no desenvolvimento ou fornecimento de sistemas de IA:

• Fornecer sistemas de IA transparentes, verificáveis e explicáveis para ajudar os usuários desses sistemas de IA a fazer escolhas informadas (notas explicativas, etc.) e garantir a rastreabilidade das decisões.
• Fornecer sistemas de IA robustos para que funcionem corretamente para a finalidade para a qual foram concebidos.
• Implementar sistemas de IA seguros, nos quais a segurança e a confidencialidade dos dados sejam garantidas ao longo de todo o seu ciclo de vida, levando em consideração os riscos que a IA pode acentuar (divulgação de dados devido a direitos de acesso muito amplos, proteção do sigilo comercial, classificação incorreta de documentos, etc.).
• Garantir a rastreabilidade dos dados, processos e decisões tomadas durante o ciclo de vida do sistema de IA.
• Designar, para cada sistema de IA disponibilizado, uma pessoa responsável pelo seu desempenho, precisão e impacto nos resultados do Grupo.
• Fornecer, para cada sistema de IA, documentação precisa, incluindo o seu quadro e limites de utilização.
• Identificar os riscos relativos a cada sistema de IA, monitorá-los e implementar medidas preventivas e corretivas.
• Conceber sistemas de IA para que sejam sustentáveis, otimizando a utilização dos recursos a fim de reduzir a nossa pegada de carbono.
• Promover a diversidade das equipes que trabalham com IA em termos de perfis, competências e experiências, que são a melhor garantia contra riscos de preconceito e, de maneira geral, riscos éticos.

Fazer: Não devo

  • Implementar ou adquirir sistemas de IA cujos casos de uso sejam contrários aos valores e princípios éticos do Grupo ou proibidos pela regulamentação (IA destinada a manipular ou enganar, etc.).
  • Adquirir sistemas de IA sem garantir previamente, ou exigir garantias (contratuais, certificações, avaliação de conformidade, etc.) do fornecedor quanto ao cumprimento da regulamentação existente (propriedade intelectual, confidencialidade, etc.).
  • Confiar inteiramente em um sistema de IA em um processo decisório com impacto significativo sobre um funcionário (por exemplo: mudança de cargo, promoção, etc.).
  • Reutilizar os resultados propostos por um sistema de IA sem verificar previamente a ausência de erros (ata de reunião, nota informativa, etc.).
  • Implementar sistemas de IA que apresentem risco de divulgação de informações confidenciais ou pessoais (por exemplo: dados de geolocalização, etc.).

A quem contactar?

Para quaisquer questões relacionadas com os desafios éticos da IA, pode contatar o Departamento Jurídico / Compliance (DCJ) ou o Departamento DOTI/DAI (DOTI: Direção Operacional para a Transformação Digital e Sistemas de Informação; DAI: Direção para a Inteligência Artificial).