可信赖的人工智能的道德原则
数字化转型,尤其是由人工智能(AI)推动的数字化转型,正在影响我们的日常生活和工作环境。因此,以负责任的态度来使用人工智能,整合出道德框架是必要的。
米其林集团希望人工智能的使用完全符合集团「全方位可持续」的方针:人 x 利润 x 地球。
定义
在人工智能系统中,人工智能通常通过它的具体应用来理解,以下简称「人工智能」或「人工智能系统」。
2024年6月13日的欧洲法规将「人工智能系统」定义为「设计用于在不同自主层级运作的自动化系统,在部署后能展示出适应性,并且为了明确或隐含的目标,从收到的输入信息中推断出可能影响物理或虚拟环境的信息,例如预测、内容、建议或决策」。
人工智能涵盖多种基于模型或算法的技术和应用领域。
例如:
- 生成式人工智能:根据查询创建内容(文字、图像、影片、声音等)
- 预测式人工智能:根据历史纪录预测结果
- 辨识与分类式人工智能:视觉对象辨识、影像分类、异常行为侦测等
情境
机会
近年来,人工智能取得了重大发展(如复杂算法、基于大语言模型的生成式人工智能等),正在改变公司使用数据信息的方式。 人工智能在多个领域中(交通、医疗、营销、公共服务等)都有广泛应用。
事实上,人工智能既为公司带来机遇(例如创新产品和服务、生产力提高、不合格品检测等),也为人们带来益处(辅助决策、改善工作幸福感、助力残障人士融入等)。
米其林在创新、环境和社会承诺方面有着悠久的传统,并致力于在为所有人创造更可持续的未来中继续发挥重要作用。
风险
除了提供机会之外,在企业和社会层面,人工智能也带来了已证实或潜在的风险,具体为:
- 人工智能模型的设计以及训练:人工智能训练数据集中可能存在偏差。这可能会造成歧视、数据质量低和/或数据污染、个人数据保密性丧失等情况。
- 人工智能的使用:人工智能系统运作的不透明性、性能不稳定(即“幻觉”)、对使用人工智能系统人员的健康和工作福祉造成影响、未经批判性反思便轻信系统、自主意志及控制权丧失、涉及商业机密或知识产权的数据被共享、违反竞争法等。
- 社会与环境方面:深度伪造技术、以传播虚假讯息来操控民众、利用智能摄影机以人工智能系统对民众进行大规模监视、某些职业的深刻变革、技术能耗过高等。
需要公共部门与私营部门各方共同努力,以确保人工智能系统的可信度。
框架
在确保遵守现行法规的同时,我们所面临的挑战在于如何将人工智能系统与集团的价值观兼容。
对集团内部开发和部署人工智能系统所带来的风险,米其林希望能够做出完整预测及控制,确保人工智能系统完全符合我们的价值观。
这种兼容整合是创造出让每个员工都能有更好发展环境的必要条件。
原则
为了确保人工智能系统的使用能创造出价值,同时也能够成为我们工作时可以全心信任的工具,米其林根据三个基本原则,使用和开发人工智能系统。
对集团在环境和信息系统安全方面的承诺,这三项原则是集团为此做出的补充。
这些原则旨在随着时间的推移不断发展,以适应法规变化、技术进步、影响分析,同时也考虑集团员工及利益相关方的期望。
原则一:以人为本
集团认为,人工智能系统的设计和使用必须以服务人类为宗旨,且充分尊重个人的基本权利和自由(尊严、自决权、隐私权、公平、不受歧视等)。
为了达成此目的,集团根据以下原则行事:
- 人工监督:所有人工智能系统的设计以及使用都需要在个人充分理解后,以及亲自监督下方可使用(例如,任何如解雇、晋升等可能对个人产生重大影响的决定,皆不得完全依赖人工智能系统)。
- 保障员工的健康和福祉:在其整个生命周期内,我们所设计及使用的人工智能系统都必须可靠、安全、有保障,且可以满足既定目标但又不会对人们构成不可接受的风险,特别是指健康和福祉方面(如失去自主权、被剥夺权力、虚假信息误导等)。
- 尊重个人数据:为防止隐私泄露或数据机密性丧失,并确保数据的质量、完整性和与处理目的相关性,对以人为中心的人工智能所处理的个人数据做适当的控制处理。
- 非歧视与公平:我们所设置或使用的人工智能系统必须以适当的方式配置,避免产生任何偏见、歧视或刻板印象。
- 认知和培训:对员工技能以及其职业道路的发展,集团必须给予相对的人工智能支持,为了对这些技术建立信心,在集团内部能够公平分配人工智能的使用,同时也让每个人都能保护自己免受其带来的风险(例如对人工智能系统生成的内容过度自信、关键技能的丧失等),对人工智能的开发或部署相关的问题存有意识及认知是极为重要的事。
在集团内部整合人工智能的使用,米其林致力于通过适当的组织以及对其潜在负面影响所做的评估来维护每个员工的福祉和权利。
原则2:透明且可解释
为确保人工智能解决方案的用户具备了解人工智能的基本功能、实际意义和道德考虑等相关基础知识,米其林集团为此提供培训。
对于运营和技术团队,为了确保集团内开发或部署的任何人工智能系统都足够透明且能够充分理解,以确保使用者能够在信任的心态下安心使用人工智能,集团则根据他们的职位及职责制定相关培训。
透明意味:
- 提供人工智能决策支持系统的说明,确认出其框架以及使用限制;
- 确保人工智能的用户能够取得适当的讯息,让他们在做出决策时能够识别出可能存在的任何偏见或错误;
- 当人们与人工智能系统互动、接触或接触某些人工智能产生的内容时,确保采用适当的形式告知。
可解释意味:
- 能够描述人工智能系统如何根据具体情况产生特定的结果(事后或实时);
- 人工智能系统的结果应具有可理解性(至少具备可解释性)和可重复性;
- 优先选择具备工作原理阐释能力且附带说明的人工智能系统。解释的详细程度必须取决于具体场景,以及结果出现错误或不精确时可能造成的后果的严重程度(例如,ViaMichelin 应用程序的聊天机器人所提出的旅游行程发生错误,其影响要小于一项至关重要的医疗诊断)。
透明和可解释性还必须考虑其他要求,特别是指知识产权和/或防盗版等方面。
允许的行为:我必须
每位员工都必须遵守上述三项原则,且:
- 参加集团规定的强制性培训课程;
- 遵守新人工智能工具部署时所规定的使用条件、规则和流程;
- 合理且在其相关工作范围内使用米其林提供的人工智能系统(在使用前思考“为何使用”,即与没有人工智能解决方案相比,人工智能会带来什么附加价值,以及“为谁”,即能为员工或集团的任何其他外部合作伙伴(例如客户、供应商等)带来哪些预期利益等)。
根据员工在开发或提供人工智能系统中所扮演的角色和职责,对员工的特定要求:
- 提供透明、可验证和可解释的人工智能系统,以帮助用户做出基于充分信息和了解的选择(例如提供解释性说明等),并确保决策过程具有可追溯性。
- 提供强大的人工智能系统,让其能够正常发挥预期用途。
- 实施安全的人工智能系统,确保数据在整个生命周期内的安全性和机密性,同时将人工智能可能加剧的风险(由于访问权限过于宽泛而造成数据传播、商业机密的保护、文档错误分类等)列入考虑。
- 确保人工智能系统生命周期内的数据、流程和决策的可追溯性。
- 指定一名人员对每个人工智能系统的效能、准确性及其对集团绩效的影响负责。
- 为每个人工智能系统提供正确的文件,包括其框架和使用限制。
- 识别出每个人工智能系统存在的相关风险,进行监控,并实施预防和纠正措施。
- 通过优化资源使用减少碳足迹,设计可持续发展的人工智能系统。
- 促进人工智能团队在人员背景、技能、经验方面的多样性,这是防范偏见风险及总体道德风险的最佳保障。
禁止行为:我不得
每位员工不得:
- 部署或购置其用途违反集团道德价值、原则,或受到法规禁止的人工智能系统(旨在操纵及欺骗的人工智能)。
- 在未事先确保或要求供应商就其人工智能系统是否符合现行法规(如知识产权、保密性等)提供保障措施(例如合同条款、认证、合规性评估等)的情况下购置人工智能系统。
- 在对员工有重大影响的决策过程中完全依赖人工智能系统做出判断(例如,工作变动、晋升等)。
- 在未检查的情况下直接复用人工智能系统所提供的结果(如会议纪要、简报等)。
- 部署可能泄露机密或个人信息(例如地理位置数据等)的人工智能系统。