编辑: 笔墨随风 | 2016-09-14 |
2018 年12 月发布了伦理准则 初稿,随后与利益相关者、欧盟成员国 代表进行会商.根据相关反馈意见,AI 高级专家组于
2019 年3月向欧盟委 员会提交了修订后的 AI 伦理准则. 主要内容 欧盟 AI 高级专家组起草该伦理准 则过程中,参考了欧洲科学与新技术伦 理小组和欧洲基本权利机构的有关工作 成果.为了实现 可信任 AI , 本伦 理准则确立了三项基本原则:(1) AI 应当符合法律规定;
(2) AI 应当满足 伦理原则;
(3) AI 应当具有可靠性. 根据这三项基本原则和前述欧洲社 会价值观,本伦理准则进一步提出了 可信任AI 应当满足的七项关键要求,具体包括: (1) 人的自主和监督;
(2) 可靠性和安全性;
(3) 隐私和数据 治理;
(4) 透明度;
(5) 多样性、非歧 视性和公平性;
(6) 社会和环境福祉;
(7) 可追责性.虽然所有 AI 都应当满 足这些关键要求,但是在实践中需要根 据具体情况确定相应的实施标准,例如,用于阅读推荐的 AI 应用程序可能 引发的风险肯定要比用于医疗诊断的 AI 应用程序引发的风险小得多,由此 这两种 AI 应用程序对上述关键要求的 实施标准也应当有所不同. 欧盟委员会认为,AI 高级专家组 起草的这份伦理准则对制定 AI 发展政 策具有重要的参考价值,鼓励 AI 开发 商、制造商、供应商等利益相关者积极 采用这些关键要求,以便为 可信任 AI 的成功开发应用建立更为有利的社会环境.同时,欧盟委员会希望利益 相关者积极提供意见和建议,以便评估 本AI 伦理准则是否需要进一步调整. 需要指出,欧盟 AI 高级专家组起 草的这份伦理准则并不具有法律上的约 束力,因此对相关机构和人员不会产生 任何新的法律义务.但是也确实需要注 意,欧盟现有的一些法律规定已经体现 了上述七项关键要求中的一项或者几项 内容,例如安全、个人数据保护、隐私、环境保护等等. 具体解释 1. 人的能动与监督 人的能动,是以人为本价值观的具 体体现.这要求人在由人―机构成的 AI 中仍然保持其主体性,AI 应当增强 人的自主性和保障人的基本权利,帮助 个人根据其目标做出更好的、更明智的 选择,进而促进整个社会的繁荣与公 平,而不是减少、限制或者误导人的自 主性. 人的监督,可以确保 AI 不会削弱 人的自主性或者造成其他不利影响.为此,要依据 AI 及其特定应用领域,确 保适度的人为控制措施.人对 AI 的监 督越少,AI 就应当接受更广泛的测试 和更严格的管理.事物之间的关系总是 相互平衡的,因此反之亦然.人的监督 可以通过相应的治理机制来实现,例如 人机回环、人控回环等方法.同时,AI 也必须保障公共管理部门能够依据 法定职权对 AI 行使监管权. 2. 可靠性和安全性 首先, 可信任 AI 要求其所用算 法必须具有可靠性和安全性,完全能够 应对和处理 AI 整个生命周期内其自身 发生的各种错误结果.其次,AI 具有 可靠性和安全性,要求 AI 能够抵御来 自外部的各种攻击和不当干扰,不仅能够 抵御那些公开的网络攻击行为,也同样能 够抵御那些试图操控数据或算法的隐蔽行 为.最后, 可信任 AI 的决定必须是准 确的,或者至少能够正确地反映其准确 率,并且其结果应该是可重复的. 此外,AI 应当确保每一步都具有可 验证的安全性.这就要求, AI 运行过程 中发生的各种意外后果和错误都必须进行 最小化处理,甚至在可能情况下进行可逆 性处理.同时,针对 AI 运行过程中可能 发生的各种潜在风险,应当事先予以充分 披露并建立相应的评估程序. 3. 隐私与数据治理 隐私和数据保护在 AI 整个生命周期 的所有阶段都必须得到保障.根据人们行 为信息的数字化记录, AI 不仅可以推断 出个人的偏好、年龄和性别,还可以推断 出他们的性取向、宗教信仰或政治观点. 为了使人们能够信任 AI 的数据处理,AI 必须确保人们对自己的数据拥有完全的控 制权,并且确保人们不会因为这些数据而 受到伤害或歧视. 除了保护隐私和个人数据,高质量AI 还必须满足一些额外要求.首先,AI 应当采用高质量的数据集.当收集数据 时,AI 可能会反映出社会上的一些偏见,或者纳入一些误差或者错误.对于任 何给定数据集的 AI 来说,这些问题必须 在训练之前予以解决.其次,AI 必须保 证数据的完整性.AI 所用方法和数据集 在每个步骤,例如计划、训练、测试和应 用等等,都必须进行测试和如实记录.最后,高质量 AI 必须严格管控其数据访问. 4. 透明度 首先,AI 应当具有可追溯性.AI 要 如实记录系统所做的决定及其生成决定的 整个过程,包括数据收集描述、数据标记 描述以及所用算法描述.其次,AI 应当 提供其组织化的决策过程、系统设计选择 的理由以及相应的应用理由,不仅要确保 其数据和系统的透明度,还要确保其业务 模型的透明度.再者,结合已有应用案 例,AI 的能力与局限应当以适当方式充 分披露给不同的利益相关者.最后,AI 应当是可识别的,以确保使用者知道他们 与哪一个 AI 正在进行交互,并且知道由 谁对该 AI 负责. 5. 多样性、非歧视性和公平性 AI 所用数据集 (包括用于训练的数 据集和用于实际应用的数据集) 可能会受 到无意识的偏见、不完整性和不良治理模 型的影响.持续的社会偏见可能导致间接 的或直接的歧视.当然,一些伤害也可能 是AI 开发商、制造商、供应商,甚至使 用者,故意利用偏见或者从事不公平竞争 造成的.诸如此类的问题,在AI 开发之 初就应当予以解决. 为此,AI 开发商在开发过程中应当 建立多样化的设计团队,建立保障参与机 制,有助于避免这些问题.同时,开发商 不断咨询在 AI 生命周期内可能直接或间 接受到系统影响的利益相关者,也有助于 解决这些问题.另外,AI 开发商应当全 面考虑不同人群的能力和需求,确保 AI 具有易用性,并尽力确保残疾人也能够便 利、平等地使用 AI. 6. 社会与环境福祉 对于 AI 的影响,不仅要从个人的角 度来考虑,还应当从整个社会的角度来考 虑.人们应当认真考虑 AI 对社会公共治 理活动的影响,特别是那些与民主决策过 程有关的情形,包括意见形成、政治决 策、选举活动等.此外,AI 可以提高人 们的社会技能,但同样也会导致人们社会 技能的退化,因此 AI 对人们社会技能的 影响也应当予以充分考虑. 为了确保 AI 具有可信任性,还必须 考虑AI 对人类和其他生物的环境影响.在理想情况下,所有人类,包括后代在 内,都应当受益于生物多样性和适宜居住 的环境.这也同样适用于目前全球都在关 注的 AI 解决方案的可持续发展问题.因此,人们应当鼓励 AI 的可持续性和生态 保护责任. 7. 可追责性 具有可追责性的 AI,能够有力提升 人们对 AI 的信任.为此,应当建立责任 机制,确保人们能够对 AI 及其结果进行 追责.AI 的内部审核人员和外部审核人 员对AI 开展的评估以及相应的评估报告,是保障人们能够对 AI 进行追责的关 键.因此,AI 应当具有可审核性并确保 人们能够容易地获得相关评估报告. 首先,AI 的潜在负面影响,应当事 先予以识别、评估、记录并进行最小化处 理.对于需求之间不可避免的权衡,应当 以合理的方式进行解决并予以说明.其次,对于影响人们基本权利的那些 AI 应 用程序,包括有关安全的一些重要应用程 序,尤其应当确保其具有外部可审计性. 当然,对于 AI 应用过程中发生的不公平 的不利影响,应当提供可预期的、便利 的、充分的补偿机制. 实施计划 为了确保本伦理准则能够在 AI 开发 应用过程中得到实施,欧盟委员会将在欧 盟内部启动有针对性的试点工作,同时将 努力促进国际社会就 可信任 AI 达成 广泛共识. 1. 在欧盟内部启动试点工作 为了确保本伦理准则的实施,欧盟委 员会将在欧盟内部启动有针对性的试点工 作,目的在于获得利益相关者的反馈.试 点工作主要包括两部分: (1) 针对 AI 利 益相关者以及公共管理部门开展评估和反 馈;