2021年12月1日, 欧洲信息技术和创新基金会(ITIF)发布了《超越人工智能:欧洲人工智能法案的隐性成本》报告,该报告指出:欧盟拟议的《人工智能法案》(AIA)的目标是规范人工智能系统,该法案设置了一种重视风险且审慎的监管结构,精细划分人工智能风险等级,并制定针对性的监管措施。法案重点对“高风险”AI系统的开发、部署和应用等全生命周期提出了一系列规范,并对用于高风险目的的人工智能系统提供商提出了“全生命周期”式的多重合规要求。法案对“人工智能”进行了广泛定义,涉及欧盟经济和社会两大部分,而非欧盟委员会公开声明的范围。法案对人工智能的定义决定了哪些类型的软件应用必须遵守规定,但由于定义过于广泛,导致其规范的软件数量庞大从而造成巨大的隐性成本,同时也严重损害了欧盟委员会的数字十年的进程。将“人工智能系统”的定义收窄将使该法案更具针对性,同时也能相应地降低欧洲经济的成本。
人工智能的定义边界
《人工智能法案》对人工智能的定义决定了其监管人工智能系统的范围。从广泛意义上理解,人工智能是用于描述计算机科学的一个分支,可以包括范围广泛的软件。
基于人工智能应用广泛性进行分为以下几类:
分类:识别和分配特征或属性,包括图像处理和计算机视觉(例如,在照片上自动标记朋友、自动车牌识别、估计贷款违约概率、在 MRI 扫描中发现肿瘤、扫描笔迹并转成文字);
连续评估/回归:预测一系列实体的价值(例如,房价估计、预测电力需求);
聚类:根据共享特征(例如,识别细分市场、推荐要购买的产品、词关联)对群体进行排序和分类;
技能习得:学习玩游戏(例如 AlphaGo)、自动驾驶、解决任务和问题、文本生成(例如 GPT-3)。
基于人工智能学习方法进行分为以下几类:
监督学习:由人类标记并输入到算法里的数据;
无监督学习:数据聚类/降维,无需额外输入;
强化学习:给系统一个目标,不告诉系统如何实现该目标,但提供关于目标是否实现的反馈("奖励")。
不过,《人工智能法案》的一大特色是以风险等级来分类AI,用来区别监管。遵循“基于风险”的方法,法案将人工智能系统分成四种等级:不可接受的风险、高风险、有限风险和低风险,并针对不同级别风险实施不同程度的规范,对“高风险”等级的人工智能系统施加最严格的监管。
法案中将高风险等级AI 系统分为几类:
可能危及人类生命和健康的关键基础设施领域;
教育和职业培训领域:包括招生录取、考试评定等;
就业领域:包括招聘(简历评估)、升值(工作任务分配与评估)、解雇以及建立合同关系等;
社会保障领域:包括获得信用评分系统等金融服务等;
执法领域:包括测谎仪、情绪状态监测、犯罪风险评估等;
移民与边境管理:包括核实旅行证件的真实性等;
司法领域:帮助司法部门研究、解释事实和法律等。
与之对应的是,高风险等级人工智能系统需要遵守更高的技术和审计要求:
创建和维护系统整个生命周期的风险管理系统;
测试系统以识别风险并确定适当的缓解措施,根据先前的指标进行测试并根据概率阈值进行验证,以此来验证系统是否按照预期目的一致运行;
建立数据治理控制机制,包括要求所有的训练、验证和测试数据集都是完整的、无错误的和有代表性的;
购买并维护质量管理系统;
维护技术文件,包括系统架构、算法设计和模型规范;
系统运行时自动记录事件,以符合公认的标准记录内容;
设计有足够的透明度,允许用户解释系统的输出;
始终保持人为监督,防止或最大限度地减少健康和安全或基本权利的风险,包括覆盖或关闭开关能力;
进行符合性评估,以验证是否符合上述要求。
值得注意的是,除了基于风险分类,《人工智能法案》对“人工智能”的定义是利用一种或多种技术和方法开发的软件,此类软件针对一组特定人群定义的目标可以产生诸如内容、预测、建议、决定影响之类的输出。按照这个描述来看,从输入法的预测到各种App的智能推送、从语音助手到地图导航,几乎所有常见的互联网服务都会被纳入或部分纳入监管范围。比较而言,《人工智能法案》对“人工智能”的定义范围也相较以往更为广泛,且法案包含了广泛的“高风险”应用领域,这导致法案的适用范围进一步扩大,同时使得合规成本和隐性成本大大提升。
沉重的合规压力和隐性成本
数据创新中心(Center for Data Innovation)最近的一份分析报告预测,《人工智能法案》在未来五年将给欧洲经济带来超过300亿欧元的成本,委员会和一些学者认为该分析报告的估计过高,因为分析中对高风险等级人工智能系统的合规成本适用范围过广。虽然部分委员会和学者认为,只有10%的人工智能系统将被视为高风险——实际上这种说法不仅忽视了高风险等级AI 系统定义的模糊性和不确定性,也没有考虑到本报告中强调的人工智能定义的广泛性,这也表明法案给欧洲经济带来了沉重的合规压力和隐性成本。
法案带来的沉重的合规压力和隐性成本主要来自,一方面关于人工智能的定义问题将削弱欧洲人部署创新软件系统的能力。在立法者看来可能是合理的规则和定义并不符合软件开发的技术现实。对人工智能系统实施严格的规则,将阻碍小型和新的组织进入受监管的市场。
此外,《人工智能法案》为开发并采用数字工具带来了严重的负担。如果一个企业想要建立一个评定合格的“高风险”人工智能系统,这意味着没有这类系统的公司需要从头开始构建,由于成本高达400000.7欧元,构建或购买“高风险”工具可能不再是小型组织的选择。合规支出可能会阻止新进入者开发“高风险”人工智能系统,但对已经做出投资决策的现有公司的影响较小。同时导致欧洲大部分地区将继续坚持使用低技术解决方案。
根据分析,被认定为高风险等级的人工智能系统,将为部门带来额外的监管负担。法案也促使企业在其他地方构建和开发人工智能产品,并且只有在他们能够承担法案的成本后才能进入欧洲市场。
同时,《人工智能法案》要求公司在部署基于人工智能的产品之前遵守一套规则,这些规则未经测试,没有证据证明其影响和效用,而且这种事前监管方法尚未进行尝试,这也将扩大法律的财政负担,并减缓欧洲经济的数字化进程。
解决思路
报告在分析具体问题后给出相关建议:政策决策者有两个选择来减少法案对人工智能的广泛定义带来的问题,采取两个方面的措施将降低法律的成本,却不减少相关的监管保护。
1、将定义限制在 "黑箱 "机器学习范式上,这一范式产生人类无法理解或追踪的输出。这种方法需要从现有的定义中删除(b)和(c)条款,并将(a)条款的范围扩大到 "无法解释的机器学习系统"。
2、用一个注重系统能力的定义来取代目前的定义。如果法案是为了保护消费者免受特定AI引发的风险,通过功能来定义技术会更合理。
法案的目标值得称道,但其监管范围过于广泛。法案的定义应该缩小到只适用于能够自我学习的系统——可以随着时间的推移进行调整并根据学习做出类似于人类的决定(如驾驶汽车,或对某人的工作申请做出判断)的系统。