时刻

欧盟的人工智能法案 “包含命令销毁人工智能模型的权力”

欧盟的人工智能法案 “包含命令销毁人工智能模型的权力”

根据一位法律专家对该提案的分析,欧盟计划的基于风险的人工智能监管框架包括监督机构有权命令撤回商业人工智能系统,或要求在人工智能模型被认为是高风险时对其进行重新训练。

这表明,欧盟的《人工智能法》(仍未通过)中潜藏着巨大的执法火力–假设该集团的成员国级监督机构的拼凑能够有效地将其用于有害的算法,以迫使产品改变,以维护公平和公共利益。

该法案草案仍然面临着对一些结构性缺陷的批评–而且可能仍然远远达不到欧盟立法者为其声称的培养广泛的 “可信赖的 “和 “以人为本的 “人工智能的目标。但是,至少在纸面上,看起来有一些强有力的监管权力。

欧盟委员会在一年多前提出了人工智能法案的建议–提出了一个框架,禁止一小部分人工智能用例(如中国式的社会信用评分系统),认为对人们的安全或欧盟公民的基本权利过于危险,不允许使用,同时根据感知的风险对其他用途进行监管–“高风险 “用例的子集要接受事前(之前)和事后(之后)的市场监督制度。

在该法草案中,高风险系统被明确定义为。自然人的生物识别和分类;关键基础设施的管理和运作;教育和职业培训;就业、工人管理和获得自营职业;获得和享受基本的私人服务和公共服务及福利;执法;移民、庇护和边境管制管理;司法和民主进程的管理。

在最初的提案中,几乎没有任何东西被直接禁止–大多数人工智能的使用案例不会面临该法案的严重监管,因为它们将被判定为构成 “低风险”,所以在很大程度上留给自我监管–有一个自愿的标准守则和一个认证计划来承认合规的人工智能系统。

还有另一类人工智能,如深层造假和聊天机器人,被判定为处于中间位置,并被赋予一些具体的透明度要求,以限制其被滥用和造成伤害的可能性。

委员会的提案已经引起了相当多的批评–例如来自民间社会团体的批评,他们在去年秋天警告说,该提案远远不能保护基本权利免受人工智能引发的伤害,如规模化歧视和黑箱偏见。

一些欧盟机构也明确呼吁对远程生物识别进行更全面的禁止,而不是委员会选择纳入该法案(该法案仅限于执法部门使用,并充满了警告)。

欧盟机构敦促禁止公共场合的生物识别监控以保障权利

尽管如此,在欧盟共同立法进程的这个相对较晚的阶段,对该提案进行重大修改似乎不太可能。但理事会和议会仍在辩论他们的立场–预计在2023年之前不会达成最终协议–因此有可能对一些细节(如果不是整个立法结构)进行调整。

在纽卡斯尔大学担任法律、创新和社会讲座的著名互联网法律学者Lilian Edwards为总部设在英国的Ada Lovelace研究所对该法案进行了分析,强调了该框架的一些局限性–她说这些局限性来自于它被锁定在现有的欧盟内部市场法中;具体而言,来自于按照现有欧盟产品法规的模式进行的决定。

她表示,这些欧盟特有的限制意味着它不一定是其他地区在考虑如何监管人工智能时可以参考的最佳模板,尽管欧盟通常有野心将其在数字领域的先行者立法活动转化为全球标准制定的角色。(对欧盟权限的其他限制意味着该法案根本无法触及人工智能的军事用途,例如,你会认为其中大部分都是有风险的。)

不足为奇的是,对于任何对机器学习稍有了解的人来说,洗衣机和玩具等实物产品的法规并不能很好地适用于人工智能–鉴于投入市场的制成品与人工智能系统之间的明显差异,后者可能基于一个实体为特定目的创建的模型,并由一个完全不同的实体部署用于一个完全不同的用途(也可能在一路上被输入不同的训练数据)。

尽管如此,《人工智能法》将义务和权利的责任放在人工智能系统的最初 “提供者”(又称 “制造商”)身上。

爱德华兹认为,这对于监督人工智能的开发和部署来说是非常有限的–他和其他人一起建议,该法案中的人工智能 “用户 “类别,只具有 “高度有限 “的监管作用,应该改名为 “部署者”,并赋予其与人工智能系统应用的实际责任相称的职责,无论这可能是多么复杂的问题。

“她写道:”将这个由行为者、数据、模型和服务组成的复杂网络转化为一个法律制度,将义务和权利赋予某些可识别的行为者,是非常困难的。她写道:”该法案未能承担起这样的工作,即确定在整个人工智能生命周期中唯一和共同责任的分配,以最实际和完整地保护最终用户的基本权利,这无疑是困难的。这可以与GDPR判例法的最新发展进行不利的比较,法院正试图在最相关的时间内将数据保护的责任分配给各个控制者”。

她在论文中讨论的另一个主要缺陷是,该法中没有任何追索权,让实际的人类就人工智能系统对他们个人(或一群人)的影响提出投诉–这与欧盟现有的数据保护框架GDPR形成了鲜明的对比,后者既允许个人投诉,也允许通过授权民间社会代表受影响的个人进行集体补救。

“由于《人工智能法》的设计主要来自于产品安全,而不是其他文书,人工智能系统的最终用户作为权利主体,而不仅仅是受影响的对象,其作用被掩盖了,他们的人类尊严被忽视了。这与一个表面上以保障基本权利为职能的文书是不相容的,”这是她在那里的简明评估。

她还批评了委员会所说的应被禁止的 “任意”–很可能是有政治依据的–系统清单,但却没有解释它是如何得出这一小部分被禁物品的。

她说,该法案也不允许修改/增加被禁清单,或在高风险部分增加新的顶级类别,她认为这是另一个令人遗憾的限制。

在限制这些被禁止的和高风险的名单时,委员会可能着眼于为市场创造确定性–因为它试图同时鼓励人工智能 “创新”。然而,多年来,其围绕该法案的言论一直是高谈阔论,为反映欧洲价值观的 “以人为本 “的人工智能制定伦理护栏。因此,它在这方面的平衡看起来令人怀疑。

虽然爱德华兹的论文是以批评为框架的,但她对欧盟法案也有很多赞美之词–将其描述为 “世界上第一次全面尝试监管人工智能,解决诸如数据驱动或算法的社会评分、远程生物识别以及人工智能系统在执法、教育和就业中的使用等问题。”

她还在文件中写道:”《人工智能法》本身就是对人工智能监管采取整体方法的一个很好的起点,”然后她告诫世界其他国家不要照搬 “雄心勃勃但有缺陷的制度,该制度受到[欧盟]新立法框架……和欧盟法律的立法基础的双重限制”(因此 “在本文中,似乎必须指出欧盟决策者和欧盟以外的世界在这个关键监管转折点上应该进行的辩论”)。

不过,她认为,就目前的情况而言–假设没有实质性的修正来解决关键的批评–该立法很可能会产生 “相对最小 “的影响,她告诉我们。

“以一种有趣的方式,欧盟所做的是他们把大部分鸡蛋放在DSA[数字服务法]、DMA[数字市场法]中,”当被问及她认为该法将如何影响时,她建议,指的是欧盟另外两部在编的数字立法,重点是更新电子商务规则和改革欧盟的竞争制度。”因为如果你看看什么是高风险,这又是一个明显的观点,但怎么说都不为过,高风险目前并不包括人们每天生活中遇到的大多数人工智能。

“它不包括搜索,它不包括社交网络,它不包括特征分析–除非你基本上是中国国家!”。它真正关注的是那些基本上已经被市场监管的东西,也就是像信用评分这样的东西,人们检查算法是否看起来公平的历史非常悠久,以及诸如此类的东西……而监管国家,他们又应该永远容易受到审查。至少在英国,会有司法审查等等。但是–在现实中–我们知道国家正在用算法做坏事……所以在许多方面,这才是它真正的目的所在。最近的恐慌故事,判刑系统,犯罪预测,所有这些东西。”

人工智能法案是否能够阻止国家在公共部门部署的算法已经造成的大量伤害,还有待观察。尤其是考虑到了解这些人工智能系统的工作方式以及它们究竟是如何被部署的有多么困难。”即使是竞选者也能很好地理解这项技术,以便根据《人工智能法》对国家进行煽动吗?”爱德华兹想知道。”所以我想知道它的影响是否真的会比人们想象的小得多。”

但是,对于欧盟内部基本权利的捍卫者来说,一个亮点–依附于该法第65条规定的上述权力–是爱德华兹的评估,即它授权公共监督机构采取果断措施,防止高风险人工智能系统的损害,使他们能够命令商业人工智能系统退出市场(她认为这类似于命令销毁一个模型)。这些权力还可以让监督机构下令对人工智能模型进行再培训,按爱德华兹的说法。

在她看来,这种权力在GDPR下并不是必然的,个人用户有权要求删除他们的个人数据–但DPA监管机构如何(或是否)能够行使删除权,就不太清楚了。

在欧盟最近针对有争议的人工智能应用商Clearview的GDPR相关投诉中,该公司被命令删除欧洲公民的数据–但似乎没有一个监管机构能够命令销毁在所有那些被盗自拍上训练的基础模型。(清华大学是一个总部设在美国的实体,似乎没有在欧盟设立机构,能否让它遵守这样的命令,销毁其核心算法是一个单独的问题)。

还有意大利DPA去年对TikTok采取的紧急程序,与围绕病毒性挑战的儿童安全问题有关–这导致该社交网络同意删除数十万个账户,它说它无法确认这些账户不属于未成年者。

试想一下,如果欧盟监管机构有权力命令TikTok撤销其算法,或者–至少–重新训练其人工智能,使其不再构成具体的儿童安全问题……尽管TikTok的人工智能不太可能属于《人工智能法》的高风险范围,但Clearview的人工智能,即出售给执法部门的人工智能,显然会。

“爱德华兹告诉TechCrunch:”[《人工智能法》中的]权力范围非常广泛。它说,市场监督机构–可能是大多数欧盟国家的数据保护机构–在市场监督立法下有很多权力–但它也明确说,他们将能够 “采取一切适当的纠正措施,使人工智能系统符合规定,包括从市场上撤回它,根据它可能规定的风险性质召回它–它的范围非常广泛!”。他们可以看到’采取了所有适当的纠正措施’等等。

“因此,我认为这几乎是明确的–还有其他地方–说你可以要求该系统退出市场,这实际上相当于将其删除。但我也认为那里有足够的范围,要求它进行培训,如果数据被删除,我认为这是非常有趣的。因为我们没有从GDPR中得到这些–至少我认为我们没有。”

“市场监督机构的权力是非常广泛的,”她补充说。”显然,这必须由个别国家当局来解释,但显然这是一项法规,而不是一项指令,所以它不只是由成员国决定。

“我认为这确实给予了更广泛的权力。如果你把它想成是消费品–这也是它的基础–你就有权利把危险的玩具销毁。你不只是说你不能再进口它们了。你实际上有权利让它们被销毁,这就是一种平行的权力。”

爱德华兹认为,目前的GDPR权力可能允许用户要求删除自己的数据,并因此从人工智能模型中删除–甚至可能允许监管机构代表其公民要求删除这些数据–并不一定意味着该模型本身会受到影响。因此,她认为《人工智能法》增强了监管的火力。

“[GDPR]更有可能的是,你将能够要求从他们的数据库中删除你的数据,但这并没有真正改变模型–即使你要求将你的数据从模型中删除,也可能不会改变它的训练方式。所以这些都不是很好的补救措施,”她争辩说。

“你实际上想要的是,要么删除模型,要么你希望它被完全保留–也许有更好的数据。而这正是《人工智能法》[关于高风险人工智能系统]的内容。因此,你可以争辩说,市场监督机构可以说,现在你是一个新模型的提供者,一个新的人工智能系统,属于高风险,你必须满足[法案中的要求,如围绕数据质量],因此你必须重新做这一切 – 用你的新数据。

“因此,这给了你一个机会,在最后产生一个更好的产品–一个更公平的产品–而不仅仅是GDPR下[DPA监管机构拥有]的权力。”

分享此文章