首页 » 照片由BoliviaInteligente在Unsplash上拍摄

照片由BoliviaInteligente在Unsplash上拍摄

Rate this post

近年来,人工智能决策系统已成为移民执法和边境管控的必备工具。尽管这些系统往往会对正在办理移民手续的个人产生明显的、已被 商店 实的有害影响,但情况依然如此。更广泛地说,自动化决策的危害日益显而易见:从编码偏见和歧视的系统(例如荷兰用于

检测福利欺诈的算法案例),到不

准确的软件(给陷入邮政局Horizo​​n丑闻的邮政分局局长带来可怕的后果) 。

早在2020年,移民领域就出现了首个警示信号,当时内政部在面临诉讼的威胁下同意撤回一项歧视特定国籍的签证分流算法。今年,我们“隐私国际”一直在调查内政部使用的人工智能决策系统。我们发现,许多高度不透明且隐秘的算法渗透到移民执法部门,并在可能改变移民人生的决策中发挥作用。而这一切都没有向移民提供任何关于该算法存在或如何使用其个人数据的信息。

 

这些决定如果做出错误,都可能

导致个人遭受灾难性的伤害,在这种情况下,对算法的建议进行有意义的人工审查比以往任何时候都更加重要。但从我们所看到 制作可在多个渠道共享的高质量内容 的披露情况来看,该算法的设计方式会促使内政部官员接受其建议。例如,如果官员拒绝某项建议,则必须提供解释,而如果他们接受该建议则无需解释。同样,被拒绝的建议的修改时间比被接受的建议更长。考虑到惩罚性目标和澳大利亚数据 案件积压,有什么能阻止官员们对建议不假思索地批准呢?因为这比批判性地审查并拒绝一项建议要容易得多,也省事得多。

 

鉴于其在整个移民系统中的应用范围之广,我们迄今为止发现的最令人担忧的工具是“识别和优先处理移民案件”(简称IPIC)。该工具会自动识别移民,并根据内政部的特定移民决定或执法行动提出建议。内政部花了一年时间提交信息自由申请,并最终向信息专员办公室(ICO)投诉,才得以披露有关该人工智能照片由BoliviaInteligente 工具运作的信息。但即使现在,尽管内政部获得了一些信息,他们仍然拒绝向我们提供关于该工具所建议的行动和决定的明确信息。

滚动至顶部