美国政府拟议的新规则或使歧视性算法更容易被使用

时间:2019-10-28 08:25:40   热度:37.1℃   作者:网络

原标题:美国政府拟议的新规则或使歧视性算法更容易被使用

据外媒Vice报道,人工智能专家长期以来一直警告说,可以使用算法决策系统中可能存在歧视。现在,一份泄漏的备忘录揭示了美国住房和城市发展部(HUD)提出的一项新规则,该规则将使银行、保险公司和房东更容易使用歧视性算法,而不会受到诉讼威胁。

新规则针对的是2015年最高法院的一项裁决。该裁决裁定,消费者可以根据1968年《公平住房法》提出“差别性影响索赔”,以打击住房歧视性商业行为。在差别性影响索赔中,如果人们发现商业惯例对某些人群的影响不成比例,那么可以追究该商业责任,即使这是意料之外的后果。因此,索赔人不仅可以挑战歧视性住房做法,而且可以使用过去行为的统计分析来证明歧视正在发生并对某些群体有害。

例如,如果人们发现黑人的住房贷款申请被拒绝,但同一社会经济类别的白人的住房申请被接受,则可以提出“差别性影响索赔”。如果与白人群体处于同一社会经济类别的黑人群体不断被收取更高的利率,更高的租金或更高的保险费,则适用相同的规则。

HUD的新规则将引入巨大漏洞,以防止企业在被指责其算法存在歧视时免于承担责任,从而将所有问题排除在外。正如《 Reveal News》报道的那样,“例如,假设一家银行拒绝非洲裔美国人提交的每笔贷款申请,并批准白人提交的每笔贷款,则只需要证明种族等并未直接用于其构建的计算机模型”。但是有大量证据表明,即使没有特别考虑种族因素,种族偏见还是从根本上融入了这些算法及其数据集的构建方式。

引入该规则的另一个漏洞将使企业证明有关算法是由第三方创建的,或者由“中立的第三方”审查过的,从而可以击败差别性影响索赔。

研究算法歧视的华盛顿大学的博士生Os Keyes表示:“如果新的HUD规则的后果不那么令人恐惧,但它将非常可笑。”他认为:“这给遭受歧视的受害者带来了不可能和矛盾的负担,不仅表明算法的结果在种族上具有歧视性,而且算法并没有在预测‘有效目标'。”“有效目标”意味着企业需要就贷款、利率、保险费或租金做出决定的指标。

在泄漏的备忘录中,一个证明该新规则合理的示例是信用等级,因为信用等级表面上是基于人们的信用,而不是种族、性别、性取向或其他受保护的特征。但是Keyes表示,问题在于“信用评级是种族主义的。由于他们依赖家庭信用(取决于代际财富),收入(有种族偏见)和地理位置(由于美国持续的种族隔离而要收取种族费用),因此对于非洲裔美国人、美洲原住民和其他边缘人群而言将是完全不同的。”

鉴于今年3月HUD曾宣布起诉Facebook,以寻求有意和无意让广告商区分谁看到了他们的房屋广告的算法,因此拟议的规则可能会让人感到意外。

作为房地产大亨,特朗普和他的父亲均因违反《公平住房法》而被HUD起诉,而新规则将使住房市场中的这种歧视进一步制度化。这在机器学习系统中尤其合理,机器学习系统通常是由私人公司创建的“黑匣子”,它们对算法的决策方式几乎不透明甚至不透明。

上一篇: 【得得周报】10.21-10.27|本周...

下一篇: 原创2020年哪些人桃花运最旺?


 本站广告