严重怀疑你是来炫耀的,这卡数加显存不起飞了啊
不知道你这个问题是否已经解决, 如果还没有解决的话: 深度学习算法越来越多地被用于制定影响生命的决策,例如雇用和解雇员工以及刑事司法系统。编码偏差会给决策过程带来陷阱和风险。
COMPAS 再犯算法 ,该算法用于预测囚犯或被控犯罪者如果被释放可能会犯下更多罪行的可能性。该算法用于授予保释,判刑和确定假释。但这个算法在实际使用时,对于白人被告(24%),误报率(标记为“高风险”但未重新犯罪)几乎是黑人被告(错误率45%)的两倍。
种族不是这个算法的明确变量,但种族和性别在很多其他变量中潜伏编码,比如我们居住的地方,我们的社交网络和我们的教育。即使是不注意种族或性别的有意识的努力并不能保证缺乏偏见尽管人们对COMPAS的准确性存有疑虑,但威斯康星州最高法院去年仍坚持使用它。该公司拥有美国80%的警用摄像机市场,因此他们拥有大量的视频数据。此外,新奥尔良警方过去六年一直在使用Palantir的预测性警务软件进行绝密计划,即使是市议会成员也不知道。像这样的应用程序是值得关注的,因为没有透明度。因为这些是私营公司,所以它们不像警察部门那样受制于州/公共记录法。通常,他们在法庭上受到保护,不必透露他们正在做的事情。此外,现有的警方数据存在很多种族偏见,因此这些算法将要从中学习的数据集从一开始就存在偏见。
最后,计算机视觉在实际测试中反复失败,并没有达到应有的效果,无法准确地预测有色人种在未来的犯罪动向,这是一次很失败的机器学习项目投入生产生活实际的例子,由于初始的数据偏见。