详细内容或原文请订阅后点击阅览
克里斯·帕拉特 (Chris Pratt) 主演的《COLLEGE 102》和《天使》中的算法正义
在《COLLEGE 102》和 2026 年的电影《Mercy》中,算法承诺公平,但取决于一个决定:在哪里划定界限。无论系统多么先进,总有人会选择这条线。 克里斯·普拉特主演的《天使》中的后《COLLEGE 102》和算法正义首先出现在《斯坦福日报》上。
来源:斯坦福大学日报编者注:本文是一篇评论,包含主观想法、观点和批评。
此评论包含剧透。
每年冬天,斯坦福大学的 COLLEGE 102:“21 世纪的公民权”都会跻身该季度报名人数最多的课程之列。作为必修的大学(公民、自由和全球教育)课程的一部分,该课程要求一年级新生面对在快速变化的世界中作为公民意味着什么。
该课程的主题之一探讨了技术在民主中的作用。学生们阅读《麻省理工学院技术评论》中关于算法公平性和美国多个州法院使用的替代制裁惩教罪犯管理分析 (COMPAS) 软件工具的文章,该工具为被告分配 1 到 10 的风险评分,预测重新逮捕。该算法利用犯罪历史、人口统计数据和调查问卷,充当“机器人法官”,生成法官在设定保释或判刑时参考的分数。
文章邀请读者尝试交互式滑块,该滑块代表将被告分类为“高风险”的阈值。降低此界限会监禁更多不会再犯罪的人(误报),而提高此界限会释放更多会再犯罪的人(误报)。换句话说,系统无法消除错误;它只能决定哪种类型出现的频率更高。没有一个阈值能够满足公平的所有定义。因此,文章表明,即使是完全一致的算法也不可能是无值的;必须有人决定哪些错误更重要。
影片几乎完全通过屏幕来描绘——监控画面、无人机镜头、警察随身摄像头和视频通话——这部电影采用了反映其主题的“屏幕生活”格式。观众永远无法完全逃离数字界面,相反,我们看到概率闪烁和倒计时时钟实时滴答作响,产生真正的紧张感。与 Raven 一样,我们也受到限制,依赖于系统接下来显示的任何数据。
