传统的技术设计方法历来忽视了黑人参与和概念化未来技术的能力。种族和阶级边缘群体的设计贡献往往被忽视,很少被视为设计标准。虽然已经出现了一些框架来鼓励人们关注设计中的性别和社会公正,但很少有研究承认黑人想象在这一过程中的证据。当前的设计规范将未来和推测定义为源于对科幻小说的狭隘看法,其中不包括黑人未来主义的观点。在本文中,我们扩展了设计规范,认为非洲未来主义、非洲未来主义女权主义和黑人女权主义等框架在设计对我们未来技术格局的想象中发挥了重要作用。我们为谁在设计中走向未来的更大讨论做出了贡献,提出了概念化设计的人和考虑设计社会影响的人之间的对话关系。
尽管有着强烈的认同感,古拉/吉奇社区也面临着全国其他农村社区所面临的许多挑战,包括经济脆弱、令人不安的社会趋势以及气候变化的影响。加剧这些困境的现实是,这些社区经常被忽视,因为政策制定者对“美国农村”的认识非常狭隘,这是他们依赖刻板印象和抽象的定量数据的结果,而这些数据无法充分描述美国农村的巨大多样性。通过忽视或低估这种多样性,政策制定者无视古拉人等处于种族隔离和孤立地区交汇处的农村少数民族社区的独特经历。这种缺乏关注使我们对这些社区的看法变得扁平化——导致他们进一步贬值并被排除在更广泛的经济和政治体系之外。
根据国际人权标准,政府不得出台一刀切的强制疫苗接种政策,必须确保没有人在未经同意的情况下被强迫接种疫苗。一刀切强制疫苗接种政策是指一项广泛的法律或监管疫苗要求,只允许少数狭隘的例外情况,例如医疗原因,斐济的新法规就是如此。到目前为止,这些法规的豁免仅在申请后才有效,而且只有未成年雇员、对疫苗成分过敏的人或其他特定医疗原因的人才有资格获得豁免。法规获得批准一周后,进一步的临时豁免扩大到等待接种 Moderna 疫苗的孕妇1、新冠检测呈阳性并必须等待 90 天才能接种疫苗的个人以及居住在目前新冠疫苗接种机会有限的地区的人。
卡内基分类法的基本分类法使用学生入学、学位课程和研究活动数据对学院和大学进行分类。虽然这些都是机构类型的重要指标,但它们未能捕捉到机构独特性的另外两个重要方面:地域性如何影响机构的使命和战略活动,以及机构如何促进学生和社区之间的社会和经济流动性 (SEM)。卡内基分类法必须保持其基本分类法中使用的指标的清晰设计和易读性,同时,该系统还必须避免将一套狭隘的标准强加给机构,因为这可能会无意中削弱其使命或使高等教育系统同质化 (Ruef and Nag 2012)。卡内基分类法致力于认可机构对学生和社区之间的 SEM 的贡献,这为思考地域性和地理位置如何影响机构使命创造了机会。
一方面,联合被定义为不同军种和部队为实现作战目标而进行的合作与整合。4 北约的理论承认了八项联合职能 5 从历史上看,这些联合职能的发展是为了通过结合兵种和跨领域作战来实现战术、战役和战略上的收益。联合概念的实施也是为了避免单一军种的狭隘主义,一些总部以及专业军事教育也变得“联合”,以促进北约各军种文化和能力之间的相互理解。联合是由两次世界大战的经验和传统军种(陆军、海军和空军)在必要情况下必须共同合作的逐渐过程形成的,这是很有启发性的。然而,作战艺术在历史上与联合没有联系;从简单的角度来看,作战艺术的根源可以看作有两个起源点:苏联理论的发展遵循了
导致核战争。3 这导致竞争扩大到武装冲突以下的程度。网络空间催化并加速了这种竞争。中国比美国更快地适应了这一现实,从美国商业产业窃取了数万亿美元的知识产权,并从其国防工业基地窃取了研发资金。4 尽管这已明显对其相对实力构成重大威胁,但美国仍通过保持对网络空间领域的狭隘看法、对网络归因的限制性理解以及屈服于自身战略文化的影响,限制了其自身的威慑潜力。通过优先考虑威慑而非竞争利益,同时采用更广泛的领域视角和更分层的网络归因视角,美国可以提高其采取一致、可信和果断行动的能力,以阻止中国在网络空间的侵略。
通过《法律与当代问题》这样的跨学科出版物来探讨算法决策和人工智能 (AI) 的新兴用途问题似乎很合适。毕竟,这些文章的核心 AI 工具正在全球几乎每个行业和每个角落部署。这本小册子汇集了哲学、伦理学、数据科学、计算机科学和法律领域的领先思想家,他们来自德国、比利时、英国、哥伦比亚和美国。这种国际化和跨学科的方法为探索社会技术系统提供了特殊价值,在这些系统中,AI 影响权利和责任的有意义的决定、分配和分配。正是因为 AI 影响个人和职业机会、正当程序和法治,任何脱离它所塑造的系统而进行的狭隘探索——短视的技术调查可能无法包括更广泛的伦理和社会学审查——都可能是误导和潜在有害的。如此狭隘的探索不仅可能无法优先考虑我们珍视的权利和价值观,还可能削弱我们管理人工智能的能力以及它对我们希望保护的社会和政治体系的影响。因此,理想的情况是像《法律与当代问题》这样的论坛,将律师、伦理学家、技术专家、工程师和其他人聚集在一起,跨学科地考虑这些社会技术系统。在寻求积极的人工智能未来时,需要一个村庄。然而,如此庞大的话题也需要一些限制。正如本书的标题“黑箱算法与法治”所暗示的那样,我们在这里施加了两个限制。首先,我们关注被称为“黑箱人工智能”的特定人工智能子集。在其文章《黑箱社会:控制金钱和信息的秘密算法》中,特约作者 Frank Pasquale 指出,黑箱系统就是那些“被秘密逻辑所殖民”的系统。1 他在本卷中的文章补充道,“‘黑箱人工智能’是指任何自然语言处理、机器学习、文本分析或类似软件,它们使用数据主体无法访问的数据,或部署同样无法访问的算法,或部署过于复杂而无法简化为一系列数据主体可理解的规则和规则应用的算法。”换句话说,
学者们为了解性别平等、其决定因素、其对女性和社会的影响以及促进女性平等的适当行动和政策付出了巨大努力。研究涵盖了许多主题,从女性教育和人力资本(Deressa 等人,2009 年;Dumais,2002 年)及其在社会中的作用(例如 Kamin & Vezovnik,2017 年;Kang 等人,2020 年),到她们在公司高级职位中的任命(例如 Smith & Parrotta,2018 年;Smith 等人,2013 年)和绩效影响(例如 Adams & Ferreira,2009 年;Campbell & Mínguez-Vera,2008 年)。尽管进行了一些尝试,但现有的文献综述对这些问题的看法仍然狭隘,仅限于特定主题,例如女学生在 STEM 领域的存在(Yazilitas 等人,2013 年)、教育性别不平等(Minasyan 等人,2019 年)、性别工资差距(Bishu 和 Alkadry,2017 年)、玻璃天花板效应(Jackson 和 O'Callaghan,2009 年)、领导力(Bark 等人,2014 年)、创业精神(Prashar 等人,2018 年)、女性在董事会中的存在(Kirsch,2018 年;Terjesen 等人,2009 年)、多元化管理(Köllen,2019 年)、广告中的性别刻板印象(Grau 和 Zotos,2016 年)或特定职业(Ahuja,2002 年)。现有文献还强调,性别问题及其经济和社会影响是一个复杂的话题,涉及大量可能的前因和结果(Cuberes & Teignier,2014 年)。事实上,从协同的角度看,性别平等行动与其他可持续发展目标(例如可持续发展目标 8,见 Rai 等人,2019 年)协同实施时最为有效(Asadikia 等人,2020 年)。此外,许多文献(例如商业、经济学、发展研究、社会学和心理学)都为实现性别平等贡献了独特的观点。由于现有研究通常涉及具体而狭隘的方面,因此对于不同的问题、情况和解决方案在加剧或减轻性别不平等或其影响方面可能存在哪些关联尚不明确。
当您想到“人工智能”时,您会想到什么?您会想到机器人?自动驾驶汽车?自动化仓库?自我改进算法?人类的灭绝?无论您对人工智能的看法如何,您可能对它的思考要么过于狭隘,要么过于宽泛。两者都是危险的。您可能认为人工智能仅仅是大型科技公司为销售其产品和服务而发明的下一个流行词。或者您可能认为人工智能将接管世界,取代人类,并主宰地球上的生命。无论您对人工智能的看法如何——也许您同时感到鼓舞和困惑——营销的机器时代已经到来。我们与 Alexa 对话以将商品添加到购物车;我们让 Google 指引我们到我们从未去过的城市的下一家寿司店;只需单击鼠标,外语的神秘符号就会奇迹般地变得清晰可辨。