尽管多年来法律一直在生效,世界范围内也有无数的运动、行动、示威和请愿以实现性别平等,但即使到了二十一世纪的第三个十年,仍然不可能谈论普遍平等。基于性别、性取向、种族和其他(社会)结构的结构性不平等,以及对边缘化社区和个人的持续排斥,仍然存在。在某些情况下,甚至可以观察到倒退的发展。在此背景下,“赋权:艺术与女性主义”项目旨在提供主题性和全面的见解,了解二十一世纪艺术家如何从各自的处境和自己的具体实践的角度采取行动,了解他们作品背后的解放性理解,以及他们如何拓宽对女性主义未来的视角。该项目的核心论点是,女权主义方法是通过艺术手段分析世界的一种进步方法:批判性地审视社会不平等、性别歧视、种族主义等,并寻求消除它们的(艺术)方法。这里的一个概念是重新定义身体、关怀(关怀或监护的意义)、技术和环境之间的关系,将行星视角作为人类未来共存的乌托邦艺术问题。
我们将继续采取措施,通过认识到居民的不同需求、重视员工和合作伙伴的才能以及提高作为大型服务提供商、雇主和社区领导者的标准来实现这一目标。我们为自己是一个规模足够小、能够关心他人、但又足够大、能够有所作为的理事会而感到自豪。EDI 的商业案例经过了充分的演练——包容、欢迎和对差异持开放态度,鼓励所有人积极参与,并促成理事会愿景和价值观的共享。如果我们的员工在包容的工作环境中感到有动力和受到重视,他们更有可能表现出色,这种方法将有助于我们招募和留住最优秀的人才。如果每个人都觉得自己受到了尊严和尊重,人们就更有可能对理事会有信心,并相信我们会提供优质的服务。良好的平等实践使理事会能够提供人们想要和需要的服务,并充分利用资源。种族和性别犯罪的例子,例如乔治·弗洛伊德和萨拉·埃弗拉德之死,揭示了结构性种族主义、性别歧视和不平等。新冠肺炎疫情还凸显了社区之间的严重不平等,并提出了关于我们如何解决和采取行动实现平等、多样性和包容性的根本问题。
摘要:美学中人工智能的出现[1]正在改变美丽和更新革命性社会正义观点的概念。机器学习工具,由大数据提供支持,确定了美,从而否认了长期以来一直主导着话语的文化和历史解释。与这些论点作斗争,AI对美的量化给出了“公平”的解决方案。但是,AI将复制当前的偏见。例如,AI在面部分析和照片编辑中的应用只会增强种族主义和性别歧视,从而对外观和描绘美丽的规范产生了很多焦虑。它直接使共同的文化差异的前景处于危险之中,因为它削弱了多样性的概念,这令人担忧。此外,AI赋予了公众而不是专家的权力,使普通百姓的口味和偏好占据了,从而限制了人们的创造性和创新过程,而有利于人群的大众文化标准。AI在美学领域中的精神和政治提出了一个敏感的领域,应该谨慎处理,因为它使社会不公正持续。如果消除了这些偏见并为人工智能学习更好的标准时,AI就可以增强美学领域和整个社会。本文批判性地分析了建立AI美容标准的后果,并呼吁采取更谨慎的方式,以实施AI,以提高社会丰富的多样性而不是消除它。
可访问性、公平性、风险和道德:特定学生可能更熟悉生成式 AI 工具。根据 2023 年 5 月的皮尤研究中心的一项研究,家庭收入较高且受过正规教育的美国人更有可能了解 ChatGPT,而听说过 ChatGPT 的白人成年人使用聊天机器人进行娱乐、工作或教育的可能性始终低于亚裔、西班牙裔或黑人同龄人。有些人将这项技术视为弥补不平等的一种方式。目前,许多生成式 AI 工具都是免费的,但这些工具的更强大版本开始收取订阅费。有一些风险和实际预防措施需要牢记并与学生讨论:拥有这些工具的公司会收集信息,因此您和您的学生不应输入机密信息。查看您使用或建议作为课堂材料的任何工具的隐私政策。大型语言模型是根据来自互联网的信息进行训练的,因此它们的输出包含存在于这些数据中的误解、偏见、暴力、种族主义、性别歧视等。大型语言模型对知识产权的使用存在争议;有关侵犯知识产权的诉讼正在审理中。生成式人工智能会编造(产生)不存在但听起来合理的信息。生成式人工智能也会受到人类书写提示的偏见的影响。生成式人工智能工具不是搜索引擎;输出需要检查。并非所有生成式人工智能工具都符合《美国残疾人法案》定义的无障碍要求。人工智能公司因不公平的劳工行为而受到批评。
• Proctorio(自动在线监考软件)使用生物特征数据通过学生的网络摄像头监控面部动作并根据“正常”行为进行分析,从而“检测”考试中的抄袭行为(Proctorio nd),• Turnitin(抄袭检测软件)使用大量互联网、学术和学生论文内容数据库来检查学生作品与其他来源的相似性,识别与学术诚信和抄袭相关的问题(West-Smith 2022),• Perusall(社交阅读工具)使用学生的阅读模式和评论来评估学生的进度,创建“学生困惑”和“学生活动报告”,并自动对学生的理解和进步进行评分(Perusall 2023),• 许多其他工具,如聊天机器人、预测性咨询警报和学习管理软件(Dekker et al. 2020; Bannan 2019; Brightspace Community nd)都依赖于类似的方法。虽然并非所有学习或数据分析软件都包含人工智能,但作为未来的发展,人工智能始终是可能的——任何大量的用户数据对于人工智能技术来说都是有利可图的。这些工具提供了 Zuboff (2020: 9) 所描述的监视资本主义的典型例子,即使用“人类经验作为转化为行为数据的免费原材料”,为机器学习算法提供信息,以创建既能预测又能塑造用户行为的产品。监视资本主义牺牲了自由意志和隐私以牟取利润,同时也加剧了社会不平等和歧视。许多学者已经证明,种族主义、性别歧视和其他偏见是机器学习架构的固有内容,当它们在整个社会中使用和采用时,会对用户造成极大伤害(Andrejevic 2013;Christian 2020;Benjamin 2019;Noble 2018;O'Neil 2017)。这些算法的专有性质加剧了这种情况,这意味着用户通常无法理解用于伤害他们的工具,更不用说有效地反驳分析了。
在2005年,亚当(Adam)和希瓦恩·拉(Shivaun Ra Q)创立了一家小型企业:fuctem,一个类似于Google购物的比较购物网站。基础表现出了希望。在某一时刻,它被称为英国最好的比较购物场所。,但在2006年6月26日,Google更改了搜索算法,将fundem.com从前三个搜索结果降至70年代。根据所有迹象,Foundem在Google排名中的下降并不是由于质量下降。fistem.com仍然在雅虎和微软的搜索排名中排名第一。但是在搜索引擎优化行业中,据说,如果您想埋葬身体,则将其放在Google的第二页上。和undem也不例外。它不会从Google失去的损失中恢复过来(Manthorpe,2018年)。从某种程度上说,fuctem的故事并不容易:undem声称他们是算法偏见的受害者,并且有充分的文献记录,偏见更普遍地感染了搜索引擎和算法。例如,2017年欧盟发现Google的搜索引擎对自己有利;与竞争对手的比较购物服务相比,Google购物的搜索排名不高,包括Foundem(欧洲委员会,2017年)。(结果为24.2亿欧元)搜索内容也以其他方式偏见。Introna and Nissenbaum(2000)认为,搜索引擎的技术档案不包括强大和较不富有的富裕的声音。Noble(2019)通过返回“黑人女孩”等查询的高度性化结果来探索搜索引擎如何使性别歧视和种族主义永存。除了搜索引擎之外,我们发现了预测性警务软件的偏见,该软件过多地估计了有色人种的犯罪(Lum and Isaac,2016年);雇用对女性候选人资格批准的算法(Barocas and Selbst,2016年);等等。以另一种方式,Foundem的故事非常了不起:在Google的搜索排名中,其创始人启动了“搜索中立性”运动。算法的神经性几乎没有引起关注,尽管大量工作专门用于算法
国王学院医院NHS基金会信托基金是英国最大,最繁忙的教学信托基金之一,营业额为10亿英镑,每年150万人联系,约有15,000名员工,位于伦敦东南部的5个主要地点。该信托基金在其不同地点提供了全方位的当地医院服务,以及位于坎伯韦尔丹麦山的King's College Hospital(KCH)的专业服务以及Bromley公主皇家大学医院(PRUH)地点。国王致力于通过我们的绿色计划为所有人提供可持续的医疗保健。与国家绿色NHS的野心一致,我们将NHS碳足迹的净零碳目标设置为2040,并为NHS Carbon Footprint Plus设定了2045年。我们在国王的价值观是我们是一支善良,尊重的团队;种类。我们表现出同情心和理解,并给我们的工作带来积极的态度。我们促进平等,具有包容性和诚实,在需要时大声疾呼。我们互相支持,公开交流,并令人放心地专业的范围内的策略强大的根源,是我们成为大胆,出色的人,杰出的护理,研究,创新和教育领域的领导者,多样性,平等和包容(EDI)的愿景,这是我们所做的一切的核心。通过以人为本,以数字为基础并专注于可持续性,我们可以将国王的国王带到另一个级别的国王,致力于拥抱我们员工,患者和社区的广泛多样性,并坚定地反对各种形式的偏见和歧视。作为我们对EDI的承诺的一部分,我们有五个员工网络组代表员工:这包括但不限于种族主义,能力主义,同性恋,两性恐惧症,跨性别恐惧症,性别歧视,年龄歧视,宗教歧视以及任何其他损害我们员工的权利,福祉和身份的偏见行为。
在AI的批判性奖学金中爆炸,以及行业,流行媒体和艺术家中批评的开花。这项工作的第一轮主要集中在图像和文本的处理上,但对AI和声音之间的关系越来越兴趣,尤其是与语音,音乐和环境声音有关的情况。我们的研讨会将深入考虑此交叉点。我们将阅读并讨论有关媒体研究和相关领域AI的一些新的批判性奖学金,然后将注意力转移到机器聆听的政治上,这是处理声音的AI系统。我们将专注于实际存在的Sonic AI系统,而不是预后。我们将使用声音研究,媒体研究,科学和技术研究的工具以及来自人文和解释性社会科学的相关领域来揭开技术的神秘感;并对技术实践进行清晰,精确和政治化的分析。AI与其他类型的计算文化实践有何不同?它有何不同?AI与自动化有何关系?它是否提出了真正的新政治或道德问题,还是仅仅是由资本主义,种族主义,性别歧视,能力主义,殖民主义和其他权力斧头所塑造的已经存在的对抗的延伸?在此过程中,我们将批判性地考虑公司和研究人员与艺术家,活动家以及其他寻求为人建立技术而不是盈利的技术的工作。派对!)。会议结束后,我们将在汇报上上课。本课程与2024年4月4日至6日在麦吉尔大学举行的国际研讨会“机器听力:批判观点”有关。学生将参加会议,采访参与者在https://machinelistening.spact上进行出版,并优先访问所有活动(免费餐!阅读负载约为每周大约三篇论文(或同等文章),并且将进行讨论,并进行一些讲课。学生将更好地了解如何研究新兴技术,媒体研究和科学技术研究的当前工作,以及提高面试,研究,写作,会议和修订方面的技能。
2024 年 9 月 26 日 罗伯特·M·卡利夫 局长 美国卫生与公众服务部食品药品管理局局长 收件人:FDA-2021-D-0789 5630 Fishers Lane, Rm 1061 Rockville, MD 20852 通过 https://www.regulations.gov 以电子方式提交 事由:多元化行动计划以提高临床研究中代表性不足的人群的参与者的招募率;行业指导草案;可用性 (FDA-2021-D-0789) 尊敬的卡利夫局长: 美国老年医学会 (AGS) 很高兴有机会向食品药品管理局 (FDA) 提交关于指导文件草案“多元化行动计划以提高临床研究中代表性不足的人群的参与者的招募率:行业指导”的意见。 AGS 是一家全国性的非营利组织,致力于改善所有老年人的健康、独立性和生活质量。我们的 6000 多名成员包括老年病学家、老年护理从业人员、社会工作者、家庭医生、医师助理、药剂师、内科医生和其他为老年人提供晚期疾病护理的先驱,他们专注于支持跨专业团队、引导个人护理目标并将老年人视为完整的人。我们通过实施和倡导临床护理、研究、专业和公共教育以及公共政策方面的计划,为医疗保健专业人员、政策制定者和公众提供领导力。AGS 相信一个公正的社会——一个我们所有人都得到社区支持并能够为社区做出贡献的社会,一个年龄歧视、残疾歧视、阶级歧视、恐同症、种族主义、性别歧视、仇外心理和其他形式的偏见和歧视不再影响老年人及其护理人员的医疗保健机会、质量和结果的社会。我们认为歧视性政策——尤其是当它们在整个健康和生命周期中延续时——会对我们所有人随着年龄增长而产生的公共健康产生负面影响。问责制:解决多样性行动计划 (DAP) 中的一个重要缺口 确保赞助商负责招募能够反映目标患者群体多样性的参与者,而不会无意中减慢研究进度,这一点至关重要。AGS 同意 DAP 的要求,即促进多样化招募需要先于招募。然而,DAP 并未解决未能达到招募目标的后果。我们认为,通过在赞助商试验的年度审查中进行招募分析以及未能达到最终招募目标的潜在后果,可以最好地确保问责制。AGS 鼓励
算法和人工智能现在几乎在生活的每个方面都为我们做出决定,从我们购买的东西到饮食,如何获得新闻,我们约会甚至工作。我们曾经给出了曾经由医生,飞行员和法官做出的生命或死亡选择的算法。Kartik Hosanagar的一本新书研究了算法决策的世界,揭示了这项技术可能引起的偏见。他认为,了解这些系统对于塑造它们对我们的影响至关重要。Hosanagar作为技术企业家和教授的经历告诉了他探索算法如何工作,为什么有时会发生故障,促使我们对他们的信任以及他们的决定的后果。他的书在算法的思想及其创作者之间取得了相似之处,使其成为浏览这一新的人工智能浪潮的可访问指南。沃顿商教授和科技企业家探索算法和人工智能如何影响我们的日常生活,从产品购买到求职。这些自动化系统为我们做出决策,通常反映其设计中的偏见和缺陷。作者研究了算法决策的后果,包括性别歧视和种族主义聊天机器人的兴起,涉及自动驾驶汽车的致命事故以及Netflix和Amazon等服务的令人沮丧的经历。这本书提供了一个实用的指南来理解这些现象,并提供了有关算法的工作方式,为什么有时故障以及驱动我们对它们的信任的原因。Hosanagar深入研究算法的世界,突出了它们不可思议的反映人类思维模式的能力。通过研究历史,科学和心理学观点,作者的目标是使读者对算法思维及其对社会的影响有更深入的了解。最终,目标是赋予个人能够了解算法对生活的影响的知识,使他们能够做出明智的决定并随着这些技术的不断发展而保持控制。作为算法设计专家,他将自己的专业经验中的见解与历史背景,计算机科学和心理学观点结合在一起,以深入研究它们的功能,为什么有时会出现问题以及驱使我们对它们的依赖的原因。他审查了Microsoft的Tay Chatbot之类的著名实例,该实例旨在模仿一个十几岁的女孩的社交媒体角色,而是回归为性别歧视和种族主义;涉及自动驾驶汽车的悲惨事故;即使是每天使用Netflix和Amazon等服务时,我们也会遇到挫败感。在这里,Hosanagar对当今最关键的发展之一 - 实际人工智能进行了引人入胜且令人发人深省的探索。本指南为用户提供了动手底漆,可导航第一波机器学习。