hal是一个多学科的开放访问档案,用于存款和传播科学研究文件,无论它们是否已发表。这些文件可能来自法国或国外的教学和研究机构,也可能来自公共或私人研究中心。
课程描述 随着人工智能 (AI) 造成的颠覆在各个行业达到新的高度,本课程旨在剖析将 AI 工具应用到临床环境中所需的各种考虑因素。近年来,已经创建了许多 AI 工具来诊断父母、评估风险或减轻管理负担。然而,很少有工具被部署到临床环境中。本课程将分为七个为期两周的模块,我们将从与该工具交互的每个利益相关者的角度学习、评估和讨论 AI 的作用——使用该工具的临床医生、批准该工具的卫生系统领导者、评估责任的律师、制定法律和指导以确保安全和负责任地使用该工具的政策制定者等。在课程结束时,您将听取在这些领域工作的人员的意见,并更深入地了解如何克服使用 AI 改善父母福祉的不可避免的挑战。
我们的使命是,到2028年1月,无论性别或性别认同如何,这些门都将在世界上最重要的LGBTQ+博物馆开放。Queer Britain将是英国的LGBTQ+国家博物馆,该博物馆认可我们与国际社会的联系,并将LGBTQ+ POESER的体验焦点。这将帮助我们想象所有可能的未来中最好的未来。这将是一个拯救底层和无数的故事和人工制品的地方,保留它们并对其进行广泛教育。这将是一个老年人和年轻人都可以看到自己反映的地方,并有助于培养代际对话。
长期以来一直对“数据驱动”的世界数据源和强迫,尤其是当嵌入社会技术系统中的“客观”类别可能损害那些属于传统类别之外的人[8、9、20、24、49]。例如,由图像数据提供动力的商业性别面部识别软件在深色皮肤[10]和变性[61]人方面的性能较差。最近,面向消费者的生成AI(Genai)产品(例如Chatgpt,Dall-E和Midjourney)的扩散似乎巩固了数据和AI对我们的日常生活的侵蚀,进一步强调了参与数据的重要性[32]以及我们与数据设计的方式[43]。当前对生成AI的强调与2010年代的类似趋势相似。在她的基础HCI关于Queering的论文中,Ann Light在我们的日常生活中快速采用了数字工具的效果[46]。她转向酷儿理论,以促进排队作为抵制主导话语的潜在设计取向。排队涉及中断或分解类别[11-13];这是一种使现状困扰的创造性颠覆形式。正如其他HCI学者所指出的那样,远离现状不仅需要观察当前状态和(重新)为其设计[41]。取而代之的是,我们必须质疑为什么最新技术将自己置于我们的生活中,谁最有利于其采用并受到伤害的潜力。这样做需要以抵抗当前技术化和集中化影响的方式进行设计[47]。在这个为期一天的研讨会中,我们邀请参与者考虑如何消除迫在眉睫的数据叙事,算法决策,
面对越来越广泛部署和侵入性的人工智能 (AI),酷儿和酷儿群体面临着不确定的未来。这些技术对酷儿群体造成了许多伤害,包括侵犯隐私、审查和降低酷儿内容的排名、通过使酷儿群体和空间变得过于显眼而使其遭受骚扰、给酷儿群体贴上死名和出柜。更广泛地说,他们通过对酷儿身份进行分类和控制,违反了酷儿群体的核心原则。为此,人工智能中的酷儿社区组织了 Queer in AI,这是一个全球性的、分散的、由志愿者运营的草根组织,采用交叉和社区主导的参与式设计来构建一个包容和公平的人工智能未来。在本文中,我们将“人工智能中的酷儿”作为人工智能中社区主导的参与式设计的案例研究。我们研究了多年来参与式设计和交叉原则如何启动和塑造这个社区的项目。我们讨论了在此过程中出现的不同挑战,研究了该组织在实施参与式和交叉原则方面存在哪些不足,然后评估了该组织的影响。“人工智能中的酷儿”通过拒绝等级制度而支持权力下放,成功地为酷儿社区建立援助和项目,以及努力改变酷儿社区以外的参与者和机构,为参与式方法的实践者和理论家提供了重要的经验教训和见解。最后,我们推测 Queer in AI 等社区如何通过培养参与 AI 的文化、欢迎和赋予边缘化参与者权力、批评糟糕或剥削性的参与实践以及将参与带到个人研究项目之外的机构,更广泛地为 AI 的参与式设计做出贡献。Queer in AI 的工作是 AI 中草根行动主义和参与式方法的案例研究,展示了社区主导的参与式方法和交叉实践的潜力,同时也为开发和使用参与式方法的研究人员提供了挑战、案例研究和细致入微的见解。
许多人工智能系统都依赖于标签,即在给定输入后,从一系列标签中选择一种来描述它。面部识别技术也是如此,其输入是一张脸,标签通常基于二进制系统,将数据分为男性/女性、儿童/成人和人类/动物等类别。近年来,计算机科学、人工智能和信息学领域的学者们对面部识别技术在种族和性别方面存在的问题进行了批判性研究,并指出了该技术存在的问题 [1,2,3,4]。先前的研究已经发现了一些关键问题,这些问题引发了人们对该技术的可靠性甚至实用性的担忧。例如,用于训练这些系统的数据通常不具代表性。在大多数情况下,绝大多数是白人和男性,这意味着肤色较深的女性被误分类的比例不成比例,正如对面部识别性别分类系统的综合分析所发现的那样 [1]。此外,训练数据集通常由从社交媒体 [5] 中抓取的图像组成,这意味着(除了隐私问题之外)它们只捕获那些使用社交媒体的人,具体
摘要:本文以酷儿为理论基础,探索设计与人工智能 (AI) 交互并以不同方式想象人工智能的可能性,为设计和人工智能的学术讨论做出了贡献。本文通过报告一项自理论实验来实现这一目标,在该实验中,我提出了以下问题:如果我们将人工智能理解为酷儿,一种处于形成状态的突变体;一种动态的、关系的、非二元的性别变体,会怎样?那么人工智能会如何以不同的方式出现在这个世界上并对我们人类采取行动?该实验使用生成对抗网络 (GAN) 来颠覆当今对人工智能的理解,并让新的人工智能命题生根发芽。这项工作让我们得以一窥设计拒绝的形式,这可能会让设计师在使用人工智能系统进行设计时认识到文化可计算性和自决性。
在国防部庆祝骄傲月之际,我们重申了彼此关爱的承诺,营造一个让全体军人都能发挥最大潜能的环境。我们感谢 LGBTQ+ 员工的贡献,并理解不平等和歧视会破坏多样性的战略优势和我们的核心价值观。随着国防面临的新威胁不断出现,让我们记住,我们作为由不同个体组成的团队,团结一致,共同保卫国家,共同努力,会给我们带来巨大的力量。如需了解有关 LGBTQ+ 骄傲月的更多信息,我鼓励您访问:https ://www .defenseculture.mil/Human-Relations-Toolkit/Special-Observances。
我们非常高兴地推出维也纳美术学院出版物系列的最新一期。该系列与我们高度敬业的合作伙伴 Sternberg Press 合作出版,致力于当代艺术实践和理论思想的核心主题。这些卷包括维也纳美术学院艺术理论、文化研究、艺术史和研究的讨论重点,代表了各自领域的国际研究和讨论的精髓。每卷都以选集的形式出版,由学院的工作人员编辑。我们邀请享有国际声誉的作者就各自的重点领域做出贡献。国际会议、讲座系列、学院特定的研究重点或研究项目等研究活动是各卷的出发点。