教育技术越来越多地使用数据和预测模型为学生、教师和管理人员提供支持和分析见解(Baker & Inventado,2014;Luckin & Cukurova,2019)。认知导师等自适应系统根据对学生已掌握内容的预测,为学生提供不同的学习材料,从而帮助学生掌握内容(Pane 等人,2010)。自动评分系统根据对人类评分员给出的分数和评论的预测,对开放式评估提供即时反馈(Yan 等人,2020)。学生支持系统可以识别学习困难的学生,自动为他们提供帮助,或根据对哪些学生可能会退出学习平台、在即将到来的评估中获得低分或感到困惑、无聊和沮丧的预测,将他们标记给教师或管理员 (Hutt、Grafsgaard 等人,2019 年;Prenkaj 等人,2020 年)。一些教育技术使用数据驱动的预测来直接改变学习体验,例如跳过学生预计已经掌握的模块。这可以在有或没有明确通知学生的情况下发生,从而使系统的“智能”变得公开或隐藏。其他教育技术向学生、教师或管理员展示模型预测,以支持他们的解释和决策过程。此类预测的呈现格式因学习环境、目标受众和期望的反应而有很大差异;它可以采用专用仪表板的形式,让教师跟踪学生或让学生监控自己的进度,也可以采用嵌入学习活动中的指标来即时反馈,或者采用数字学习环境中的细微变化来影响学生的注意力和行为。随着使用教育大数据开发的预测模型的算法系统的日益普及,人工智能在 K-12、高等教育和继续教育中的影响力正在不断扩大。
越来越多的金融服务 (FS) 公司正在采用人工智能 (AI) 驱动的解决方案来提高运营效率、获得战略见解并提高客户参与度。然而,采用率一直很低,部分原因是人们担心其复杂性和自学能力,这使得可审计性在高度监管的行业中成为一项挑战。关于金融服务公司如何实施特定于 AI 驱动解决方案的治理和控制的文献有限。AI 审计不能在真空中进行;风险不仅限于算法本身,而是渗透到整个组织。以不公平风险为例,本文将介绍总体治理策略和控制框架,以应对减轻 AI 带来的风险的实际挑战。凭借监管影响和行业用例,该框架将使领导者能够满怀信心地进行创新。
• 本次讲座超越了计算机视觉的范畴 • 我不是这方面的专家 • 但我认为这真的很重要 • 我仍在研究在这个领域应该关注的事情 • 我不属于任何边缘群体 • 我们只能在一次讲座中触及表面 • 通常问题多于解决方案
相当抽象,无法指导如何设计以及设计什么。最近的研究 [ 4 ] 已开始研究设计模式以指导详细的用户界面设计。除了以用户为中心的设计 (UCD) 流程之外,还提出了设计透明 AI 系统的总体设计方法 [ 5 ]。在本文中,我们回顾了现有的设计方法研究,以指导负责任和合乎道德的 AI 系统和用户界面的设计者。然后,我们提出了一种新方法,即共同设计公平 AI 交互 (CoFAIR),该方法包括一系列共同设计研讨会,然后进行更广泛的评估,以创建合适的用户界面,使其能够探索目标用户群体的公平性。我们通过案例研究展示了该方法的应用。我们讨论了我们的方法的局限性,以及如何将此方法推广到设计合乎道德和负责任的人工智能系统。
公平意味着认识到,根据我们的背景和身份,每个人都面临不同程度的结构性和系统性优势和劣势,这些优势和劣势会影响我们获得资源和机会的机会,以及我们在工作场所内外的归属感。Insignia Financial 致力于通过提供所有员工取得成功和建立有意义的职业生涯所需的工具、资源和环境来创造包容性的体验。
Yap Jia Qing* 和 Ernest Lim** 摘要。需要清楚了解人工智能 (AI) 的使用风险及其应对方法,这需要适当且充分的企业披露。我们提出了一个人工智能公平性报告的法律框架,公司可以并且应该在遵守或解释的基础上遵守该框架。我们分析了人工智能模型不同方面产生的不公平根源以及机器学习系统性能的差异。我们评估了机器学习文献如何通过使用不同的公平性指标来解决不公平问题。然后,我们提出了一个细致入微且可行的人工智能公平性报告框架,包括:(a) 披露所有机器学习模型的使用情况;(b) 披露所使用的公平性指标及其随后的权衡;(c) 披露所使用的去偏见方法;(d) 发布数据集供公众检查或第三方审计。然后,我们将该报告框架应用于两个案例研究。关键词:人工智能、机器学习、公平、歧视、披露、报告、公司、法律和技术、股东、利益相关者、GDPR。
摘要:影响个人的人工智能辅助决策提出了关于人工智能透明度和公平性的关键问题。许多研究强调了人工智能辅助决策中透明度/解释和公平性之间的相互关系。因此,同时考虑它们对用户信任或感知公平性的影响有利于负责任地使用社会技术人工智能系统,但目前很少受到关注。在本文中,我们分别研究了人工智能解释和公平性在特定基于人工智能的决策场景中对人类-人工智能信任和感知公平性的影响。一项模拟人工智能辅助决策在两个健康保险和医疗决策场景中的用户研究提供了重要的见解。由于全球大流行及其限制,用户研究以在线调查的形式进行。从参与者的信任角度来看,公平性仅在公平性水平较低的情况下才会影响用户信任,而公平性水平较低会降低用户信任。然而,增加解释有助于用户增加对人工智能辅助决策的信任。从感知公平的角度来看,我们的研究发现,引入低水平的公平性会降低用户的公平性感知,而引入高水平的公平性会提高用户的公平性感知。解释的加入无疑会增加公平性感知。此外,我们发现应用场景会影响信任和公平性感知。结果表明,在人工智能应用中使用人工智能解释和公平性陈述是复杂的:我们不仅需要考虑引入的解释类型和公平性程度,还需要考虑人工智能辅助决策的使用场景。
与所有欧盟机构、团体和机构一样,ESMA 是一个提供平等机会的雇主。平等机会原则已融入欧盟工作立法,特别是《工作人员条例》第 1d 条,该条禁止基于任何理由的歧视(例如性别、种族、肤色、族裔或社会出身、遗传特征、语言、宗教或信仰、政治或任何其他观点、少数民族成员身份、财产、出生、残疾、年龄或性取向)。这一原则已完全融入 ESMA 的政策、程序和活动,并成为其在人力资源管理所有领域的基础,从招聘到学习和发展、绩效评估、重新分类和职业晋升、薪酬和福利。
Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.