保险公司和科技公司(例如Hiscox和Google Cloud)之间的战略合作强调了AI增强承保流程的潜力。这些伙伴关系对于整合高级技术和保持竞争力至关重要。诸如阿波罗与人工实验室合作之类的举措表明,技术创新如何简化承保和改善服务交付。这些创新设定了新的行业标准,并推动采用算法的承保,使MGA能够提供更准确的定价和更快的服务。未来前景算法承保的未来是有希望的,并且在AI和数据分析中预计会不断进步。保险公司必须对监管合规性和道德考虑保持警惕,以利用这项技术的全部潜力。该行业可能会看到更复杂的模型,增强的数据集成以及更广泛的算法承保承销。
教育技术越来越多地使用数据和预测模型为学生、教师和管理人员提供支持和分析见解(Baker & Inventado,2014;Luckin & Cukurova,2019)。认知导师等自适应系统根据对学生已掌握内容的预测,为学生提供不同的学习材料,从而帮助学生掌握内容(Pane 等人,2010)。自动评分系统根据对人类评分员给出的分数和评论的预测,对开放式评估提供即时反馈(Yan 等人,2020)。学生支持系统可以识别学习困难的学生,自动为他们提供帮助,或根据对哪些学生可能会退出学习平台、在即将到来的评估中获得低分或感到困惑、无聊和沮丧的预测,将他们标记给教师或管理员 (Hutt、Grafsgaard 等人,2019 年;Prenkaj 等人,2020 年)。一些教育技术使用数据驱动的预测来直接改变学习体验,例如跳过学生预计已经掌握的模块。这可以在有或没有明确通知学生的情况下发生,从而使系统的“智能”变得公开或隐藏。其他教育技术向学生、教师或管理员展示模型预测,以支持他们的解释和决策过程。此类预测的呈现格式因学习环境、目标受众和期望的反应而有很大差异;它可以采用专用仪表板的形式,让教师跟踪学生或让学生监控自己的进度,也可以采用嵌入学习活动中的指标来即时反馈,或者采用数字学习环境中的细微变化来影响学生的注意力和行为。随着使用教育大数据开发的预测模型的算法系统的日益普及,人工智能在 K-12、高等教育和继续教育中的影响力正在不断扩大。
在本文中,我们通过通过社会福利功能来扩大现有的公平定义来提出一个基于公用事业的算法正义框架。在哲学背景下经常与彼此一起讨论正义与公平,尽管相关,但它们是不同的概念。在计算机科学中,一些公平的概念依赖于前安的解释:在高水平上,如果类似的人在期望方面经历了相似的结果,则算法是公平的。但是,由于这些公平性的定义不会对算法的事前行为施加限制,因此从公平算法中实现的结果可能与该算法的输入不符。我们认为,将约束放在算法的事前行为上是设计算法的必要步骤。我们通过介绍了几个算法的例子,这些算法在算法上是算法公平的,但表现出不公正的行为(对于某些正义概念)。然后,我们提出了一个正式的数学定义,以实现福利的公平性,植根于公认的正义哲学观念。我们的定义利用了社会福利功能,来自福利经济学的工具,这些工具为不同的结果如何影响社会提供了相对衡量。在介绍了此定义后,我们研究了公平与正义观念之间的关系,包括不可能的结果以及创建既公正又公正的算法的框架。
至少从理论上讲,北欧国家似乎比大多数人都更好地实现这种未来,在这种未来中,技术发展是由劳动和资本以互惠益处为基础的。北欧国家中更长期的劳动组织历史9使传统工作场所的行动解决新兴技术的影响,可能在较短的期限中更可行,并且能够充当更广泛的欧洲经济的示威者。正是由于这个原因,这项欧洲政策研究综合并扩展了一系列,探讨了AM和数字技术对北欧地区传统工人的影响。定性案例研究在芬兰,瑞典和挪威进行,以及在工作场所中AM的理论概述。其他地方,进行了大规模工作调查,并通过更广泛的概述来加强这一工作的发现。11这项政策研究特别借鉴了这项工作的定性部分,吸引了工会相关的工人和工会主义者。表1提供了研究的概述。