牧师:克里斯·布格诺神父,SDS 副牧师:加布里埃尔·卡米恩斯基神父,SDS 执事:唐纳德·波兰德 圣餐仪式:周六守夜:……下午 5:00 周日:……上午 7:30、9:30 和 11:30 工作日(周一至周五):上午 7:00。 : 每周一至周五:早上 7:45-8:15 周六:下午 3:45-4:45 第一个周五:下午 3:30-4:30 及预约 信仰培养 (宗教教育、成人、RCIA、圣礼准备) Greg Clouser 321-349-5445 校长 Mary McCrory 女士 267-1643 音乐总监 Ina Smith,904-608-1655 办公室经理,Nicole McCaffrey 321-268-3441 簿记员,Marge Wolf 公告编辑,Kathleen Weldon 设施/维护总监 Matt Horner 321-268-3441 教区地址:203 Ojibway Street Titusville, FL 32780 教区办公室:321-268-3441 教区传真:321-268-3270 访问我们的网站 — http://www.saintteresatitusville.org
被认为可能会迅速发生(Aziz 和 Dowling,2019 年;Shaheen,2021 年)。算法可以诊断我们的疾病、预测我们的康复情况、预测最佳治疗方法、确定我们是否能获得贷款、为我们投资以及确定商品和服务的成本。我们能信任那些驾驶我们的汽车并为我们做出医疗和财务决策的算法吗?具体而言,信任仍然是医疗保健、金融和其他领域大规模采用 AI 的关键要素。这种信任需要能够识别算法如何设计特征来创建预测、诊断或预报,以及算法能够推广到新设置的能力,与用于创建算法的训练、测试和验证数据集无关。在经典统计模型中,简约性、研究设计和建模选择是获得模型的可解释性、可推广性和信任的基础。现代人工智能工程师对研究设计拥有同样的控制权,但经常尝试自动化许多建模选择。然而,在具有数百万个参数(权重)的模型中,实现简约性往往是不现实的。因此,可解释人工智能的目标可以理解为在复杂模型中创建简约性变体的能力,目的是通过检测实际影响评估现象的因素来产生对算法的信任。应强调后一点,即可解释人工智能,理想情况下,它识别对结果影响最大的特征或特征组合,以便:激发未来研究,构建次级简约模型,并通过将特征重要性与已知或假设的机制相匹配来建立对算法的信任。由于缺乏信任,人工智能系统在医疗保健和金融领域的实际部署受到了阻碍。可解释性被视为提高复杂人工智能系统信任度和责任感的关键步骤。在医疗保健领域,患者、护理人员和监管机构需要能够解释和信任人工智能系统,才能将其投入使用。同样,如果没有可解释性,金融系统也不太可能满足该领域的严格规定。在每个领域,都需要可解释性来在复杂模型中创建简约性。可能需要新的专门算法和可视化技术来为这些复杂系统提供窗口。还需要新的指标,提供结果的公平比较、权衡和在生产使用之前测量解释的保真度。需要更加专注、面向应用的工作,因为可解释的人工智能为人工智能的信任和问责制提供了基础。虽然本期特刊的核心主题是可解释性,但其核心是信任算法输出。这个多方面的主题至少包括:严格的验证以及评估可解释性和可推广性的方法。本期特刊中的每篇稿件都涉及一个或多个核心问题。