目的:基于Vygotsky的社会文化理论,讨论在心脏探索逮捕中使用严重游戏的教学基础。方法:关于LEV Vygotsky的社会文化理论的理论反射研究,用于使用教育技术,例如认真游戏,通过探索性阅读科学文献,理论和协作作者的作品。反思的综合:获得了两类讨论:社会历史文化理论和Lev Vygotsky在教学过程中的假设;以及在心脏呼吸骤停的背景下使用严重的游戏作为社会学习工具。结论:该研究允许讨论Vygotsky理论家的认知中介,仪器,符号,语言和发展区的概念,以及认真游戏的概念要素,使他们结盟,以了解教学过程是如何通过在多种护理能力中的发展中置于多种护理能力中的教育目标而发生的,以置于多种护理能力中。
在本报告中,我们认为某些AI系统在不久的将来有意识和/或稳健的代理有现实的可能性。这意味着AI福利和道德耐心的前景(具有自身利益和道德意义的AI系统)不再是科幻或遥远的未来的问题。对于不久的将来,这是一个问题,AI公司和其他参与者有责任开始认真对待它。我们还建议AI公司和其他参与者可以采取的三个早期步骤:他们可以(1)承认,AI福利是一个重要且困难的问题(并确保语言模型输出相同),(2)开始评估AI系统以证明意识和强大的机构的证据,以及(3)准备与适当的道德相关级别处理AI系统的政策和程序。要明确的是,我们在本报告中的论点不是AI系统肯定是或将是有意识,坚固的代理或在道德上具有重要意义的。取而代之的是,我们的论点是对这些可能性存在实质性不确定性,因此我们需要提高对AI福利的理解以及对这个问题做出明智决定的能力。否则,我们会有很大的风险,我们将对AI福利的决定不当,错误地损害了道德上和/或错误地关心不做的AI系统的AI系统。
《现实+》的大部分内容都集中在模拟假设上:我们生活在计算机模拟中的论点。我认为我们应该认真对待模拟假设,我们不能排除它。我还认为,模拟假设不是一个怀疑论假设,在这种假设中,我们的大多数信念都是错误的。如果我们处在一个完美的模拟中,我们的大多数信念都是正确的。因此,模拟假设不会导致怀疑论,在模拟中的生活与在非模拟世界中的生活大致一样好。本次研讨会的三位评论员都广泛关注模拟假设的认识论问题,通常会涉及怀疑论问题以及背后的价值观问题。Peter Godfrey-Smith 认为我们不应该认真对待模拟假设。Susan Schneider 和 Eric Schwitzgebel 认为,虽然完美的模拟假设可能不是一个怀疑论假设,但该假设的其他版本可能是。因此,他们认为模拟中的生活可能不如非模拟现实中的生活,并且模拟假设仍可能导致一定程度的怀疑。(另请参阅牛津心灵哲学研究中关于现实 + 的最新研讨会,其中 Terry Horgan、Christopher Peacocke 和 Grace Helton 都讨论了怀疑论的认识论以及形而上学和价值理论问题。)
个体正在努力应对罕见的遗传疾病,例如Angelman,Cornelia de Lange,脆弱的X和RETT综合征,在导航其日常环境时面临着巨大的挑战。除了智力障碍,沟通统计和感官障碍外,这些人还经常患有严重的运动障碍。这种复杂的情况不仅严重损害了他们的生活质量,而且对照料者和家庭造成了增加的负担(Krath等,2021)。为了应对这些挑战,技术干预已成为有前途的解决方案。认真的游戏并利用新技术,具有教育,诊断和康复目的的身临其境和娱乐性的体验。越来越多地采用了基于人工情报的计划,尤其是那些采用强化学习的程序。这种复杂的方法涉及一种人工智能的代理,与参与者的表现不断相互作用,以实时调整任务或活动的复杂性或困难(Krath等,2021; Liu等,2022)。这种个性化的适应性确保了最佳的用户参与度和效果。在本文中,我们主张将严肃的游戏和强化学习的整合到服务和康复目标。这种合并的方法可能提出了一种量身定制的解决方案,以促进患有罕见遗传疾病的个体的适应性反应。我们探索了各种领域,包括具有执行功能的认知技能,沟通能力和管理具有挑战性的行为。我们承认对参与者的生活质量的深刻影响,提供了说明性的例子来强调我们的观点。我们的创新方法将游戏融合与伯爵的认知发展理论相结合,将其分类为促进新的适应技巧的认知框架(Robb等,2019)。
2024年1月18日,医疗保健负担能力委员会Mark Ghaly 1215 O St. Sacramento,CA 95814:敦促对拟议的支出目标和重大变化的严重审查(以避免负面影响)(通过电子邮件提交给Megan Brubaker提交给Megan Brubaker提交)Dear Ghaly:Dear Ghaly博士:医疗保健服务(OHCA)可用于医疗保健的良好保健能力,可以使医疗保健能够获得良好的医疗保健。虽然办公室显然致力于第一个目标,但其对加利福尼亚州首个全州支出目标的最终建议错过了第二个目标的标记 - 将患者护理置于危险之中。加利福尼亚医院协会(CHA)代表我们400多家医院和卫生系统成员代表OHCA董事会和咨询委员会重新考虑OHCA工作人员提议的3%目标,以2025-29的目标重新考虑。我们特别担心该提案:
摘要 欧盟人工智能法案 (AIA) 定义了四个风险类别:不可接受、高、有限和最小。然而,由于这些类别静态地依赖于人工智能的广泛应用领域,风险大小可能被错误估计,并且 AIA 可能无法有效执行。这个问题在监管具有多种用途且通常不可预测的应用的通用人工智能 (GPAI) 时尤其具有挑战性。虽然对妥协文本的最新修订引入了针对特定情况的评估,但仍然不够。为了解决这个问题,我们建议将风险类别应用于特定的人工智能场景,而不是仅仅应用于应用领域,使用将 AIA 与政府间气候变化专门委员会 (IPCC) 和相关文献中提出的风险方法相结合的风险评估模型。该集成模型通过考虑 (a) 风险决定因素、(b) 决定因素的个体驱动因素和 (c) 多种风险类型之间的相互作用来估计人工智能风险大小。我们使用大型语言模型 (LLM) 作为示例来说明该模型。
FinRegLab:研讨会——“人工智能与经济:为负责任和包容的人工智能规划道路”联合活动,邀请著名政策制定者参加,重点关注金融服务领域的负责任人工智能。华盛顿特区,2022 年 4 月 22 日——FinRegLab 将与美国商务部、美国国家标准与技术研究所 (NIST) 和斯坦福以人为本人工智能研究所 (HAI) 合作,于 2022 年 4 月 27 日举办一场研讨会,汇集政府、行业、民间社会和学术界的领导人,探讨人工智能和机器学习在不同经济部门部署带来的潜在机遇和挑战,特别关注金融服务和医疗保健。已确认的发言人包括商务部副部长 Don Graves;参议员 Joni Ernst;代理货币监理署署长 Michael Hsu;万事达卡执行副总裁兼首席数据官 JoAnn Stonier;富国银行执行副总裁兼模型风险主管 Agus Sudjianto、斯坦福大学商学院教授兼 HAI 副主任 Susan Athey 博士、布鲁金斯学会技术创新中心主任 Nicol Turner Lee 博士以及哈佛大学计算与社会研究中心博士后研究员 Manish Raghavan 博士。演讲者和小组成员将讨论研究、政策建议和新兴行业实践。FinRegLab 首席执行官兼主任 Melissa Koide 表示:“人工智能与新型数据相结合,为改善金融包容性和平等性提供了巨大的潜力。然而,也存在加剧偏见和排斥的巨大风险。认真、有针对性地研究消费者受到的影响对于制定正确的规则至关重要。” FinRegLab 还将于 4 月 28 日举办一场虚拟会议,详细介绍该组织和斯坦福大学商学院 Laura Blattner 教授和 Jann Spiess 教授就机器学习在信用承保中的应用开展的研究,特别关注机器学习模型对可解释性和公平性的潜在影响。这项研究对当前可用工具的性能和功能进行了实证评估,这些工具旨在帮助贷方开发、监控和管理机器学习承保模型。媒体成员如有兴趣亲临或以虚拟方式参加研讨会或寻求评论,请联系 Alex Bloomfield,邮箱地址为 alex.bloomfield@finreglab.org。有关研讨会的更多信息,包括所有演讲者和小组讨论,请访问此处的活动页面。
为了帮助纠正这种忽视,并为近似方法与数学建模有关的方式奠定了基础,我们在本文中推进了两个描述性论文。首先,关于“作为中介者”口号的倡导者对模型的平行主张(Morgan and Morrison,1999),我们认为,近似值需要被公认为是一种独特的科学输出物种,其结构并非自动从Kinematic和动态结构中自动流动,而这些结构是由理论或模型所谓的,我们称之为独特的概述,我们称之为唯一的概述。其次,我们声称,至少在现代物理学中的某些情况下,近似在将经验和物理内容分配给模型中起着不可或缺的作用,从某种意义上说,对于某些现有的哲学方法而言,这是一个很难说明的科学模型,以考虑到内容确定内容。