过去在作业上的表现,以确定他们是否会从支架和额外的情境指导中受益,这些指导由 Actively Learn 内容作者精心编写并嵌入到文本中。启用此功能后,学生将获得有针对性的帮助,这些帮助将根据他们整个学年的表现进行调整。教育工作者可以选择是手动调整个别学生的支架,还是启用此自动功能,从而消除了在监控学生进度的同时必须更新课堂设置的心理负担。
摘要 本文对当前人工智能伦理实践进行了伦理分析和建设性批评。它确定了概念实质性和程序性挑战,并概述了解决这些挑战的策略。这些策略包括反击炒作和将人工智能理解为无处不在的基础设施,包括将被忽视的伦理和正义问题(例如结构性背景不公正)纳入人工智能伦理的范围,并使人工智能伦理的程序和论坛在哲学伦理方面更具包容性和更明智。这些措施将人工智能正义的视角融入人工智能伦理,加强了其为人工智能的开发和使用提供全面规范导向和指导的能力,从而真正改善了人类生活和共同生活。
虽然人工智能系统的技术开发和部署能力已经广泛可用,但人工智能伦理却很难将相同级别的能力形式化。缺乏明确的人工智能伦理价值主张,缺乏关于构成伦理解决方案的背景模型和指导,阻碍了组织将人工智能伦理融入其发展的努力。即使道德标准显而易见或定义明确,将这些高级价值观转化为可操作的评估标准也并非易事。这一过程的彻底性取决于所涉及个人的内部实践和个人能力。此外,此类人工智能伦理实践各不相同,限制了它们在组织外部的可重复使用性,并可能限制了独立验证的选择。
小组 2:人工智能在人口健康、卫生系统和公共卫生实践中的应用 Natasha Crowcroft,加拿大安大略省公共卫生局 (PHO) 应用免疫研究与评估部主任 Muhammad Mamdani,李嘉诚医疗分析研究与培训中心 (LKS-CHART) 主任 Laura Rosella,DLSPH 助理教授 主持人:Ross Upshur
摘要 — 信息融合研究不考虑是否应该开发国防和安全系统以及开发哪些功能。也不必评估其使用的道德层面。尽管如此,其任务包括系统地研究此类系统的技术选择和局限性,研究其使用和控制方法,为用户提供建议,并最终开发所需的技术。同时,它必须在技术层面评估与该技术相关的开发风险并估计未来的发展趋势。因此,国防和安全的融合研究提供了在任何道德评估中都必须考虑的事实基础。在此背景下,还需要考虑与已经使用的系统相比,创新技术有哪些实质性的创新。作为具体的例子,我们考虑武装无人机和公共场所中的危险材料定位。索引术语 — 数字伦理、信息融合、人工智能、技术自主、决策支持、责任。
摘要 本文评估了日本自现代性开始以来,即明治维新 (1868) 以来的日本主要哲学思想。本文认为,通过研究日本领先的现代性和伦理学哲学家(福泽谕吉、西田几多郎、西周和和辻哲郎),可以为人工智能伦理学提供具有全球价值的教训,他们每个人都与西方哲学传统密切相关。通过转向这些哲学家,我们可以从与人工智能相关的新兴技术的广泛个人主义和西方导向的伦理辩论中取得进展,通过引入社区、整体、真诚和心灵的概念。关于涉及分析、判断、学习和与人类情感互动的人工智能(情感人工智能),本文认为:(a)日本本身可能在内部更好地利用历史悠久的本土伦理思想,特别是当它适用于数据问题和与技术的关系时;但同时(b)在外部,西方和全球关于新兴技术的伦理讨论将从日本获得宝贵的见解。本文最后从日本现代哲学家那里提炼出四条伦理建议或香料,这些建议或香料与日本国家人工智能政策和国际论坛(如标准制定和全球人工智能伦理政策制定)的新兴技术背景有关。
e. 伦理道德方面存在问题,例如旨在激发性欲的材料或描述性行为的材料;f. 很可能基于种族、民族、性别或其他个人特征贬低或冒犯任何人;g. 宣传在澳大利亚属于非法的活动;h. 通过令人反感的材料进行交流、骚扰或恐吓,或可能引起民事或刑事责任的材料。