我们考虑了包括人工智能(AI)技术在内的信息技术在医疗保健各个领域的应用问题。基于国外和俄罗斯的经验,我们分析数字化转型如何在实践中贯彻4P医学原则,哪些发展领域是优先事项,以及专业界当前面临哪些问题和挑战。结论是,符合伦理道德的可解释辅助人工智能可以赋予医生权力而不会剥夺他们的自主权,这将使基于人工智能的解决方案在医疗保健领域得到广泛应用。本书面向医疗保健组织者、执业医师、控制论专家、数字医疗保健领域的开发人员以及医学数字化领域的住院医师、研究生和学生。这些材料对于处理用于分析大数据和创建辅助决策系统的人工智能应用的专家也将很有用。
正处于一个转折点。警务实践以及警察对技术的使用受到了更严格的审查。这些实践中最突出和最具争议的一种主要涉及技术,通常被称为“预测性警务”。预测性警务是使用计算机算法来预测犯罪发生的时间和地点——有时甚至可以预测肇事者或受害者的身份。对预测性警务的批评结合了对人工智能和偏见的担忧、对权力结构和民主问责的担忧、对销售该软件的私营科技公司的责任的担忧以及对国家和公民之间基本关系的担忧。在本报告中,我们介绍了一项为期三年的项目的初步结果,该项目旨在调查预测性警务的伦理影响,并为开发人员和使用这些技术的警察部门制定符合伦理道德和实证主义的最佳实践。
培养具备以下特征、知识和技能的毕业生:1. 具有道德和伦理道德 2. 具有社会责任感,充分了解技术对社会和环境的影响和后果 3. 了解和掌握计算机科学的主要原理和理论 4. 能够开发计算机程序的基础知识,并具有分析、操作和管理计算机系统的专业知识 5. 能够理解计算机硬件的组织和操作 6. 能够帮助促进和协作正在快速发展的转让技术 7. 能够满足国家现在和未来对计算机规划应用和开发的计算机科学专家的需求 8. 具有系统、逻辑和批判性思维能力 9. 能够与团队合作并成为领导者或追随者 10. 对分配的任务负责,并在计算机科学领域不断自我发展 11. 能够有效沟通
摘要:本文以孟子的人性观与和谐观为研究对象,探讨二者之间的内在联系及其对当代伦理道德与社会和谐的启示。本文首先对孟子的人性论进行详细分析,指出孟子的“性善论”强调人的本善性。然后,运用跨文化比较的方法,分析孟子与马基雅维利在伦理观念、社会功利主义和人性观上的异同。最后,通过深入探讨两位思想家的核心观点及其对现代哲学话语的影响,更好地理解孟子思想的普遍性和独特性。研究结果表明,孟子所倡导的性善观是实现社会和谐的基础,其和谐思想为解决当代社会问题提供了新的视角,也为现代伦理学和政治哲学提供了重要的理论资源。
在每一项工作中,工作组都以开发符合伦理道德和以人为本的人工智能方法为中心,既关注算法偏见的危险,也关注新技术帮助我们创造更美好未来的潜力。在这里,我们分享了工作组每个小组的初步发现,以阐明 JMU 必须解决的有关生成式人工智能的下一个重要问题——首先从第 3 组“新背景和意义”的背景介绍开始。简介:新背景和意义过去的一年标志着生成式人工智能发展的范式转变,对高等教育、工作、创造力、道德和社会的未来有着深远的影响。我们初步报告的介绍探讨了人工智能的多方面影响,简要介绍了它可能预示的新创新;它可能破坏我们为 JMU 学生准备进入的现有行业和市场的方式;其更广泛的经济和社会影响;以及治理、隐私问题以及人工智能引发的新道德和认识论挑战。
本文有批判性和建设性的部分。第一部分基于伦理考虑,提出了政治要求:到 2050 年,全球应该暂停合成现象学,严格禁止所有直接针对或故意冒着在后生物载体系统上出现人工意识的风险的研究。第二部分为一个开放式过程奠定了第一个概念基础,目的是逐步完善最初的禁令,将其与一套更加细致、合理、基于证据、并有望在伦理上令人信服的约束条件联系起来。由这一过程定义的系统研究计划可能导致对最初禁令的逐步重新表述。这可能会导致在 2050 年之前废除禁令,在 2050 年之后继续实施严格禁令,或者逐步发展、更加实质性和符合伦理道德地看待我们想要在人工智能系统中实现哪种类型的意识体验(如果有的话)。
本文从正电子脑与人脑的类比入手,以聂振钊文学伦理批评的框架为载体,运用“脑文本”概念,推测“机器人三定律”代表着伦理体系的基本指导原则。本文以正电子脑与人脑的类比为重点,结合《完整的机器人》(2018)的分析,认为正电子脑通过汇集、计算编程后的脑文本,体现了人类伦理选择的特质。通过提出复制与真实的伦理问题,进一步凸显了高度拟人化的大脑作为拟像的怪异感,对人类中心主义提出了新的挑战,也引发了对人类主体性的忧虑。然而,由于脑文本中缺乏伦理判断,机器人在三定律的选择面前,可能会陷入矛盾,只能化身为人的欲望。因此,阿西莫夫秉持着对人类特权的坚持,认为正电子脑的本质是对人脑的模拟,以代表人类的伦理道德。
摘要:人工智能(AI)的快速发展对摄影领域产生了深远的影响,改变了摄影图像的创作和处理方式。本研究从多个角度探讨了AI在摄影领域的应用及其面临的挑战。首先,介绍了AI技术在摄影领域的优势,包括图像识别与分析、图像生成与创作、智能图像编辑与后期处理等。然而,AI技术带来的便利也带来了新的问题和挑战,包括AI生成图像的真实性、个人隐私、偏见和公平性等问题。本研究还讨论了AI技术对摄影师作为艺术家的角色以及社会对艺术的价值观可能产生的影响。为实现研究目标,本文采用了综合研究方法,包括文献综述、学术文章和案例研究分析以及对摄影师和行业专业人士的访谈。最后,论文强调了平衡技术进步与伦理道德考量的重要性,并提出了相应的分析和建议,以促进人工智能与摄影的和谐发展,为未来艺术发展营造更加健康、有利的氛围。
在谈论遗传学和基因组学时,经常会讨论伦理问题(或 ELSI,代表伦理、法律和社会问题)。这可能源于几件事。首先,优生学的历史。其次,遗传学本质上是家庭事务 - 不仅遗传条件也表明对其他家庭成员的潜在风险,而且基因检测可能会无意中发现可识别家庭成员的信息或有关家庭结构的信息。这也引发了一个问题,即主要为了家庭利益而进行儿科基因检测是否符合伦理道德。遗传信息可以是诊断性的、预测性的和概率性的,具体取决于进行的检测的时间和类型。这种信息的不确定性和未来可预测性对遗传学来说并不完全是新鲜事,但在儿科中,它引发了有关孩子未来自主决定是否想知道这些信息的问题。遗传信息以及我们改变遗传信息的可能性也引发了关于人类的意义以及我们的基因与我们的身份有何关系的讨论。最后,遗传和基因组检测和治疗通常会模糊临床接受的治疗和研究产品之间的界限。Dolan 等人 (2022) 很好地回顾了美国 ELSI 研究的丰富历史。1
尽管伦理道德在应用于人类行为时有着丰富的哲学定义历史,但将同样的概念和原则应用于人工智能可能会充满问题。将人工智能拟人化为具有“伦理”等特征可能会助长一种危险的、不切实际的期望,即人工智能可以被训练成具有内在的、有保证的伦理行为。作者反而主张加强对人工智能伦理使用的研究,从最初的构思和设计到操作使用和维持。作者提倡五个关键研究领域:(1) 为人工智能开发者、领导者和用户提供道德和核心人工智能概念教育;(2) 开发和使用模型卡或数据集数据表,以提供对训练模型的优势、局限性和潜在偏差的透明度;(3) 采用以人为本的设计,力求在任务环境中理解人类价值结构,并通过直观透明的界面实现有效的人机交互;(4) 有针对性地使用运行时保证,在必要时监控和修改训练模型的输入或输出,以执行安全或限制偏差等道德原则;(5) 开发使用人机联合创造和训练经验的最佳实践,以通过潜在的突发行为实现共享的心理模型和更高的性能。