抽象的人未接种covid-19(C19)对大流行造成了偏见和责任。由于人们高估了C19的风险,我们检查了这些负面判断是否可以被部分理解为替罪羊的一种形式(即,不公平地指责一个不公平的群体),以及政治意识形态(以前证明是在美国塑造风险感知)是否会调节未诉讼的替代性。我们在C19期间对替罪羊文献和风险感知进行了基础。我们通过2022年初在美国进行的两项基于小插图的研究获得了对我们的猜测的支持。我们改变了Vignette字符的风险概况(年龄,先前感染,合并症)和疫苗接种状态(例如,未接种疫苗,未经近期助推器,未接种,未接种,未接种疫苗接种的疫苗),同时使所有其他信息保持恒定。We observed that people hold the unvaccinated (vs vaccinated) more responsible for negative pandemic outcomes and that political ideology moderated these effects: liberals (vs conservatives) were more likely to scapegoat the unvaccinated (vs vaccinated), even when presented with information challenging the culpability of the unvaccinated known at the time of data collection (eg, natural immunity, availability of vaccines, time自上次疫苗接种以来)。这些发现支持了C19大流行期间出现的特定基于群体的偏见的替罪羊解释。我们鼓励医学伦理学家检查C19大量高估公众的负面后果。公众需要有关健康问题的准确信息。可能涉及打击错误信息,以高估并低估了疾病的风险,以与错误相似的警惕。
研究生院摘要: - 本文探讨了网络系统中信息安全的复杂挂毯,审查了典型的“ CIA Triad” - 通过当代挑战和解决方案的镜头。我们踏上了各种技术景观的全面旅程,穿越了新兴的物联网(IoT),区块链技术的神秘领域以及软件定义网络(SDNS)的动态前沿。当我们浏览这些不同的地形时,CIA Triad作为信息安全的基石的至关重要性变得越来越明显。然而,我们承认安全格局的固有流动性,需要对传统中央情报局框架进行重新评估和潜在扩展。本综述强调了安全问题的跨学科性质,拆除了技术能力,政策制定和道德考虑之间的人造筒仓。我们主张采用协作和多方面的方法,工程师,政策制定者和伦理学家加入编织强大的安全挂毯。通过拥抱这种整体观点,我们可以有效地面对恶意演员带来的多方面挑战,并在数字领域内不断发展威胁。该论文最终以一系列前瞻性研究的努力提出。我们呼吁将新兴技术(例如人工智能和量子计算)无缝整合到安全范式中。最后,我们强调需要进行连续适应和实时威胁智能,我们支持一种整体安全方法,它超越了技术解决方案并涵盖了更广泛的社会和道德方面。我们主张跨学科合作,弥合了学术界与行业之间的差距,将理论进步转化为实用解决方案。
摘要 将人工智能 (AI) 整合到医疗保健中,特别是用于管理自闭症谱系障碍 (ASD),具有提高诊断准确性、个性化治疗和改善患者预后的变革潜力。本综述探讨了各种 AI 程序在 ASD 管理中的应用,讨论了它们的功能、道德考虑、实施挑战以及对全面监管框架的需求。研究了关键的 AI 应用,例如 AI 驱动的诊断成像、预测分析、辅助治疗机器人、远程监控、治疗个性化、决策支持系统和治疗聊天机器人。分析了每种技术通过提供更个性化、更高效和更有效的护理和支持来改善 ASD 患者生活质量的能力。伦理问题,特别是有关数据偏见和隐私的问题,被强调为需要解决的重大挑战,以最大限度地发挥 AI 的优势同时最大限度地降低风险。还讨论了实际障碍,例如与现有医疗保健系统的集成、跨不同地理和社会经济背景可扩展解决方案的需求以及与 AI 开发相关的高成本。此外,该评论强调了制定强有力的监管政策的必要性,以确保患者安全、保护数据隐私并在部署人工智能时保持高道德标准。该论文的结论是,虽然人工智能为推进 ASD 管理提供了大量机会,但要实现这些好处,需要技术人员、临床医生、伦理学家和政策制定者的共同努力,开发不仅具有创新性而且合乎道德、公平和普遍有益的人工智能工具。
2019 年,英国卫生和社会保障大臣代表发布了 Topol 报告,为医疗工作者迎接数字化未来做好准备。1 一个由临床医生、研究人员、伦理学家、计算机科学家、工程师和经济学家组成的多学科专家团队审查了现有数据,并预测了未来(即未来 20 年)的两个关键问题:技术发展(包括基因组学、人工智能 (AI)、数字医学和机器人技术)将对国家卫生系统临床工作人员的角色和职能产生什么影响?这些创新(即生物传感器、电子病历、智能手机应用程序、数字基础设施和虚拟现实)如何确保为患者提供更安全、更高效、更有效和更个性化的护理?现在人们普遍认识到,数据科学和信息技术使我们能够了解每个人的独特性,并能够以更及时、更高效和更有针对性的方式提供医疗服务。精神健康是英国国家研究议程中的重中之重 2,并且提供了一个独特的机会,因为它正处于下一波采用数字健康和创新技术的浪潮中。 3 Topol 评论指出,创新可以“重新强调培养基于信任、临床存在、同理心和沟通的宝贵人际纽带”。在评估和实施任何新技术时,患者必须占据核心地位。 4 在我们的领域尤其如此,因为人们可能由于大脑或认知障碍等原因而更加脆弱,而患者与临床医生之间的互动长期以来一直是治疗关系的核心。在这种关系中,“信任”发挥着特殊的作用,正如欧盟委员会白皮书最近强调的那样。 5
本研究是一项试点文献综述,旨在比较神经伦理学家和神经科学家的兴趣。 它旨在确定哲学神经伦理学期刊和神经科学期刊中讨论的神经伦理问题之间是否存在显著差距。 我们从两本专业神经伦理学期刊(《神经伦理学》和《AJOB 神经科学》)中检索了 614 篇文章,从三本专业神经科学期刊(《神经元》、《自然神经科学》和《自然评论神经科学》)中检索了 82 篇以神经伦理为重点的文章。 在将哲学神经伦理学中讨论的神经伦理问题与神经科学家讨论的神经伦理问题进行比较之前,我们根据所讨论的神经伦理问题对这些文章进行了分类。 一个值得注意的结果是它们之间存在相似性,这是一种普遍趋势。神经科学文章涵盖了哲学伦理学家讨论的大多数神经伦理问题,反之亦然。 随后,两类神经伦理学文献之间存在显著差异。例如,哲学-神经伦理学文章更深入地讨论了道德提升的伦理问题以及神经科学发现对我们人格概念的哲学含义等理论问题。相反,神经科学文章往往强调实际问题,例如如何成功地将伦理观点融入科学研究项目和涉及动物的神经科学研究的合理实践中。这些观察将有助于我们确定新兴神经科学“伦理整合”尝试的共同起点,从而有助于更好的治理设计和神经伦理实践。
人工智能(AI)已成为医疗保健中的一种变革性技术,为血压管理和控制提供了创新的解决方案。本文探讨了AI-增强健康工具在革新管理血压方法方面的潜在影响。各种AI模型,包括机器学习算法,深度学习技术,自然语言处理,强化学习和贝叶斯网络,用于分析数据,预测结果并为个人提供个性化建议。这些AI模型有能力从复杂的数据集中提取见解,根据个人需求和偏好来识别模式以及量身定制干预措施。尽管AI在血压管理中具有有希望的潜力,但必须解决一些挑战。数据质量和隐私问题,AI算法的解释性和透明度,决策,监管和道德考虑,偏见和公平性,整合和采用问题以及验证和绩效评估在实施AI-Enhanced卫生工具的实施方面构成了重大障碍。克服这些挑战需要在医疗保健提供者,数据科学家,伦理学家,监管机构和决策者之间进行协作,以确保在医疗保健环境中对AI的安全,有效和道德使用。通过积极应对这些挑战并利用AI的力量,医疗保健提供者可以优化治疗策略,改善患者的结果,并授权个人控制其健康。AI在血压管理中的整合有可能改变医疗保健,增强个性化护理并最终为个人提供更好的健康成果。
CRISPR/Cas9 技术在现代植物科学中已变得流行,它使作物科学家能够操纵 DNA 序列并修改基因功能。使用 CRISPR 进行基因编辑已用于不同的粮食作物,如马铃薯、番茄、玉米、水稻和橙子、香蕉等水果。CRISPR 技术在基因靶向方面非常精确、高效,并且在驯化野生植物系的有益特性方面已显示出积极成果。大多数研究更多地关注使用 CRISPR 在作物中进行基因编辑以及未来前景。然而,很少有研究从整体角度研究 CRISPR,即研究其优势、劣势、机会和威胁。因此,在这篇评论文章中,我们从 SWOT 分析的角度讨论了作物中的 CRISPR/Cas9。该技术对于提高作物的寿命、营养和适口性至关重要。通过 CRISPR,作物被设计成在具有非生物和生物胁迫的环境中茁壮成长和生产。然而,尽管 CRISPR 得到了广泛的应用,但科学界仍对意外的基因组畸变表示担忧,因为这些畸变会引发对人类和环境的生物安全担忧。此外,该技术还缺乏标准监管和授权。由于一些宗教团体和生物伦理学家持反对意见,该技术的采用率较低。尽管 CRISPR 技术可以成为农作物生产的焦点,但仍需要就其开发、使用和监管达成共识。政治、经济、宗教和科学团体之间达成知情共识对于批判性地审视该技术的科学必要性至关重要。
研讨会揭示了目前针对孕妇和哺乳期妇女研究新疗法的障碍,并在所有相关利益攸关方的参与下探讨了可能的解决方案。社区成员强调,应支持妇女选择是否参加试验。伦理学家强调,伦理考量应被视为负责任地开展妊娠研究的推动因素,而不是阻碍因素,应告知如何安全、负责任地开展此类研究。监管机构表示希望推进针对孕妇和哺乳期妇女的研究,并提供加速方案,包括:留住研究期间怀孕的妇女,包括在上市前研究中提供可靠的药代动力学数据,并在第 3 阶段试验开始前完成完整的非临床毒理学研究。对于资助者来说,这是一个关键的关注主题,它以更广泛的工作为基础,例如提交给美国卫生和公众服务部部长的孕妇和哺乳期妇女研究工作组 (PRGLAC 15) 报告,报告了新类别(孕妇、母乳喂养、孕产妇健康和孕产妇发病率和死亡率)的数据并改进了妊娠登记。研究人员正在努力生成妊娠药代动力学和安全性数据,并在一种可能被年轻女性使用的新药获得批准之前(或之后不久)提供这些数据。行业观察员表示,他们的多家公司正在发生重要转变,并强调强烈希望与其他利益相关者一起推进这项工作。
人工智能 (AI) 及其在临床路径中的引入提出了一系列伦理问题,这些问题正在 JME 中进行讨论。1–7 人工智能技术的发展可以生成能够通过剽窃检测器 8 并看起来像是由人类作者 9 撰写的文本,这给医学伦理学带来了新的问题。一组担忧涉及作者身份以及现在是否有可能知道作者或学生确实创作了提交的作品。这似乎是中等和高等教育以及所有学术期刊的普遍担忧。到目前为止,生成式人工智能聊天机器人似乎无法生成完全引用且论证充分的伦理文章,但它们可能可以生成博客或学生论文,这些论文在经过很小的编辑后很难被发现。许多学校和大学已经转向在线评估形式,生成式人工智能可能会对它们的完整性产生怀疑,我们可能会看到恢复手写考试作为一种解决方案。除了这些直接且显而易见的伦理问题之外,生成式人工智能还强调了概念挑战,这些挑战带来了更深层次的伦理问题。JME 致力于发表高质量的文章,进一步对医疗保健领域的问题进行伦理分析。该期刊发表的部分内容报告了实证研究结果。例如,一篇描述定性研究结果然后对一些规范性问题进行分析的文章不能完全由生成式人工智能撰写:它不能进行定性研究。然而,生成式人工智能可以找到公开的资源并产生伦理论证和三段论。这对伦理分析的本质意味着什么?如果伦理分析从根本上来说涉及组装、组织和评估词语,那么也许生成式人工智能可以取代伦理学家。目前,生成式人工智能无法产生细微差别、深度
摘要:自主系统,包括无人驾驶飞行器 (UAV)、反弹药系统、武装机器人、网络攻击和网络防御系统,预计将成为 21 世纪军事和反恐行动的核心。这一趋势要求法律专家、政策制定者和军事伦理学家在现有的国际法和正义战争理论规范框架内理解这些发展。本文强调了一个不同但同样深刻的道德挑战:了解这种趋势如何导致军事职业的道德脱技,可能破坏传统的军事美德规范及其在战争行为中激发道德约束的力量。运用美德伦理的规范框架,我认为军事美德的专业理想,如勇气、正直、荣誉和同情心,有助于区分合法的军事力量使用与不道德、犯罪或雇佣军暴力,同时也保留了确保战后有意义的和平所需的道德共同体概念。然而,在人类身上培养这些美德,需要反复练习和发展道德分析、审议和行动的技能,特别是在道德使用武力方面。与其他职业的历史技能下降一样,自主或半自主机器可能会使培养这些技能所必需的人类实践变得多余,从而导致这些技能及其所促进的美德贬值和/或丧失。本文探讨了自动化战争方法(包括自动化武器和网络系统)可能导致军事职业危险的“道德技能下降”的情况。我指出,即使承诺实施“人机交互”协议,这种技能下降仍然是一个重大风险。最后,我总结了这种结果可能带来的有害后果,并思考了可能的预防策略。