心理保健的真正核心是什么——创新还是人性?虚拟疗法能否复制治愈过程中产生的深厚人性纽带?由于人工智能和沉浸式技术有望扩大使用范围,因此必须采取保障措施,确保技术仍然只是由提供者的智慧指导的补充工具。实施需要在效率和同理心之间取得微妙的平衡。如果意识到道德风险,人工智能或许可以通过自动化任务来恢复人性,让提供者有更多时间倾听。然而,没有任何算法可以复制内心的尊严。我们必须问自己:什么样的未来以人为核心?一个人工智能深思熟虑地发挥协作作用的未来?还是一个追求进步而抛弃脆弱性的未来?这篇评论主张采取一种平衡的方法,深思熟虑地整合技术,同时保留护理不可替代的人性本质,这是这个深刻的人性化职业的核心。最终,通过共同培育创新和人性,也许我们能达到以前无法想象的同理心的新高度。
摘要 自工业革命以来,技术创新的重大进步已经改变了数十年来存在的许多手动任务和流程,以至于人工智能(AI)技术被广泛应用于广告以提高效率和满足市场需求。人工智能(AI)是指计算机越来越有能力完成目前由工作场所和整个社会中的人们所做的特定工作和活动。人工智能对广告流程的影响正成为人们日益关注的问题,表现为系统性的重组。与传统的广告创作相比,人工智能提供了几个显着的好处,正如本研究所示。本研究提供了有关人工智能技术及其对未来商业和社会的影响的重要和相关见解,同时也承认了社会和行业对人工智能发展速度和方向的影响。随着人工智能渗透到广告行业的每个环节,它在行业发展中发挥着积极作用,能够取代低效的体力劳动并提高行业的整体效率。本文指出,市场仍需意识到人工智能的缺点,考虑到一些道德风险和隐私问题。有关部门应对这些问题进行进一步调查。
摘要:本文整合了关于使命导向型创新政策 (MOIP) 的几个不同案例研究的结果,并利用现有文献简要描述了其他三个使命:抗癌战争、美国的房屋所有权和瑞典百万计划。结合《登月计划与新产业政策:质疑使命经济》一书中的分析,本文提出了并描述了有关使命导向型创新政策的七个要点:1)棘手的问题无法通过使命解决,2)政客和政府机构不能免于私利,3)MOIP 容易受到寻租和使命俘获的影响,4)政策制定者缺乏有效设计 MOIP 的信息,5)MOIP 扭曲竞争,6)政府支持计划扭曲激励并导致道德风险,7)MOIP 忽略机会成本。本文使用本文中描述的案例以及上述书中的其他文章说明了这七个要点。关键词:使命导向政策、创新政策、新产业政策、登月计划、寻租、公共选择 JEL 代码:H50、L26、L52、O31、O38、P16
• 洞察 1:人工智能算法的透明度可以意味着三件不同的事情:首先,现代人工智能系统的复杂性——普通用户一无所知;其次,人工智能解决方案设计者的故意混淆——普通用户和政策制定者一无所知;第三,无法解释一个或多个特定输入如何导致一个或多个特定输出——让每个人都一无所知;• 洞察 2:由训练数据导致的人工智能/机器学习算法的偏见和公平性是人工智能/机器学习道德开发和使用的重大障碍。必须分析关于什么是“公平”、什么是“准确”以及如何平衡两者之间的权衡等重要问题;洞察 3:应该将人工智能理解为一个社会技术系统,并根据其诞生的社会来评估,同时不应低估社会在人工智能/机器学习开发和应用中的作用; • 洞察 #4:人工智能的设计和实施方式可以模糊责任和问责的归属,但这并不一定意味着在人工智能的背景下不可能实现责任和问责;• 洞察 #5:风险评估虽然有价值,但并未捕捉到可能无法量化、定性或不可观察的重要道德风险;• 洞察 #6:道德技术评估 (eTA) 是揭示可能因人工智能的开发和使用而出现的新道德问题的可行机制;• 洞察 #7:人工智能在社会中的普及是一项充满风险和假设利益的持续社会实验。
社会对人工智能 (AI) 和 AI 系统的依赖日益增加,这要求中高层管理的软件工程 (SE) 主管采取更实用的方法来提高他们在实施 AI 伦理方面的参与度,将道德要求作为其管理实践的一部分。然而,研究表明,在 SE 管理中实施道德要求的大部分工作主要集中在技术开发上,对中高层管理的研究很少。我们通过采访十位芬兰中高层管理的 SE 主管来调查这一点,以了解他们如何考虑和实施道德要求。我们使用欧盟 (EU) 可信 AI 道德指南中的道德要求作为道德要求的参考,并使用敏捷投资组合管理框架来分析实施情况。我们的研究结果表明,隐私和数据治理的道德要求通常被视为法律要求,而没有确定其他道德要求的考虑因素。研究结果还表明,将道德要求视为技术稳健性和安全性是可行的,可以将实施视为风险要求,将社会和环境福祉视为可持续性要求。我们研究了一种使用采用敏捷投资组合管理框架的道德风险要求堆栈来实施道德要求的实用方法。
社会对人工智能 (AI) 和人工智能系统的依赖日益增加,这要求中高层管理的软件工程 (SE) 主管采取更务实的方法,通过将道德要求作为管理实践的一部分,提高他们在实施人工智能伦理方面的参与度。然而,研究表明,在 SE 管理中实施道德要求的大部分工作主要集中在技术开发上,对中高层管理的研究很少。我们通过采访十名芬兰中高层管理的 SE 主管来调查这一点,以了解他们如何考虑和实施道德要求。我们使用欧盟 (EU) 可信人工智能可信道德指南中的道德要求作为道德要求的参考,并使用敏捷投资组合管理框架来分析实施情况。我们的研究结果表明,隐私和数据治理的道德要求一般被视为法律要求,没有确定其他道德要求的考虑因素。研究结果还表明,将道德要求视为技术稳健性和安全性是可行的,在实施时将其视为风险要求,将社会和环境福祉视为可持续性要求。我们研究了使用采用敏捷投资组合管理框架的道德风险要求堆栈来实施道德要求的实用方法。
生成人工智能(AI)的抽象进步正在改变包括教学设计在内的行业之间的可能性。诸如chatgpt的工具可以快速起草目标,评估和内容。这项混合方法研究对144位教学设计师进行了有关当前采用,任务,福利和有关生成AI集成的关注的研究。分析揭示了普遍的主流用法,并利用了83%的chatgpt。加速效率排名最高,有67%的人实现了中度到明显的时间节省,从而允许更具战略性的工作。以加速内容起草,反馈和构想为中心的其他收益。但是,主要挑战包括验证准确性,解决道德风险,制定有效的提示以及缺乏个性化。有意义的自动化释放了教学设计师的能力,但真正定制的创新仍然需要人类的监督。指南必须塑造实用的负责任的应用。尽管舒适度保持两极分化,并且生成的AI功能不成熟,但参与者报告说,生成的AI带来了显着的工作流程改善。尽管不是解决所有课程发展挑战的解决方案,但AI可能会帮助将教学设计人才集中在更具创造力和复杂的设计机会上。
摘要。仿真现在在自主驾驶算法的发展中起着重要作用,因为它可以大大降低现实世界测试的环保成本和道德风险。但是,建立高质量的驾驶模拟器并不是微不足道的,因为它要求采取公路代理的现实性行为行为。最近,几个模拟器采用以数据驱动方式学习的交互式轨迹预测模型。尽管他们成功地生成了短期交互式场景,但在时间范围更长时,模拟器很快就会崩溃。我们确定了背后的原因:现有的交互式轨迹预测因子在递归喂养预测作为模型的输入时遭受室外(OOD)问题。为此,我们建议引入一个量身定制的模型预测控制(MPC)模块,以使最先进的交互式轨迹预测模型M2I,形成了一个名为M 2 SIM的新模拟器。值得注意的是,M 2 SIM可以通过执行弹性正规化来有效地解决长期模拟的OOD问题,该正规化可以接受重播数据,同时仍享受数据驱动的预测的多样性。我们使用定量结果和可视化来证明M 2 SIM的优势,并发布我们的数据,代码和模型:https://github.com/0nhc/m2sim。
本文批判性地解决了迷幻浪潮当前时刻最紧迫的问题之一:主流迷幻药是一件好事吗?我们的目的不是提供简单的“是”或“否”作为答案,而是要探索过去几十年来上升的紧张局势,争议,差异,不平等和风险。我们讨论了迷幻科学的局限性,作为领导这一运动的范式,以及过分强调生物医学化的风险,以损害社会科学,人文和传统知识。我们还研究了政策考虑因素,商品的危险以及生态负担,即使用迷幻药的使用正在造成。此外,这篇文章反映了优先考虑心理治疗方法的趋势,这是该领域中被忽略的话题。作者提出了包容,道德和互惠的需求,以平衡冒着重现迷幻运动作为主流资本主义努力的另一种表达的不平等现象。鉴于食品药品监督管理局在仪式和治疗环境中(例如科罗拉多州和俄勒冈州)在典礼和治疗环境中允许使用迷幻药的障碍的MDMA的批准延迟,因此迫切需要就迷幻运动的未来进行知情的对话。重要的是要避免浪漫化这种景观并正确评估我们将来面临的当代挑战和道德风险。
想象一个小工具,允许雇主通过隐藏在键盘或鼠标内的微小电极来监视其工人的脑电波,该电极发送实时显示以评估情绪,警觉性,压力和生产率水平。不久前,您认为这个概念太牵强了,无法认真考虑。但是神经科学和人工智能的进步正在融合 - 有人说,增长是“类固醇” 1-提供了负担得起且可广泛的神经技术设备,这些设备将很快成为普遍存在的工作环境的常规部分。我们研究了当今正在开发的神经技术的开创性工作场所应用,包括有可能帮助发现和帮助早期干预工作,以解决疲劳,倦怠,欺诈,欺诈,商业秘密盗用以及其他可严格的工作场所活动,以及提高生产力和工人的发展。,但也存在明显的固有道德风险,法律问题和忧虑,集中在可能不负责任地使用这种强大的技术。法律风险包括与生物识别数据收集,工作场所隐私以及感知或实际残疾歧视有关的风险,以及其他问题。随着科学和技术进入未知领域,雇主将不得不第一次解决这些法律问题,通常很少有先例或指导。
