生成的AI:一种人工智能,生成文本,图像,声音,视频或其他内容,以响应提示。生成的AI应用程序经过数据培训,可以继续从提供给它们的数据(即提示用户提供的提示)中学习。
虽然我们总体上支持多方利益相关者的方法,使行业能够参与起草过程,但《人工智能法案》次级立法(例如指南和通用人工智能 (GPAI) 行为准则)的审议速度过快,限制了利益相关者提供有意义意见的能力。这种方法不成比例地使大型、资源丰富的公司受益,而将较小的欧洲创新者排除在外。欧洲公司必须有机会参与直接影响其投资和创新能力的标准制定过程。鉴于这些准则和指南草案的技术性和详细性,利益相关者需要合理且相称的时间来做出回应。例如,我们建议将 GPAI 行为准则 V2 的反馈截止日期延长至 2025 年 1 月下旬。此外,根据需要更新每轮磋商的暂定时间表将有助于企业有效地分配资源。最后,我们鼓励委员会进一步加强人工智能办公室,提高其有效管理这些流程的能力。
人工智能开始获得广泛应用的新领域之一是客户服务领域,医疗机器人很可能很快就会成为医疗服务提供商提供的服务的一部分。机器人是一种人工智能应用程序,患者可以通过网站上的聊天窗口或电话与之互动,以获得针对其请求的帮助。机器人可用于多种情况,例如在线安排与患者提供商的后续预约。其他示例包括机器人帮助患者满足其药物或账单需求。这些用例可改善客户服务;为基本请求(例如安排、账单和其他临床请求)提供全天候协助;并降低医院的总体管理成本。
随着美国各地的企业开始考虑快速发展的人工智能工具的新用途,医疗行业脱颖而出,成为最早采用者。根据美国医学协会去年的一项调查,超过一半的美国医生要么已经使用人工智能工具来增强临床实践,要么计划在明年内这样做。目前市场上已有 150 多种放射科人工智能产品,用于检测结核病和癌症等任务,这些任务所需的辐射和造影剂量低于人类放射科医生检查所需的剂量。麻省总医院布莱根分院等医院使用大约 50 种算法进行一系列患者护理应用,从检测动脉瘤和中风迹象到跟踪生物标志物的变化以预测心脏病发作。评论员强调了将人工智能技术用于患者护理的巨大潜力和独特风险。随着医院、医生团体、健康科技初创公司和其他机构考虑在医疗人工智能工具上进行越来越多的投资,他们面临着对第三方承担责任以及自身资产和收入损失或受损的各种风险。这些用户需要了解 (1) 这些风险是什么,(2) 他们正在采取或需要采取哪些步骤来尽量减少由这些风险引起的潜在损失和责任,以及 (3) 他们是否为这些风险投保或自行投保。 重大风险 下面讨论了一些重大风险的例子。 数据泄露和隐私责任风险 人工智能从三个方面加剧了医疗保健提供者的数据泄露和隐私责任风险:(1) 它增加了互联互通,从而增加了遭受攻击的潜在机会,并导致数据损坏或泄露,(2) 它使数据去识别化更难维护;(3) 它依赖海量数据集进行训练。
摘要 — 人工智能 (AI) 和机器学习将对无人机的应用和通用交通管理 (UTM) 的整合产生重大影响,这些整合涉及城市环境中低空空域的无人操作。人工智能将需要高水平的自动化,并作为无人驾驶和载人航空整合的推动者,人工智能最终将使大量无人机在同一空域的安全运行成为可能,更具体地说是检测和规避能力。在为 UAS(无人机系统)运营商提供服务时,获得 U 空间服务提供商 (USSP) 认证的组织将大量开发和使用人工智能。UAS 运营商使用的设备在某种程度上已经受益于人工智能,但自动化水平目前受到法规的限制。必须有一个法律框架,因为人工智能不仅会对现有法律产生重大影响,而且还将确保一个有利于公民和企业在人工智能方面的安全和基本权利的框架。欧盟根据《欧洲联盟运作条约》(TFEU)第 114 条的许可,公布了一项拟议法律,即《人工智能法》。
1 简介................................................................................................................ 4
处方药仅开具短效或没有足够的续药量,会迫使患者比临床需要更频繁地返回诊所以续用药物。这种做法不仅给患者带来不便,而且还增加了预约量和相关账单。例如,高血压或糖尿病等慢性病通常需要长期用药管理。如果患者必须每月左右返回诊所续用处方,则会给医疗资源带来不必要的压力。加拿大没有关于慢性稳定疾病处方药的持续时间或授权续药的明确标准。然而,虽然各省之间存在一些差异,但加拿大为慢性稳定疾病开具药物的普遍接受的标准是开具最长 90 天的处方,在稳定病例中可能延长至 12 个月,并附有适当的授权续药和后续计划。医生必须运用临床判断,确保适当的监测,并提供足够的患者教育。 JMPRC 指出,通过更好的处方管理以及对慢性药物的适当处方持续时间,可以避免频繁使用和医学上不必要的 795A。
摘要自1960年代起,科学家,工程师和医疗保健专业人员就开发了大脑 - 计算机接口(BCI)技术,将用户的大脑活动与通信或运动设备联系起来。这种新技术也吸引了公众,工业和伦理学家的想象。学术伦理强调了BCIS的道德挑战,尽管这些结论通常依赖于投机性或概念性方法,而不是经验证据或公众参与。从社会科学或经验伦理学的角度来看,由于它与公众的脱节,这种趋势可能被认为是有问题的,甚至是技术官僚主义的。在回应中,我们的Trinational调查(德国,加拿大和西班牙)报告了公众对BCIS(n¼1,403)的态度,这些态度是对学术伦理学文献精心得出的道德问题的。结果表明,与代理相关问题(例如,改变用户的自我)和与后果相关的问题(例如,黑客的新形式)中,相关问题中等程度高。在据报道为女性或宗教信仰的受访者中,这两个方面都更高,而教育,年龄,自身和同伴残疾以及居住的国家与与代理有关或与后果有关的问题有关。这些发现提供了三种国家背景下的BCI态度,这表明学术BCI伦理的语言和内容可能与某些公众及其价值观产生共鸣。
随着决策算法在社会上变得更加普遍,当预测影响个人的生活时,重要性效率和解决问题的影响就受到质疑。高风险应用程序要求可信赖的AI系统以公平和问责制设计;这种信任和构想对于公众接受和成功部署至关重要。尽管对道德和值得信任的AI的倡导越来越多,以及诸如《欧盟AI法案》这样的指南的出现,但围绕AI的争议仍然存在于媒体上。公共部门AI系统正在随意实施,无论是在司法决策,医疗保健诊断或社会福利分配中。这些高风险的应用程序直接影响了公民的生活质量,强调了对公共部门如何设计和设计AI的批判性评估的必要性。我的论文探讨了公共部门AI中公平,问责制和不确定性的整合,以评估这些系统是否经过适当设计,有效地适应并能够增强社会福祉。该研究旨在为设计与公共部门需求保持一致并最大化社会利益的AI系统提供可行的见解。