Loading...
机构名称:
¥ 3.0

A) 一般要求 1. 人工智能的可认证性 使用人工智能/机器学习 (AI/ML) 的医疗器械在假设已进行适当的合格评定程序的前提下,原则上是可认证的。 对于所有医疗软件,包括人工智能设备,监管要求都为认证设定了限制。 根据法规 2017/745/EU 附件 II (4.) 或 2017/746/EU 附件 II (4.),制造商必须遵守其产品的一般安全和性能要求。 对于基于人工智能的产品,尤其是使用复杂随机机器学习技术的产品,而不是软件包含明确、确定性算法的产品,证明符合性具有挑战性。 因此,本指南旨在提供针对人工智能的特定行动指导,以证明符合性。 因此,认证的可能性需要经过公告机构的审查,并逐案决定。 一般来说,软件设备在投放市场之前必须经过验证。相应验证的证明是技术文件的一部分,将由公告机构进行评估。对于“学习型”软件系统,学习过程通常会改变设备的性能。如果此类变化超过一定水平,则必须被视为重大变化,需要进行新的一致性评估,该评估必须在设备投放市场之前再次进行。实践表明,制造商很难充分证明人工智能设备的一致性,这些设备使用现场自学习机制更新底层模型。除非制造商采取措施确保设备在技术文件中描述的验证范围内安全运行,否则公告机构不会将基于这些模型的医疗设备视为“可认证的”。2. 流程制造商应在程序说明或相关计划中涵盖以下列出的所有方面,以确保系统地保证产品的安全性。通常,以下标准操作程序或计划会受到影响:

调查问卷“医疗器械中的人工智能(AI)”

调查问卷“医疗器械中的人工智能(AI)”PDF文件第1页

调查问卷“医疗器械中的人工智能(AI)”PDF文件第2页

调查问卷“医疗器械中的人工智能(AI)”PDF文件第3页

调查问卷“医疗器械中的人工智能(AI)”PDF文件第4页

调查问卷“医疗器械中的人工智能(AI)”PDF文件第5页