Loading...
机构名称:
¥ 2.0

• 可能因人工智能的使用而受到威胁的相关法规和政策包括涉及数据准确性、数据安全性和隐私/保密性、知识产权、健康公平、歧视和科学诚信的法规和政策。 捏造 • 对话式人工智能可能会“产生幻觉”或捏造信息(包括数据和参考文献)已被广泛报道。捏造、伪造和剽窃都包含在可报告的研究不端行为的联邦定义中。 偏见和歧视 • 对话式人工智能技术接受来自未公开来源的大量数据训练,其语气和内容可能包括偏见、误解或关于特定人群的过时信息 缺乏隐私和数据安全 • 基于云的模型依赖于外部基础设施,而外部基础设施可能并不总是符合医疗保健行业或联邦保证所要求的严格安全标准。 其他法律或道德风险,包括机构信誉风险

人工智能 (AI) 和机器学习 (ML) 在 NCHS 计划中的作用

人工智能 (AI) 和机器学习 (ML) 在 NCHS 计划中的作用PDF文件第1页

人工智能 (AI) 和机器学习 (ML) 在 NCHS 计划中的作用PDF文件第2页

人工智能 (AI) 和机器学习 (ML) 在 NCHS 计划中的作用PDF文件第3页

人工智能 (AI) 和机器学习 (ML) 在 NCHS 计划中的作用PDF文件第4页

人工智能 (AI) 和机器学习 (ML) 在 NCHS 计划中的作用PDF文件第5页

相关文件推荐