研究人员是否知道道德考虑因素以及何时将其应用于研究?本文使用二级数据源来描述数据编辑学科和原则的各个方面,并以道德考虑在定性和定量研究方法中研究研究中的编辑数据。通过过去的研究,研究的道德亚结构包含三个层面的维度:哲学,实践和反思性。数据编辑过程探索和审查数据,以确保一致性,错误和异常值和纠正错误,以提高收集到的数据的质量,准确性和充分性,从而使其更适合于收集数据的目的,例如检测到数据持续数字的字段数量和误差。数据编辑过程基于逻辑,常识和遵守书面程序或编辑指南,针对院士,政策制定者和研究人员的未来研究人员。
● 自主性:万一您正在研究的病毒发生变异并逃出实验室,造成新的流行病,这可能会剥夺他人的生命和健康权利。 ● 后果:这可能会带来好或坏的后果。从好的方面来说,功能获得性研究通常是安全的,可以帮助预防未来的流行病并挽救生命。从坏的方面来说,逃逸的病毒可能会非常致命和灾难性的。 ● 公正性:这一决定可能为所有人带来同等的利益和风险。 ● 性格:假设您的主要价值观之一是诚实。您很可能必须对自己在实验室所做的事情保密,以免引起社会恐慌。这意味着这个决定会导致您损害您的一个关键价值观。 ● 普遍性:如果实验室里还有其他人从事功能获得性病毒学研究,您可能会感到安全,因为您知道世界将更好地应对未来的疾病爆发,尤其是因为逃逸病毒的可能性非常小。
我们被媒体大肆宣传,谈论智能复杂系统、大数据分析 [附录中的第 1 项] 和机器学习、机器人和人工智能 [附录中的第 2 项]、超级自动化以及人机之争 [附录中的第 3 项] 的希望和危害。然而,严肃的研究,尤其是来自工程和信息通信技术 (ICT) 背景的研究,以及伦理学家和最终用户的研究,却严重缺乏。炒作可能预示着我们所知道的世界末日 [附录中的第 4 项],“因为自主系统会决定不加区别地派遣无人机”,而其他人则预示着一种增强的人类生存的愿景,其中可持续性存在于生活的各个方面,所有个人的“繁重工作”都将被消除,世界和平将通过集体意识专注于所有正确的事情 [附录中的第 5 项]。中间派观点承认一种既不是乌托邦也不是反乌托邦的中间道路,其中所有事情都是可能的,但不一定会发生,人类可能在某些时候做对,但并非总是如此 [附录中的第 6 项]。AI/AS 领域的谨慎乐观主义者对机器(硬件或软件)的未来充满信心,但即使不期待,他们也要做好准备,因为在此过程中会遇到困难、失败,甚至侵犯人权 [附录中的第 7 项]。尽管围绕机器伦理的话题有很多讨论和猜测,从“机器没有认知能力,怎么会有伦理?”一直到“人工智能拥有灵魂意味着什么”,[附录中的第 8 项] 我们脑海中最重要的应该是“人工智能”这个词,它位于“智能”之前。我们不是带着拟人化的希望深入研究机器,好像它以某种方式获得了“生命之气”,而是将它理解为一个由人类精心设计和实现的实体,使用
此外,并非所有对AI透明度的担忧都是如此之高。有些担忧也更加脚踏实地。认为AI威胁要加剧当前歧视的人。担心,不透明的AI产生了促进种族主义,性别歧视和其他形式歧视的新方法,以及隐藏这种歧视的新方法。人类将继续以可预测的方式成为种族主义。这将部分归因于不透明的过程,这些过程指导了人类如何做出决定。,但是AI将创造新的种族主义方式。,它将创造新的方式来掩盖种族主义。这将是由于指导AI做出决定的不透明过程。AI可能与人类一样透明,理由是作出决定的原因。,但它的不透明性隐藏了支持和维持人类不透明度不存在的偏见的新方法。解决不透明人工智能中种族偏见的担忧,ZKMG(2019年,第673页)说:
机器道德。剑桥:剑桥大学出版社,第1页。 451-463,2011。Greene,J。 “我们的无人驾驶困境”。 科学352(6293),1514-1515,2016。 kasirzadeh,A。 “两种类型的AI存在风险:决定性和累积性”。 arxiv:2401.07836v2,2024 Kitchin,R。“智慧城市和城市科学的伦理”。 菲尔。 trans。 R. Soc。 A 374:20160115,2016。 Liao,M。(ed)。 人工智能的伦理。 牛津:牛津大学出版社,2020年。 Levy,D。爱+与机器人的性 - 人类机器人关系的演变。 纽约:哈珀多年生,2008年。 Mendonça,R。,Filgueiras,F。和Almeida,V。算法制度主义 - 社会和的变化规则Greene,J。“我们的无人驾驶困境”。科学352(6293),1514-1515,2016。kasirzadeh,A。“两种类型的AI存在风险:决定性和累积性”。arxiv:2401.07836v2,2024 Kitchin,R。“智慧城市和城市科学的伦理”。菲尔。trans。R. Soc。 A 374:20160115,2016。 Liao,M。(ed)。 人工智能的伦理。 牛津:牛津大学出版社,2020年。 Levy,D。爱+与机器人的性 - 人类机器人关系的演变。 纽约:哈珀多年生,2008年。 Mendonça,R。,Filgueiras,F。和Almeida,V。算法制度主义 - 社会和的变化规则R. Soc。A 374:20160115,2016。Liao,M。(ed)。人工智能的伦理。牛津:牛津大学出版社,2020年。Levy,D。爱+与机器人的性 - 人类机器人关系的演变。纽约:哈珀多年生,2008年。Mendonça,R。,Filgueiras,F。和Almeida,V。算法制度主义 - 社会和
1 普适数据这一术语旨在指通过在线服务收集的有关人员的数据(用户贡献、观察、获取或推断),无论这些数据在多大程度上是公开的、汇总的或可能导致识别个人。普适数据可能包括文本、图像、视频、生物特征信息、有关数据主体行为的信息(购买、财务状况、媒体消费、搜索历史、医疗状况、位置等)以及构成个人数字足迹的其他信息。在线服务可能包括整个技术堆栈/技术基础设施中的各种信息技术,包括但不限于基于 Web 的监控工具、内容交付网络、区块链技术、数字劳动力平台、教育技术、物联网设备、联网汽车、可穿戴设备、移动传感器、数据代理、流媒体服务、搜索引擎、在线市场、社交媒体平台和人工智能系统。 “普适数据”这一术语源自美国国家科学基金会资助奖编号 1144934 下开展的研究(https://www.nsf.gov/awardsearch/showAward?AWD_ID=1144934)。2 例如,请参阅 Michael Zimmer 的《解决大数据研究伦理中的概念差距:情境完整性的应用》,《社交媒体+社会》4,第 2 期(2018 年),https://doi.org/10.1177/2056305118768300;aline shakti franzke 等人的《互联网研究:道德准则 3.0》,互联网研究人员协会(2020 年),https://aoir.org/reports/ethics3.pdf。3 本征求意见稿中所述的道德和隐私准则侧重于数据从在线服务提供商流向在线服务提供商之外的独立研究人员,这些研究人员通常隶属于学术或非营利机构。 4 数据中介机构旨在描述一个独立的实体,其专门为促进研究人员和在线服务提供商之间根据商业或非商业协议进行数据访问和共享而运营,或评估
1。过渡团队成员将避免实际和明显的利益冲突。更具体地说,过渡团队成员不得参与他们知道的任何特定过渡事项,可能与成员的财务利益直接冲突,直接家庭成员,合作伙伴,客户或其他个人或其他个人或组织在过去12个月内与之建立了业务关系或有业务关系。即使没有直接冲突,团队成员也会引起总法律顾问的注意,任何可能出现冲突的潜力。在情况下,存在冲突的出现,以至于一个合理的人会质疑过渡小组成员的公正性或得出结论,该成员在特定问题上的工作将破坏公众对过渡团队的信心。
全面贯彻党的十九大和十九届二中、三中、四中全会精神,落实党中央、国务院关于新一代人工智能发展的决策部署,坚持市场驱动与政府引导相结合,按照“统筹规划、分类施策、市场主导、急用先行、跨界融合、协同推进、自主创新、开放协作”的原则,立足国内需求,放眼国际,建立新一代人工智能国家标准体系,加强标准顶层设计和宏观指导。加快创新技术与应用转化为标准,加强标准实施和监督,推动创新成果与产业深度融合。注重对智能制造、工业互联网、机器人、车联网等相关标准体系的统筹和支撑。深化人工智能标准国际交流合作,注重国际国内标准协同,充分发挥标准对人工智能发展的支撑引领作用,保障高质量发展。
人工智力现在存在于我们日常生活的许多领域中。它有望领导新的和有效的业务模型,以在私营和公共部门中有效和以用户为中心的服务。在深度学习,(深度)增强学习和神经进化技术方面的AI进步可以为人工通用智能(AGI)铺平道路。但是,AI的开发和使用也带来了挑战。数据语料库中普遍存在用于训练AI和机器学习系统的固有偏见归因于大多数这些挑战。此外,多个实例强调了在基于动力的决策中需要隐私,公平性和透明度的必要性。本书系列将为研究人员,领导者,决策者和决策者提供一条途径,以分享AI最前沿的研究和见解,包括其在道德,可解释的,可解释的,隐私的,可信赖的,可信赖的和可持续的方式中的使用。
“虽然这对于鼓励协作、建立团队精神和创建机构知识库来说是个好主意,但它对电子发现、风险管理和信息治理有着可怕的潜在影响。保留所有这些数据和闲聊——相关的和不相关的、永恒的和一时兴起的、项目导向的和社交的——会开辟一个与隐私、机密性和电子发现相关的潜在风险的世界。”
