Loading...
机构名称:
¥ 1.0

本对话论文认为,合成数据的使用永远不可能是“道德”。我的论点从媒体伦理学中进口了规范性的立场,即“善意 - 责任 - 责任”(Glasser and Ettema 2008)。从话语伦理上建立这种立场,将道德定位为“具有“有理由和刻意关于道德困境进行思考的设施”,这最终意味着能够公开和公开和令人信服地证明他们的决心是合理的”(Glasser和Ettema 2008:2008:512)。至关重要的是,这种方法是对话和社会的,需要向所有受关系实践和过程影响的所有人开放的空间。虽然在商业机构环境中使用合成数据可能会为有关个人身份信息(PII)或未付用户劳动的隐私问题提供解决方案,或者似乎相对无害,就像培训计算机视觉算法的情况下,视频游戏中的其他案情 - 在此对话中,这种促进者在他们的对话范围内也是如此。去政治化综合数据。综合数据因此,更广泛地增加了自动化系统内固有的固有的责任,并加剧了构成的责任感,并且通过这种情况会牢牢地牢牢地监测和化合物。在某些领域,赌注实际上是生死攸关的,例如在医疗AI的发展中,以及更有用的,在执法和军事环境中,模型从商业部署到州部署的迁移。鉴于对AI庞大且不断增长的集合的重大道德含义的周到,表达和反思性的包容性思考,以及合成数据在进一步神秘化和合法化其似乎无限制的发展和部署中的作用,我认为综合数据永远不会符合“ Ethical”实践的标准。

对话为什么综合数据永远不会是道德的

对话为什么综合数据永远不会是道德的PDF文件第1页

对话为什么综合数据永远不会是道德的PDF文件第2页

对话为什么综合数据永远不会是道德的PDF文件第3页

对话为什么综合数据永远不会是道德的PDF文件第4页

对话为什么综合数据永远不会是道德的PDF文件第5页

相关文件推荐

2020 年
¥2.0
1900 年
¥1.0
2024 年
¥2.0
2024 年
¥1.0
2021 年
¥1.0
2022 年
¥1.0