Loading...
机构名称:
¥ 1.0

我们尚未建立或处理能够做出自己决定的机器人。,但是,如果以及当这样的机器人到达时,我们通常的道德实践将不足。这部分是因为机器人自主权意味着放弃人类控制。一个自主机器人的行为可能不佳,不是因为任何故障或恶意编程,而是因为它决定了。到目前为止,只有成年人才能以这种能力为荣,因此至少在原则上,我们始终知道谁负责谁。然而,鉴于程序员在机器人的决定中没有发言权,机器人没有痛苦,我们责备责备的愿望缺乏合适的目标。Matthias [1]将此称为责任差距。Sparrow [2]认为,这种责任差距足以证明禁止创建和部署自主机器人的合理性。Arkin [3]反驳说,这种机器人可能比我们更有道德。香槟和Tonkens [4]认为,人类可以自愿接受机器人行为的责备。Kiener [5]认为,事实之后,人类也可以做到这一点。Burri [6]驳回了关于机器人可以达到自治的建议。Gunkel [7]邀请我们将机器人视为道德患者。Gogoshin [8]邀请我们将机器人视为道德代理。søvik[9]说,自动机器人无法感觉到,但仍可能被责备。Tigard [10]认为,促使这些各种响应的问题甚至不存在。这些辩论没有解决,因此继续建立更多的立场。称此Königs的妥协。从所有方面来看,它代表了一个新颖的立场。最近,彼得·科尼格斯(PeterKönigs)[11]通过坚持存在责任差距存在但没有问题,从而冒险进入新地形。但是,像任何立场一样,我们可以问:这是可替代的吗?Königs授予在某些情况下,自主机器人会产生责任差距 - 因为我们必须以不良行为来归功于他们,但永远不会责怪他们[12]。1个通讯作者:马克香槟;电子邮件:marc.champagne@kpu.ca。

机器学习的可靠性

机器学习的可靠性PDF文件第1页

机器学习的可靠性PDF文件第2页

机器学习的可靠性PDF文件第3页

机器学习的可靠性PDF文件第4页

机器学习的可靠性PDF文件第5页

相关文件推荐

2024 年
¥13.0
2024 年
¥1.0
1900 年
¥10.0
1900 年
¥3.0
2015 年
¥2.0
2025 年
¥1.0
2025 年
¥27.0
2019 年
¥1.0
2023 年
¥18.0
1900 年
¥1.0
2023 年
¥1.0
2024 年
¥33.0
2020 年
¥1.0
2024 年
¥3.0
2025 年
¥5.0
2024 年
¥1.0
2024 年
¥1.0
2024 年
¥7.0
2024 年
¥6.0
2024 年
¥8.0