Loading...
机构名称:

AI

¥ 3.0

抽象的是自由意志与道德责任之间关系的任何一种,例如我们是否可以在没有前者的情况下拥有后者,如果是的话,必须满足哪些条件;无论人们想到人工智能的代理人是否可能符合这种情况,人们仍然面临以下问题。道德责任的价值是什么?如果我们承担道德责任是成为道德责备或赞美的目标的问题,那么对它们的商品是什么?关于“机器道德”的辩论通常会涉及人工代理人是否或可能在道德上负责,并且通常被认为是理所当然的(遵循Matthias 2004),如果他们不能,他们对道德责任系统和相关商品构成威胁。在本文中,我通过询问该系统的商品(如果有的话)以及面对人工智能的代理人会发生什么,挑战了这一假设。我会争辩说,他们既不引入道德责任制度的新问题,也不会威胁我们真正(应该)关心的事情。我以有关如何确保这一目标的建议结束了本文。

AI

AIPDF文件第1页

AIPDF文件第2页

AIPDF文件第3页

AIPDF文件第4页

AIPDF文件第5页

相关文件推荐

2024 年
¥1.0
2025 年

AI

¥1.0
2024 年
¥2.0
2024 年
¥3.0
2020 年
¥4.0
2025 年
¥1.0
2024 年
¥1.0
2024 年
¥1.0
2025 年
¥3.0
2024 年
¥1.0
2024 年
¥1.0
2023 年
¥1.0
2025 年
¥1.0
2024 年
¥1.0
2021 年
¥9.0
2024 年
¥1.0
2021 年
¥1.0
2021 年
¥1.0
2020 年
¥1.0
2022 年
¥1.0
2024 年
¥1.0
2023 年
¥3.0
2024 年
¥1.0
2023 年
¥1.0
2024 年
¥1.0
2023 年
¥2.0
2023 年
¥1.0
2022 年
¥1.0
2020 年
¥3.0