Loading...
机构名称:
¥ 1.0

人工智能 (AI) 系统试图模仿人类行为。它们模仿得有多好通常被用来评估它们的效用,并将类人 (或人工智能) 归因于它们。然而,大多数关于人工智能的研究都提到并依赖于人类智能,而没有考虑到人类行为本质上是由他们所处的文化背景、他们所持有的价值观和信仰以及他们所遵循的社会实践所塑造的。此外,由于人工智能技术大多是在少数几个国家构思和开发的,它们嵌入了这些国家的文化价值观和实践。同样,用于训练模型的数据也无法公平地代表全球文化多样性。因此,当这些技术与具有不同价值观和解释实践的全球多样化社会和文化互动时,就会出现问题。在这篇立场文件中,我们描述了基于人工智能的语言和视觉技术背景下的一系列文化依赖性和不一致性,并反思了解决这些不一致的可能性和潜在策略。

人工智能中的文化不一致

人工智能中的文化不一致PDF文件第1页

人工智能中的文化不一致PDF文件第2页

人工智能中的文化不一致PDF文件第3页

人工智能中的文化不一致PDF文件第4页

人工智能中的文化不一致PDF文件第5页

相关文件推荐

2022 年
¥20.0
2024 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2023 年
¥3.0
2024 年
¥4.0
2023 年
¥1.0
2013 年
¥3.0
2024 年
¥1.0
2023 年
¥5.0
2023 年
¥2.0
2020 年
¥9.0
2024 年
¥4.0
2022 年
¥3.0
2021 年
¥6.0
2023 年
¥1.0
2024 年
¥3.0
2024 年
¥1.0
2021 年
¥1.0
2023 年
¥1.0
2020 年
¥3.0
2024 年
¥1.0