研究揭示 ChatGPT 翻译中的性别偏见

研究揭示了 ChatGPT 翻译中的性别偏见,揭示了对更公平的机器翻译技术的需求。

来源:英语研究

研究揭示 ChatGPT 翻译中的性别偏见

发布于 2024 年 2 月 14 日星期三 文件:Combotrans.svg | 维基媒体上的 Smasongarrison 维基媒体上的 Smasongarrison

在一个只需单击按钮即可跨越国界进行交流的时代,像 ChatGPT 这样的机器翻译 (MT) 技术已成为不可或缺的工具。 然而,在最近的一项研究中,Eva Vanmassenhove 强调了一个持续存在的阴影——机器翻译中的性别偏见,特别是突出了 ChatGPT 在英语-意大利语翻译环境中的表现。 虽然这些发现是意料之中的,但它们指出了该技术在管理性别中立性和包容性方面的缺陷,强调迫切需要改进语言技术以促进公平。

Vanmassenhove 的预印本论文题为“机器翻译中的性别偏见和大型语言模型时代”,全面分析了机器翻译系统(包括基于 GPT-3.5 的 ChatGPT 等)有时会如何延续甚至加剧性别偏见。该研究侧重于跨语言环境,深入探讨了问题的核心——机器翻译系统对统计模式的固有依赖,再加上数据集偏见,可能会导致翻译中的性别表现出现问题。这一发现强调了技术和社会偏见相交的关键节点,聚焦于语言技术在反映甚至可能加剧现有社会不平等方面面临的持续挑战。

从本质上讲,Vanmassenhove 的研究是提高机器翻译系统开发和部署问责制和创新的号召。这是对全球研究界的邀请,在寻求不断发展的语言技术时,要优先考虑公平性和包容性。随着我们不断前进,希望看到机器翻译系统不仅可以翻译语言,还可以超越偏见,充分拥抱人类多样性的丰富多彩。

标签:计算机科学 计算机科学

继续阅读