抽象的心理健康污名表现出不同的性别的不同表现,通常与女性相关,并被男性忽视。NLP中的先前工作表明,性别心理健康污名是在大型语言模型(LLMS)中捕获的。但是,在过去的一年中,LLM发生了巨大变化:更新的,生成的模型不仅需要不同的方法来衡量偏见,而且它们在社会上也广泛流行,与数百万用户互动并增加了使性别心理健康刻板印象永久存在的风险。在本文中,我们研究了gpt3.5-turbo中的性别健康污名,该模型为Openai受欢迎的Chatgpt提供动力。在先前工作的基础上,我们进行了定量和定性分析,以测量二元性别之间的GPT3.5-Turbo的偏见,并在有关心理健康的对话中探索其周围非二元性别的行为。我们发现,尽管gpt3.5涡轮增压是明确假定性别的,但当被要求完成有关心理健康的句子时,它仍然包含隐性的性别偏见,始终偏爱女性名字而不是男性名字。此外,尽管GPT3.5-Turbo表明了对非二元人经历的细微差别的认识,但在自由回答提示中,它经常对非二元性别认同的固定过度。我们的初步结果表明,虽然现代生成的LLM含有防御公然性别偏见的保障措施,并且在非二进制身份的包容性方面取得了进步,但它们仍然隐式地编码性别的心理健康污名,因此有可能在心理健康环境中危害有害的刻板印象。
主要关键词