摘要李·卢达(Lee Luda)的争议是一个关键时刻,它在韩国AI伦理学的全国性话语中开幕。作为旨在模拟栩栩如生的对话的对话聊天机器人,卢达因其类似人类的互动能力而迅速引起人们的关注,但由于使用私人人类对话进行培训,很快就成为了争议的中心,导致了个人细节的意外披露,并通过仇恨言论和性内容操纵产生了响应。这一事件引起了广泛的公众关注和监管审查,导致该服务中止以及随后的政府罚款。回应,ScatterLab引入了“ AI Chatbot伦理清单”,以解决AI开发中的道德问题。这项研究研究了李·卢达事件的后果,重点是ScatterLab的伦理反应以及对韩国AI伦理和性别的更广泛含义,强调了对纳入AI技术中偏见的包容性和伦理AI设计实践的需求。