人工智能 (AI) 帮助确定疫苗接种者、优先安排急诊室入院以及确定个人雇用,但有时这样做并不公平。随着我们走出疫情,技术进步和效率需求继续推动包括知识产权 (IP) 法在内的所有法律领域将更多人工智能纳入法律实践。当人工智能在知识产权体系中促进经济和社会正义时,这可能是件好事。然而,人工智能可能会加剧不公平现象,因为有偏见的开发人员会使用有偏见的输入创建有偏见的算法或依赖有偏见的代理。本文认为,如果社会正义原则(如获取、包容和赋权)能够从两者的结合中产生,那么政策制定者需要采取深思熟虑和协调一致的方法将人工智能嫁接到知识产权法和实践中。它探讨了在知识产权背景下获得人工智能正义是什么样子,并重点关注知识产权法阻碍公平的人工智能相关结果的两个领域。第一个领域涉及民权问题,这些问题源于商业秘密阻碍获取和转移有偏见的算法或数据的责任。第二个问题涉及专利和版权法偏见,这些偏见延续了人工智能增强流程中的历史不平等。本文还讨论了公平设计应该如何进行,并提供了实施公平审计以减轻偏见的路线图。最后,它简要介绍了人工智能如何协助裁定公平的知识产权法原则,这也测试了有界人工智能流程可以做什么的外部极限。