生成式人工智能工具的迅速出现,对环境律师、顾问和政府机构提出了挑战,他们需要确定何时以及如何负责任地将这些工具整合到他们的实践中。生成式人工智能可以根据用户的提示和问题生成新内容,包括文本、图像、音频、视频和软件代码。[1] 但为了保持高道德标准,律师有必要了解这项不断发展的技术的细微差别。美国律师协会于 7 月发布的正式意见 512 强调了这一必要性,并提供了如何履行使用人工智能工具相关的道德责任的指导。[2] 本文探讨了生成式人工智能在环境法实践中的伦理影响,并探讨了它带来的挑战和机遇。概述最近的发展,包括 OpenAI 的生成式人工智能软件 ChatGPT 于 2022 年发布,增强了人工智能的能力。[3]美国律师协会已经认识到,“2023 年代表了人工智能在生活各个方面(包括法律实践)应用的巨大转变。”[4] 作为回应,包括纽约、德克萨斯、伊利诺斯、佛罗里达和加利福尼亚在内的律师协会以及法官[5] 已开始通过发布正式意见和指导来解决人工智能的道德影响。[6] 尤其是美国律师协会的正式意见 512 为人工智能的道德使用提供了重要见解,强调了法律专业人士负责任地使用这些工具的必要性。法律服务提供商已开始利用生成式人工智能来增强其平台。例如,一个生成式人工智能平台将人工智能集成到 Microsoft Word 中,允许从业者访问向美国证券交易委员会提交的公开协议以及内部数据库。[7] 一些提供商允许律师定制软件以模仿自己的写作风格并从文档中学习。[8]其他一些公司帮助律师预测案件结果并简化法律研究,[9] 对合同进行尽职调查,[10] 提供虚拟接待员,[11] 甚至协助客户接收和文档自动化。[12] 环境律师可以从头开始训练大型语言模型或 LLM——一种能够理解和生成自然语言的生成式人工智能。虽然这需要大量高质量数据,[13] 但与在线生成式人工智能软件相比,它提高了用户安全性。[14] 这种改进的安全性由构建定制 LLM 的公司大肆宣传,以
主要关键词