Loading...
机构名称:
¥ 1.0

• 实施明确的、基于风险的政策,以最大限度地减少数据和安全漏洞,并规定他们决定在实践中使用哪些人工智能工具、谁可以使用这些工具、出于什么目的以及使用哪些信息。这些政策还应规定他们将如何持续积极地监督初级和支持人员对人工智能工具的使用,以及如何审查包含人工智能生成内容的文档的准确性,并在结算前进行验证。我们建议律师应客户要求向其提供这些政策,以提高透明度(见下文)。 • 将人工智能工具在实践中的使用限制在风险较低且易于验证的任务上(例如起草礼貌的电子邮件或建议如何构建论点),并禁止将其用于风险较高且应独立验证的任务(例如将建议翻译成另一种语言、分析不熟悉的法律概念或执行决策)。生成式人工智能工具可能会有偏见,无法理解人类心理或其他可能相关的外部复杂因素。用于人工智能模型的训练数据也可能存在道德问题,包括知识产权和所有权,或包含高度冒犯或非法的文字或图像(包括 chilbarrd 剥削材料),这可能使它们不适合在您的工作中使用。 • 对人工智能的使用保持透明,并妥善记录和向客户披露(在必要或适当的情况下,向法院和同行披露)他们在某项事务中使用人工智能的时间和方式,以及人工智能的使用如何反映在费用中(如果客户要求)(见上文,收取公平、合理和相称的费用)。律师应仔细考虑客户提出的有关使用人工智能的任何道德问题,并主动解决这些问题。

使用声明

使用声明PDF文件第1页

使用声明PDF文件第2页

相关文件推荐