鉴于某些生成式人工智能模型能够令人信服地伪装成人类,可能需要明确告知最终用户他们正在与机器交谈。对于生成式人工智能衍生的材料或数据,透明度和可解释性还取决于输出或决策是否标记为由人工智能创建。例如,生成式人工智能创建的图像可能需要水印来表明其来自人工智能。同样,在医疗保健领域,生成式人工智能系统提出的医疗建议可能需要注明它是机器衍生的,以及可访问、可理解的日志或关于提出该建议的原因的解释。更广泛地说,为了信任模型及其输出,企业内的利益相关者以及最终用户需要了解输入数据的使用方式、选择退出、隐藏或限制该数据的机会,以及对自动决策及其对用户的影响的可理解解释。