公司的董事会多元化政策与董事会候选人的选拔有关。在选择董事会候选人时,可持续发展、公司治理和提名委员会会考虑与现有董事会相辅相成的技能、专业知识和背景,并确保其成员具有足够多元化和独立的背景,同时认识到公司的业务和运营具有多元化和全球性。目前,董事会 50% 的成员为女性董事。董事会打算继续选择多元化的候选人,并在每次寻找董事会成员时考虑性别多样性和种族多样性。董事会将在总共 12 名董事中提名 6 名女性董事(Arnold 女士、Assis 女士、Berzin 女士、Miller Boise 女士、Hudson 女士和 Schaeffer 女士)、1 名黑人董事(Miller Boise 女士)和 2 名国际董事(Assis 女士和 Lee 先生)。此外,我们董事的任期和经验多种多样,这为董事会的职能带来了不同的视角。
________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________________ 2.1. 规则和标准 - 规则规定事前具体行为(股息限制、最低资本要求等),主要用于保护债权人等。 - 标准为事后评估留出自由裁量权,用于内部事务(诚信、合理谨慎、公平、保持距离等)。规则和标准的重要性取决于有效的执行。 2.2. 进入和退出策略 - 进入策略= 为潜在委托人(资本市场)利益进行系统披露 - 退出策略═▪ 评估(退出)权,▪ 转让股份的权利
©2011 Xerox Corporation。保留所有权利。未经 Xerox Corporation 许可,不得以任何形式复制本出版物的内容。XEROX ® 、XEROX and Design ® 和 CentreWare ® 是 Xerox Corporation 在美国和/或其他国家/地区的商标。本手册中的信息如有更改,恕不另行通知。09/11 SO1BR-21EB
©2011 Xerox Corporation。保留所有权利。未经 Xerox Corporation 许可,不得以任何形式复制本出版物的内容。XEROX ® 、XEROX and Design ® 和 CentreWare ® 是 Xerox Corporation 在美国和/或其他国家/地区的商标。本手册中的信息如有更改,恕不另行通知。09/11 SO1BR-21EB
想象力,基于模型的推理和决策的神经基础对神经科学产生了很大的兴趣[5-7];在认知水平上,在动物和人类学习中已经假设并证明了模型学习和心理模拟[8-11]。其在基于人工模型的代理中的成功部署迄今已仅限于可用的确切过渡模型[12]或模型易于学习的域中的设置,例如符号环境或低维系统[13 - 16]。在代理无法使用模拟器的复杂域中,最近的成功由无模型方法主导[2,17]。在此类域中,采用标准计划方法的基于模型的代理的性能通常会遭受功能近似作用的模型错误[18,19]。这些错误在计划过程中复合了,导致过度优势和剂性能差。当前没有计划
代理人人工智能(AI)系统可以自主追求长期目标,做出决策并执行复杂的多转弯工作流程。与传统的生成AI不同,该AI反应提示,代理AI主动协调过程,例如自主管理复杂的任务或做出实时决策。从咨询角色转变为积极执行的挑战,确定了法律,经济和创造性的框架。在本文中,我们探讨了三个相互关联的领域的挑战:创造力和知识产权,法律和道德考虑以及竞争影响。我们分析的核心是AI生成的创意产出中的新颖性和有用性之间的张力,以及AI自治引起的知识产权和作者挑战。我们重点介绍了责任归因和责任的差距,这些差距和责任造成了“道德脆弱区”,即在多个参与者之间扩散问责制的条件,使最终用户和开发商处于不稳定的法律和道德立场。我们研究了两面算法市场的竞争动力,在该市场中,卖方和买家都部署了AI代理,可能会减轻或放大默认合谋风险。我们探索了在代理AI网络(“算法社会”的发展)内发生紧急自我调节的潜力 - 提出了关键问题:这些规范在多大程度上与社会价值观保持一致?可能会产生什么意外后果?如何确保透明度和问责制?应对这些挑战将需要跨学科的合作来重新定义法律责任制,将AI驱动的选择与利益相关者价值观保持一致,并保持道德保障。我们主张平衡自治与问责制的框架,确保各方都能在保留信任,公平和社会福利的同时利用代理AI的潜力。
专有数据集:在主流生成AI炒作的早期,直到2023年,生成的AI创始人都强调了数据护城河。许多人建立了自己的模型或获得了用于专业的微调和增强学习的大型数据集。这种策略很早就起作用,使他们可以在狭窄的领域中进行区分。但是,GPT-4的发布改变了景观。具有较大的模型大小,扩展的上下文窗口以及90-95%的精度,GPT-4需要较少广泛的微调才能实现强大的性能。甚至数据集曾经被认为是独特的(例如专门的放射学图像或法律合同),它们的一些护城河价值是在广泛的数据竞争的特定于域特异性准确性的模型中。更耐用的防御是一个“闭环”系统,可连续捕获特定于客户的结果数据。随着时间的流逝,个性化的历史成为复制的障碍。