8 评价认知理论 295 8.1 简介 295 8.2 核心认知标准 296 8.2.1 表征结构 296 8.2.1.1 系统性 297 8.2.1.2 组合性 297 8.2.1.3 生产力 299 8.2.1.4 大规模绑定问题 300 8.2.2 性能问题 301 8.2.2.1 句法泛化 301 8.2.2.2 鲁棒性 303 8.2.2.3 适应性 304 8.2.2.4 记忆 305 8.2.2.5 可扩展性 306 8.2.3 科学价值 308 8.2.3.1 三角测量(接触更多数据源) 308 8.2.3.2 紧凑性 309 8.3 结论 310 8.4 能语奖励:如何构建大脑——实用指南 311
许多公司已开始努力提高基于 AI 的决策透明度,以满足监管要求并促进对 AI 洞察的信任,尤其是当这些洞察与长期持有的信念相矛盾时。然而,除了解决解释 AI 输出所需的广泛技术和治理工作之外,一家北美组织发现,只需分享 AI 验证员工知识和专业知识的实例,就可以增强对该技术的信任——这是让所有员工参与塑造组织中 AI 使用方式的重要第一步。面对持续的预算限制,该组织的领导者希望让员工更深入地了解供应链和采购决策,以便他们能够更好地安排决策时间并在现有预算内实现最大影响。传统上,管理人员在孤岛中工作,这使得
“人工智能(AI)是机器或软件的智能,与人类或动物的智能相对”https://en.wikipedia.org/wiki/Artificial_intelligence
摘要。诸如 ChatGPT 之类的人工智能 (AI) 系统现在可以大规模地生成令人信服的人类语音。人们很容易问这种人工智能生成的内容是否“破坏”了法律。我们认为,这是一个错误的问题。它将法律描述为本质上是被动的,而不是主动的,并且未能揭示在法律的一个领域看似“破坏”的事情在另一个领域却是正常的。我们挑战技术本质上破坏法律的流行观念,而是提出法律和技术在反映社会优先事项和政治权力的动态相互作用中共同构建。本文反而部署并阐述了“技术的法律构建”方法。通过消除技术决定论的障碍并进行技术的法律构建,法律学者和政策制定者可以更有效地确保人工智能系统融入社会符合关键价值观和法律原则。在我们进行技术的法律构建时,包括研究法律的目标、价值观和制度如何构成对新技术用途的法律意义。例如,第一修正案主要通过法院系统,朝着许多理论目标来规范“言论”和“说话者”。这导致了一系列特殊的难题,例如人工智能系统不是具有人类意图的人类说话者。但法律的其他领域对人工智能系统的构建方式却大不相同。内容审核法规范通信平台和网络,以平衡危害与言论自由和创新;风险监管越来越多地用于监管人工智能系统,它规范有风险的复杂系统,以减轻身体和尊严伤害;消费者保护法规范企业和消费者,以维护公平有效的市场。在人工智能的其他这些法律构建中,人工智能缺乏人类意图都不是问题。通过逐一分析每个例子,本文旨在展示从技术的法律构建角度看待人工智能生成内容的好处,而不是询问该技术是否破坏了法律。我们还旨在让政策制定者和学者相信该方法的好处:它描述准确,能提供具体的政策启示,并且在实践中可以为政策制定者和学者提供深刻的赋权。人工智能系统在某种抽象意义上不会破坏法律。在以价值观为导向而非以技术为导向的技术政策方法下,法律可以做的远不止反应。
Leandro Folgar 是乌拉圭教育技术与创新中心 Ceibal 的总裁。在他的领导下,Ceibal 推动了国家教育技术战略,并在 COVID-19 疫情期间面临重大挑战。Leandro 拥有教育学学士学位(乌拉圭天主教大学,UCU)和哈佛大学技术、创新和教育硕士学位。他还获得了哈佛商学院的商业资格。目前,他除了担任多个董事会成员外,还在乌拉圭天主教大学商学院从事研究生教学工作。作为富布赖特校友、企业家和商业顾问,他以教师的身份开始了自己的教育职业生涯,并在各种学校职位上积累了 13 年的经验。他对创新、技术、学习、高绩效团队以及教育在塑造全球社会未来方面的变革力量充满热情。