与大多数政策工具一样,知识产权法旨在激励和抑制人类行为以实现“最佳”目标。专利制度的目标是激励人们投入时间、金钱和精力为社会创造新颖而有意义的发明。然而,人工智能技术本身并不受政策工具的行为推动力的影响,因为与人类不同,人工智能不会故意自私。这一现实引出了一个问题:即使在最好的情况下,人工智能的知识产权能实现什么?为什么要扩大知识产权的定义以考虑人工智能“发明者”,而这些“发明者”不会根据这些保护改变他们的行为?由于人工智能不会主动:i)投资研发;ii)决定开发创新而非通用的解决问题的方法;也不理解“对我们的社会有意义”的概念,那么人工智能的知识产权保护将在促进我们社会的发明方面发挥什么作用?一个有用的类比表明地方法律不适用于 IA 系统,即将刑法应用于自动驾驶汽车的概念。与人类驾驶员不同,自动驾驶汽车不会因为法律处罚或扣分而受到安全驾驶的激励。事实上,除了 1 和 0 的序列之外,自动驾驶汽车根本不知道“法律处罚”或“扣分”的概念是什么;更不用说有动力按照他们建立的激励结构行事了。因此,自动驾驶汽车的开发者并没有要求扩大法律处罚和扣分范围,以确保人工智能技术的安全驾驶;相反,开发人员专注于与该技术兼容的技术组件,以确保其安全性。那么,当这些激励措施与人工智能技术不兼容时,我们为什么要尝试扩展知识产权法以支持人工智能技术的发明呢?扩展旨在推动人类行为的法律技术并将其应用于技术是一种逻辑上的不一致,它使将知识产权应用于人工智能的重要性失效。
边界(重新)构建作为工作场所中人类与非人类之间的内部行动 W. David Holford 魁北克大学蒙特利尔分校 本文提出了边界(重新)构建的概念。初始框架描述了主体通过制定现象塑造客体,正如客体塑造主体的解释和经验一样。以下案例研究介绍重点介绍了仍然存在于初始框架中的残余二元性。涉及混合类别和社会物质纠缠的本体论认识论见解使我们能够随后将边界(重新)构建重新定义为人与物之间的内部行动(而不是相互作用)。有效的知识共享涉及富有成效的内部行动,而这反过来又需要内部行动成员之间的关系参与。这种参与需要管理层的参与,以确保工作场所内的心理安全网。简介 边界对象长期以来一直与实践社区相关联。原则上,这些对象是帮助在交互成员之间传递不同观点(即知识共享)的媒介。“边界”一词意味着此类对象位于两个或多个交互成员之间的社会交汇处。过去的研究经常探究边界对象的相对有效性,因此经常提出“关键”对象特征。对于管理者-实践者来说,这意味着关注有形的技术/物理属性。另一方面,本文主张将重点转向更多无形的人为/主观因素。随着这种重视程度的提高,管理层和成员在各自的行为和态度方面的责任也随之增加。为此,我们对边界对象的基本假设(即本体论或存在理论的问题)以及我们如何理解它们(即认识论或知识理论的问题)将受到质疑。在下文中,我们首先回顾了边界对象文献中过去的认识论和本体论立场,以及这些立场有时如何误导我们识别“有效边界对象”条件的重复处方,而这些处方未能充分强调人与物体的相互作用动态。接下来是替代性的认知、认识论和本体论线索,这些线索使我们能够将分析水平转向首先问自己哪些关键的有利条件允许获得有效的知识