数学课程很简单,其中没有数字:这个世界是有结构的;我们可以希望理解其中的一些,而不仅仅是对我们的感官呈现给我们的东西感到吃惊;我们的直觉在有正式外骨骼的情况下比没有外骨骼的情况下更强。数学的确定性是一回事,我们在日常生活中发现的更柔和的信念是另一回事,如果可以的话,我们应该跟踪两者之间的差异。1 人工智能 (AI) 对法律界的影响每年都在成倍增加。随着人工智能的发展,律师拥有更强大的工具来增强他们研究和分析法律以及起草合同和其他法律文件的能力。律师已经在使用由人工智能驱动的工具,并正在学习转变他们的方法以利用这些增强功能。为了继续适应不断变化的角色,律师应该了解人工智能、数学和法律推理之间的关系。
本月初,开普科勒尔市议会投票决定在 47 号露台沿线铺设架空输电线,这对开普科勒尔社区重建局的系统来说是一个震惊。十年前,Lee County 电力合作社首次开始考虑将 Midpoint Bridge 南侧 Everest Parkway 上的变电站与 CRA 47 号露台上的变电站连接起来。LCEC 的强项是安装架空线路,但 CRA 一直呼吁在其境内铺设地下线路,认为架空线路会阻碍他们试图吸引到市中心的那种垂直开发。CRA 和 LCEC 合作了几年,试图找到一个折衷的解决方案,提出了各种路线,但 LCEC 中断了这些谈判,并推荐了沿 47 号露台的路线。“我们对那(投票)真的感到吃惊”,CRA 执行董事 John Jacobsen 说。然而,LCEC 官员表示,47 号的路线对 CRA 来说并不意外。“我从第一天起就一直在从事这个项目,”LCEC 高管 Trish Lassiter 说。“这是最初确定的三条路线之一,”她说。Jacobsen 反驳说,在最近关于该项目的会议中,47 号露台
以人为本的人工智能:新时代精神 Yvonne Rogers,伦敦大学学院 UCLIC Hancock 的文章读起来就像一篇文学作品,充满了深奥的措辞和一些奇怪的拉丁语。这是一篇巧妙的散文,用尖锐的隐喻警告我们,未来会出现故障、功能失调和失效的自主机器,如果我们不采取有力的措施,它们可能会给社会带来严重破坏,甚至摧毁我们。最戏剧性的类比之一是将自主系统比作从海洋中升起的一圈火山岛的演变;是突然和爆炸性的,而不是缓慢渐进的演变。相比之下,我们人类被视为扮演着“海滩和河岸线的沿海角色”,随着火山喷发而消退。海洋形象确实描绘了一个世界末日的未来。我读这本书的时候想象自己听到了《世界大战》的配乐。那么,在为时已晚之前,我们能够、应该做些什么来应对预测中的自动机器的突然爆发呢?汉考克建议投入数十亿美元来培训一批新的机器法医心理学家,他们将能够比我们现在更清楚地了解机器的大脑,更好地理解它们为什么会选择特定的行动。这一切都很好,也是一种必要的战斗号召。但这已经开始在更广泛的人工智能领域发生——尽管规模并不宏大。越来越多的人机交互 (HCI) 研究人员、计算机科学家、哲学家和心理学家正在解决和面对人工智能的自主性——研究如何用替代的透明算法来取代它,这些算法将允许人类(和其他机器)检查、理解和纠正机器学习和机器决策,这些算法被编程来执行。让人工智能更加公平、负责、可解释和不偏不倚已成为普遍接受的目标。关于如何实现这一目标,已经发布了许多框架、白皮书和政策。例如,今年早些时候,欧盟发布了一项法规,其中除了详细的指导、规则和限制外,还建议禁止对人类造成或可能造成“身体或心理”伤害的人工智能系统。这些系统包括在人们不知情的情况下识别他们的面部和面部表情的自主系统;自动决定是否允许他们获得贷款、信贷、工作等。斯坦福大学开创性 HAI 中心的 Katharine Miller (2021) 刚刚发表了一篇关于未来工作的文章,她主张用鼓励以人为本的工作场所的替代价值观取代人工智能驱动的自动化理念。汉考克最近发表的反对自动驾驶技术的文章最让我吃惊的是——考虑到它已提交给《人机交互杂志》——它没有提到如果我们假设我们不希望技术完全自动化,我们应该考虑和设计什么样的控制、交互和界面。文章中间有一句话声称我们“正在见证人机交互和协作的关键分水岭”。但没有进一步说明这些是什么。