与基于卷积神经网络(CNN)相比,我们研究了基于变压器的行人检测模型较低性能的原因。CNN模型会产生密集的行人建议,单独完善每个建议,然后对其进行非最大抑制(NMS)的跟进,以产生稀疏的预测。在争论中,变压器模型每个地面真相(GT)行人盒选择一个建议,然后从中选择了正面的正态。所有其他建议,其中许多与选定的建议高度相似,都通过了负梯度。尽管这导致了稀疏的预测,从而消除了NM的需求,但在许多类似的建议中,任意选择,有效的训练和较低的行人检测准确性。为了减轻问题,我们建议基于Min-Cost-Flow的配方,而不是常用的Kuhn-Munkres匹配算法,并纳入了诸如每个地面真相盒的约束,并且与一个建议的提案相匹配,并且许多同样好的建议可以与单个地面真相盒相匹配。我们提出了基于匹配算法的第一个基于变压器的行人检测模型。广泛的实验表明,我们的方法达到了3个失误率(较低)3。7 /17。4 /21。8/8。3/2。0在Eurocity / tju-traffic / tju-校园 /城市专家 /加州理工学院数据集中,而4个。7/18。7/24。8/8。5/3。 1通过当前的sota。 代码可从https://ajayshastry08.github.io/flow_ matcher 获得。5/3。1通过当前的sota。代码可从https://ajayshastry08.github.io/flow_ matcher
我们尚未建立或处理能够做出自己决定的机器人。,但是,如果以及当这样的机器人到达时,我们通常的道德实践将不足。这部分是因为机器人自主权意味着放弃人类控制。一个自主机器人的行为可能不佳,不是因为任何故障或恶意编程,而是因为它决定了。到目前为止,只有成年人才能以这种能力为荣,因此至少在原则上,我们始终知道谁负责谁。然而,鉴于程序员在机器人的决定中没有发言权,机器人没有痛苦,我们责备责备的愿望缺乏合适的目标。Matthias [1]将此称为责任差距。Sparrow [2]认为,这种责任差距足以证明禁止创建和部署自主机器人的合理性。Arkin [3]反驳说,这种机器人可能比我们更有道德。香槟和Tonkens [4]认为,人类可以自愿接受机器人行为的责备。Kiener [5]认为,事实之后,人类也可以做到这一点。Burri [6]驳回了关于机器人可以达到自治的建议。Gunkel [7]邀请我们将机器人视为道德患者。Gogoshin [8]邀请我们将机器人视为道德代理。søvik[9]说,自动机器人无法感觉到,但仍可能被责备。Tigard [10]认为,促使这些各种响应的问题甚至不存在。这些辩论没有解决,因此继续建立更多的立场。称此Königs的妥协。从所有方面来看,它代表了一个新颖的立场。最近,彼得·科尼格斯(PeterKönigs)[11]通过坚持存在责任差距存在但没有问题,从而冒险进入新地形。但是,像任何立场一样,我们可以问:这是可替代的吗?Königs授予在某些情况下,自主机器人会产生责任差距 - 因为我们必须以不良行为来归功于他们,但永远不会责怪他们[12]。1个通讯作者:马克香槟;电子邮件:marc.champagne@kpu.ca。
人工智能简介在《计算机与智能》1中,图灵在论证机器无法通过图灵测试时,揭露了一些常见的谬误。特别是,他解释了为什么“询问者只需向他们提出一些算术问题,就可以区分机器和人类”,因为“机器会因为其致命的准确性而被揭穿”这一信念是错误的。事实上,机器“不会试图给出算术问题的正确答案。它会故意引入错误,以混淆询问者。”因此,机器会通过给出错误的答案,或者简单地说它无法计算答案来隐藏其超人的能力。人工智能在某些任务上取得了超越人类的表现,例如算术或游戏;在本文中,我们认为有时人工智能的能力可能需要受到人为的限制。这种刻意的限制被称为人工智能愚蠢。通过限制人工智能完成任务的能力,以更好地匹配人类的能力,人工智能可以变得更安全,即其能力不会超过人类能力几个数量级。这里的总体趋势是,人工智能在达到人类水平后,往往会迅速达到超越人类的表现水平。例如,对于围棋游戏,在几个月内,最先进的水平从强大的业余选手,到弱小的专业选手,再到超越人类的表现。从那时起,为了让人工智能通过图灵测试,或者让它的行为像人类一样,人工智能设计师必须刻意限制它的能力。