微软最近写道:“如果能在赞助商的页面上看到维护者的财务目标以及其他类型的可持续性‘要求’,那就太好了。”(来源)
摘要 公共部门采用人工智能 (AI) 有可能改善服务交付。然而,与人工智能相关的风险很大,公民的担忧已经停止了多项人工智能计划。在本文中,我们报告了一项关于挪威公民对公共服务中使用人工智能的态度的实证研究的结果。我们发现公民普遍持积极态度,并确定了三个促成这一结果的因素:a) 对政府的高度信任;b) 人类参与所带来的保证;c) 对流程、用于人工智能模型的数据以及模型内部运作的透明度。我们通过社会契约理论的视角来解释这些发现,并展示了人工智能在公共服务中的引入如何受社会契约权力动态的影响。我们的研究通过突出政府与公民的关系为研究做出了贡献,并对公共部门的人工智能实践产生了影响。
[截至1/13/2025的草稿]摘要:AI安全领域旨在防止或减少AI系统造成的伤害。一个简单而有吸引力的说明是对AI安全性的特殊性,因为该领域认为该功能是本构的:一个研究项目属于AI安全性的范围,以防万一它旨在防止或减少由AI系统造成的伤害。将这个非常简单的说明称为AI安全的安全概念。尽管它具有简单性和吸引力,但我们认为,安全概念与AI安全研究人员和组织的方式至少有两个趋势,以至少两种趋势思考和谈论AI安全:首先,倾向于以未来系统的灾难性风险来表征AI安全研究的目标;其次,越来越受欢迎的想法可以将AI安全视为安全工程的分支。采用概念工程的方法,我们认为这些趋势是不幸的:当我们考虑最好拥有的AI安全概念时,有令人信服的理由认为安全概念是答案。在描述上,安全概念使我们能够了解如何在历史上被视为AI安全领域的主题工作,这与历史上被视为更边缘的主题的工作是连续的,例如偏见,错误信息和隐私。规范性地,认真对待安全概念意味着要根据其优点来预防或减轻AI系统的危害,而不是在其之间进行任意区别。1。引言随着人工智能的发展和部署(AI)以惊人的速度进行,越来越多的关注被对AI安全性(一种学术学科),该学科结合了针对先进的人工系统与人类利益的对齐的推测理论工作,1关于对抗性鲁棒性等主题的技术研究
场景文本图像不仅包含样式信息(字体,背景),还包含内容信息(字符,纹理)。不同的场景文本任务需要不同的信息,但是以前的表示学习方法 - 在所有任务中使用紧密耦合的功能,从而导致次优性能。我们提出了一个旨在解开这两种功能的分解表示学习框架(亲爱的),以改善适应性,以更好地解决各种下游任务(选择您真正需要的内容)。具体来说,我们合成具有相同样式但内容不同的图像对数据集。基于数据集,我们通过监督设计将两种类型的功能分解。很明显,我们将视觉表示形式直接分为样式和内容功能,内容特征是通过文本识别损失来监督的,而对齐损失使图像对中的样式特征保持一致。然后,样式功能用于通过图像解码器重新构造对应图像的提示,以指示对应方的内容。这样的操作根据其独特属性有效地将功能分解。据我们所知,这是场景文本领域中第一次删除文本图像的固有属性。 我们的方法在场景文本识别,转换和编辑中实现了最新的性能。据我们所知,这是场景文本领域中第一次删除文本图像的固有属性。我们的方法在场景文本识别,转换和编辑中实现了最新的性能。
一群人发现自己处在众多道路的交叉口,位于一个名为“经济”的山谷深处。经过一夜的寻欢作乐,他们不再追求学习所得的知识或冥想所得的启迪,而是环顾四周,看到许多指向各个方向的路标。“我们在哪儿?”一个人问道。“我不太确定,”另一个人说,“我们从哪儿来?”第三个人问:“我们要去哪儿?”“我不记得了,”第一个人说,“如果我知道我们从哪儿来,也许我就能记得我们要去哪儿!”就像所有这样的故事一样,因为他们聪明而深思熟虑,他们坐在地上,深呼吸,试图一起弄清楚他们从哪儿来,他们此刻在哪里,他们想去哪儿。从非常真实的程度上来说,我们就是他们。
摘要:一些物理理论预测,宇宙中几乎所有的大脑都是玻尔兹曼的大脑,即短暂的无形大脑,由于热力学或量子波动而意外地组装。物理学家和哲学家广泛认为这种扩散是不可接受的,因此将其预测作为拒绝这些理论的基础。但是,只有在某些哲学假设的情况下,该预测的推定不可接受的后果才遵循。本文制定了一种策略,以屏蔽物理理论免受Boltzmann Brains的威胁。该策略吸引了关于意识的物理基础的一种现象外部主义的形式。鉴于这种现象外部主义的形式,鲍尔茨曼大脑的增殖证明是良性的。该策略面临心理物理微调问题,但都减轻了宇宙学微调问题,即参加基于物理的解决方案来解决玻尔兹曼大脑问题,并为与时代箭头有关的解释性股息支付了解释性的股息。
研讨会“心灵哲学:老鼠、人类和机器”从更哲学、伦理和道德的角度探讨了与人工智能相关的主题,同时也采用了更全面的方法。讨论的一个方面是,我们如何将不同程度的责任、自由、惩罚归因于未来具有增强能力的人工智能——甚至拥有良知。一个主要障碍是如何正确评估这样的人工智能:它的能力、能力和可能性,以便我们获得正确的结果,从而进一步使我们能够决定和应用正确的政策。在这种情况下,我们讨论了纳格尔的作品“成为蝙蝠是什么感觉” [4]。纳格尔的观点是,如果不能通过自己的眼睛看世界,就不可能正确评价另一个实体。在本文中,我想探讨一下,至少在与该主题相关的大多数社会实际需求的范围内,是否有必要真正能够“从内部体验”以决定并赋予这种人工智能一定程度的自由、责任等。
物理上的不可证明** - 随着系统的随着时间的流逝,有突然的,定性的变化无法以任何方式预测,除了时间向前发展并查看它是否发生,并且在有限的时间内没有答案可以表明它永远不会发生(对于所有系统)。
●疫苗如何工作?●COVID-19疫苗的有效性如何?●什么是疫苗副作用?●疫苗是否可以安全用于特殊人群?●疫苗如何如此迅速地生产?●疫苗是否在不同种群中进行了测试?●疫苗有什么?您可以有过敏反应吗?●疫苗接种后仍需要使用距离预防措施/口罩吗?●疫苗的当前推出和资格是什么?