摘要 由于最近人工智能技术 (AIET) 的普及,拟人化概念(技术中的人类相似性)越来越受到研究人员的关注。研究人员研究了拟人化如何影响用户对 AIET 的感知、采用和持续使用。然而,研究人员尚未就如何在 AIET 中概念化和操作化拟人化达成一致,这导致了不一致的研究结果。因此,需要全面了解 AIET 背景下拟人化研究的现状。为了对拟人化文献进行深入分析,我们回顾了 35 项实证研究,重点关注概念化和操作化 AIET 拟人化及其前因和后果。根据我们的分析,我们讨论了潜在的研究差距并为未来的研究提供了方向。
深度学习的最新进展主要基于“大数据用于小任务”范式,在该范式下,大量数据用于训练单个狭窄任务的分类器。在本文中,我们呼吁进行一次彻底颠覆这一范式的转变。具体而言,我们提出了“小数据用于大任务”范式,其中单个人工智能 (AI) 系统面临发展“常识”的挑战,使其能够用很少的训练数据解决各种任务。我们通过回顾综合了机器和人类视觉方面的最新突破的常识模型来说明这一新范式的潜在力量。我们将功能性、物理性、意图、因果关系和效用 (FPICU) 确定为具有类似人类常识的认知 AI 的五个核心领域。当将 FPICU 视为一个统一的概念时,它关注的是“为什么”和“如何”的问题,超越了理解视觉的主流“什么”和“哪里”框架。它们在像素方面是不可见的,但却推动了视觉场景的创建、维护和发展。因此,我们将它们称为视觉的“暗物质”。正如我们的宇宙不能仅通过研究可观测物质来理解一样,我们认为,如果不研究 FPICU,就无法理解视觉。我们展示了如何观察和应用 FPICU 来解决各种具有挑战性的任务,包括工具使用、规划、效用推理和社会学习,从而展示了这种观点在开发具有人类常识的认知 AI 系统方面的强大作用。总之,我们认为下一代 AI 必须采用“暗”的人类常识来解决新任务。
自然语言指令并不能解决所有问题,实际上会带来新的挑战。当今的AI在代码和电子邮件中进行了自动完整的互动,以及无处不在的聊天机器人和迅速的盒子互动,恳请用户“请求”他们想要的任何东西 - 非常不足以使用户沮丧和近距离观察到任何机制。In part that is because people ascribe humanlike capability to systems that take humanlike input, but then struggle when those systems respond in non-human ways to the breadth of that humanlike input: In Why Johnny Can't Prompt [12] , we show how humans interpretLLMs' humanlike outputs as though they have the same meaning they would if uttered by a human (e.g., a cooking bot saying “I know because I've tasted it”) and treat LLMs as though they拥有人类的偏好(例如,说“请”有礼貌,而不是简短的说明而不是提供广泛的例子)。在放牧AI猫[11]中,我们展示了如何在模块化和关注点等方面的基本工程原则之间的互动,仅使用自然语言指导就可以做些什么。一起,这些论文展示了人类直觉是如何通过LLMS的自然语言界面误用的,同时使人类误入歧途,并掩盖了这些模型的显着能力。
马特·卡特米尔 波士顿大学人类学系 摘要:我们将意识归因于其他人类,因为他们的解剖结构和行为与我们相似,并且他们对主观体验的口头描述与我们相符。非人类哺乳动物具有某种程度上类似人类的行为和解剖结构,但没有口头描述。因此,他们的感知能力受到笛卡尔式的怀疑。机器人“思维”缺乏类似人类的行为和解剖结构,因此无论它们生成什么句子,它们的感知能力通常都会被忽视。无脊椎动物既缺乏神经相似性,也缺乏语言。虽然在做出道德判断时,假设某些无脊椎动物具有感知能力可能是最安全的,但这样认为的令人信服的理由必须等待对主观体验的客观因果解释。
广泛定义的人工智能(AI)是计算机对某种形式的人类相互作用进行建模的能力。ai作为一个概念可以追溯到第三世纪的中国,这是一种像人类的机器的发明,似乎是为了执行简单的人类式任务。1以来,自1950年代以来,人工智能以盲目的速度发展,因为计算机世界中的人类创新飙升。从社交媒体到资金到社会学,AI对社会留下了明显而深远的影响。 在泌尿外科领域,AI(最广泛的定义)在实践中每天都在使用外科机器人进行前列腺切除术和肾切除术,但AI也在诊断,评分,治疗,治疗和生存可预测性中找到了癌症的住所。 1在美国,估计有81,800例肾细胞癌(RCC)病例,大约15,000例死亡。 2在识别肾脏肿块时,医生需要准确,可靠的方法来确定肿瘤亚型,等级,阶段,对药物治疗的反应性和从社交媒体到资金到社会学,AI对社会留下了明显而深远的影响。在泌尿外科领域,AI(最广泛的定义)在实践中每天都在使用外科机器人进行前列腺切除术和肾切除术,但AI也在诊断,评分,治疗,治疗和生存可预测性中找到了癌症的住所。1在美国,估计有81,800例肾细胞癌(RCC)病例,大约15,000例死亡。2在识别肾脏肿块时,医生需要准确,可靠的方法来确定肿瘤亚型,等级,阶段,对药物治疗的反应性和
尚不清楚大型语言模型(LLM)是否在语言使用中发展了类似人类的特征。我们将Chatgpt和Vicuna进行了12个预先注册的心理语言实验,从声音到对话。Chatgpt和Vicuna分别在12个实验中分别复制了人类的语言使用模式。模型将不熟悉的单词与不同的含义相关联,取决于其形式,继续访问最近遇到模棱两可的单词的含义,重复使用的最近的句子结构,将因果关系归因于动词语义的函数,并访问了不同的含义,并根据对话者的身份访问了不同的含义并检索了不同的单词。此外,chatgpt而不是维库纳(Vicuna),非文字解释的令人难以置信的句子可能因噪音而损坏,提出合理的推论以及句子中被忽视的语义谬误。最后,与人类不同,这两种模型都不喜欢使用较短的单词来传达信息较少的内容,也没有使用上下文来解决句法歧义。我们讨论了这些融合和差异如何由变压器体系结构产生。总的来说,这些实验表明,在人类语言处理的许多方面,LLM(和Vicuna等LLM)在人类语言处理的许多方面都像人类一样。
然而,尽管中国可能在人工智能研究方面做出更多贡献,并在面部识别等人工智能的一些重要子领域处于领先地位,但它并非在所有领域都处于领先地位。政治风险咨询公司欧亚集团的分析师保罗·特里奥洛表示,在通用人工智能(具有更广泛的、类似人类思维能力的人工智能)研究方面,微软公司、Alphabet Inc. 的谷歌等美国大公司显然处于领先地位。美国科技巨头在人工智能方面投入了数不清的资金,他们将其用于推荐引擎、定向广告和自动过滤淫秽或其他被禁图片和视频。
近年来,人工智能 (AI) 是否可以被视为有意识,因此应该通过道德视角进行评估的问题浮出水面。在本文中,我们认为,人工智能是否有意识并不像人工智能在人机交互过程中可以被用户视为有意识这一事实那么令人担忧,因为这种意识的归属可能会对人机交互产生延续效应。当人工智能被视为像人类一样有意识时,人们对待人工智能的方式似乎会延续到他们对待他人的方式中,这是因为激活的模式与与人类交互时激活的模式一致。鉴于这种潜力,我们可能会考虑规范我们对待人工智能的方式,或者我们如何构建人工智能以引起用户的某些类型的对待,但不是因为人工智能天生具有感知能力。这一论点侧重于像人类一样的社交行为人工智能,例如聊天机器人、数字语音助手和社交机器人。在本文的第一部分,我们通过人机交互、人机交互和人工智能代理心理学方面的文献,为人工智能意识感知与对人类行为之间的延续效应提供了证据。在论文的第二部分,我们详细介绍了图式激活机制如何使我们能够测试意识感知作为人机交互和人人交互之间延续效应的驱动因素。本质上,将人工智能视为像人类一样有意识,从而在交互过程中激活一致的思维图式,是人工智能行为和感知的驱动因素,可以延续到我们对待人类的方式中。因此,人们可以将类似人类的意识归因于人工智能这一事实值得考虑,对人工智能的道德保护也值得考虑,无论人工智能固有的意识或道德地位如何。
就本文档而言,AI 是指一种基于机器的系统,它可以超越既定的结果和场景,并可以模拟类似人类的感知、认知、规划、学习、交流或身体动作。对于给定的一组人类定义的目标,AI 可以做出影响真实或虚拟环境的预测、建议或决策。AI 算法是一种计算机程序,它已在一组数据上进行训练以识别某些类型的模式。AI 使用各种类型的算法来分析和学习这些数据,其总体目标是提供模仿人类决策和问题预测的解决方案。与开发和编码具有完成任务的特定指令的传统软件程序不同,AI 寻求学习识别模式并做出预测。