在过去的一年里,人工智能机器人 ChatGPT 以其回答问题、撰写论文甚至编写软件的能力让人们眼花缭乱。在美国听说过 ChatGPT 的 13 至 17 岁青少年中(大多数),19% 表示他们曾用它做作业。ChatGPT 和 Bard、Meta AI 等其他聊天机器人都基于大型语言模型(简称 LLM)。这些模型通过输入大量来自互联网的文本,经过训练可以编写出非常像人类的语言。虽然这些文本包括路易丝·格丽克的诗歌、奥普拉最爱的礼物指南和《纽约时报》的文章,但正如我们所知,它也包括虚假、诽谤、暴力和恐怖内容。作为一种安全措施,大型聊天机器人的创建者还训练它们拒绝提供不适当或有害的信息,比如如何窃取某人身份的分步说明。但训练并非万无一失,人们已经利用了聊天机器人的弱点。在本期中,物理学和资深作家 Emily Conover 深入探讨了计算机科学家为使聊天机器人走上正轨所做的努力(第 18 页)。Conover 解释说,这是一个巨大的挑战,部分原因是这些 LLM 仍然很新,科学家们才刚刚开始了解聊天机器人的弱点。随着 LLM 融入日常产品或承担地铁系统等任务,挑战将变得更大。现实情况是,尽管 LLM 有时听起来像人类,但实际上不是。在阅读 Conover 的文章时,我学到了一个有趣的术语“随机鹦鹉”。华盛顿大学的计算语言学家 Emily Bender 和同事用它来解释,虽然 LLM 可以将单词编译成散文,但他们不理解他们“写”的内容的含义,因此无法理解它是否不准确或不道德。他们只是在鹦鹉学舌。真正的鹦鹉和研究它们的科学家可能会对这个术语感到反感。鹦鹉以能够模仿人类的语言而闻名。现在,科学家们发现鹦鹉可以做更多的事情,包括使用工具、制作工具集、解决复杂的难题,有时甚至能理解我们说的话。正如特约撰稿人 Erin Garcia de Jesús 报道的那样,有些鹦鹉可以克制自己,放弃现在的小奖励,以便以后获得更大的奖励(第 24 页)。长期以来,许多科学家低估了鹦鹉——甚至认为它们很笨——因为它们的大脑不像人类和其他灵长类动物的大脑那么大、那么复杂。最近,科学家们发现,鹦鹉的小脑袋里挤满了神经元,具有与灵长类动物大脑类似的特征。鹦鹉智力的许多谜团仍有待解决,包括鸟类究竟是如何以及为什么进化出这些惊人的能力的。但找到答案最终可能有助于我们更好地理解我们自身智力的起源,以及我们遇到的其他形式的智慧。现在,我们可以惊叹于鹦鹉的欢乐、它们的美丽,以及它们似乎在用工具打开和吃海芒果时所获得的乐趣。——南希·舒特,主编
钢、陶瓷或塑料餐具最容易保持清洁。红头或黄头鹦鹉通常是更好的宠物 COROZAL - 鹦鹉是巴拿马的热门宠物。笼子需要每周用溶液清洁一次,如果在幼年时期购买。幼年鹦鹉更容易训练。它们的寿命从 15 到 25 年不等,因此主人可以使用浓度为 1 液量盎司至 1 1/2 品脱的氯漂白剂。年龄较大的鸟类可能不那么容易受到影响,应该知道如何正确照顾它们的鸟类。水。训练并可能在以后引起问题。此外,如果鸟儿会展翅翱翔,那么笼子应该足够大,以便鸟儿可以自由活动。购买鹦鹉时,笼子应该适合鸟儿大部分时间独处,最好买两只。铁丝笼或铁笼是最好的。大型鸟。有几种鹦鹉可供选择。鹦鹉也需要游乐区,以便它们每天锻炼。科罗萨尔兽医治疗机构的上述官员表示,不同类型的鹦鹉之间存在一些差异。黄头鹦鹉、红头鹦鹉、矮鹦鹉或金刚鹦鹉。红头鹦鹉通常不像黄头鹦鹉那样爱说话。 笼子应远离嘈杂的噪音、气体、角颏鹦鹉和金刚鹦鹉是其中几种,它们有时会发脾气。远离烟雾和其他气味。让鸟儿远离电视流行的鹦鹉品种。另一方面,最常见的鹦鹉不像黄头鹦鹉那样吵闹。黄头鹦鹉因为频率会损害它的神经系统。黄头和红头金刚鹦鹉通常很少见,因为头喜欢说话。
工业信息学(CSIC-加泰罗尼亚理工大学)在最近于拉科鲁尼亚举行的西班牙信息学大会 (CEDI2024) 上发表了演讲,该大会汇集了西班牙信息学领域的主要科学协会。在这次会议上,Torras 博士讨论了“辅助机器人的多个方面和挑战”。在她的研究所设计和编程的机器人已经遇到了非常艰巨的挑战,以确保可靠、个性化的沟通,尊重护理人员和患者的价值观和尊严,以及保证身体接触所需的严格安全措施,例如,在帮助行动不便的用户自己穿衣或进食时。这些“社交”机器人的设计方式是,除了满足其基本目标外,它们还精妙地保持了人机交互。它们通过使用机器人收集和更新的有关每个患者的个性、品味和特定行为进展的信息来实现这一点,并通过编程口头或文字表达来根据存储的患者资料来表达诸如喜爱、喜悦或愤怒等感受。它们会用名字或昵称来称呼每个人,并说“安东尼奥,振作起来,你做得很好,我相信我们今天会做得更好”,“尤兰达,你必须再努力一点,因为如果其他人做到了,你也会做到的”,“你还要点水吗?”,“祝你今天过得愉快”等话。机器完全听不懂这些表达,就像鹦鹉一样,但它会在正确的时间说出这些话,并在它面前说出它所称呼的人的名字,所有这一切都符合已编程的内容。它们假装有情感共鸣,这有助于它们自主行为,从而提高它们在社会动态环境中的独立性和适应性 [1]。
我们进入了一个快速发展的人工智能和机器学习时代,大型语言模型(LLM),视觉语言模型(VLM)和生成性AI越来越多地与我们的生活交织在一起。这些强大的工具具有彻底改变无数领域的潜力 - 从医疗保健到交通,教育到娱乐,我们的工作空间再到房屋。,但没有它的危险就不会产生这种巨大的潜力。我们目睹了由于缺乏鲁棒性,效率和公平性,AI/ML模型未达到我们的期望。例如,微软的AI聊天机器人的“ tay”开始掠夺攻势和不适当的内容,成为AI对虚假功能的敏感性的惊人例子。同样,自动驾驶汽车已经显示出对对抗扰动的脆弱性 - 从战略上放置在停车标志上的简单贴纸欺骗了这些AI模型,以将其错误分类。此外,当面对分配变化时,许多AI模型都步履蹒跚,无法将其从训练到现实世界的条件推广到现实状况,这证明了AI经常记录的斗争,从而识别出代表性不足的群体的面孔。这些模型的效率是增殖AI应用时代的另一个关键问题。由于计算资源和数据隐私是重大限制,我们需要精益且具有数据效率的模型。此外,随着AI模型继续影响医疗保健,招聘和执法等关键领域的决策,公平已成为不可谈判的要求。最近的变压器模型尽管具有令人印象深刻的功能,但由于其对计算资源的需求和广泛的培训数据而臭名昭著,这使我们迫切需要有效的模型设计,数据利用和学习过程。长期公平性尤其具有挑战性,因为这些AI系统经常会遇到随着时间的流逝而不断发展的数据分布,这可能会导致其公平标准偏离。