神经网络回归已有 10 年。在这一周年纪念日的推动下,我们对人工智能 (AI) 采取了整体视角。认知任务的监督学习得到了有效解决——前提是我们拥有足够高质量的标记数据。然而,深度神经网络模型不易解释,因此黑盒和白盒建模之间的争论成为了焦点。注意力网络、自我监督学习、生成建模和图神经网络的兴起拓宽了人工智能的应用空间。深度学习也推动了强化学习作为自主决策系统核心构建块的回归。新人工智能技术可能带来的危害引发了透明度、公平性和问责制等社会技术问题。控制人才、计算资源以及最重要的数据的大型科技公司在人工智能领域的主导地位可能会导致极端的人工智能鸿沟。尽管最近人工智能驱动的对话代理取得了戏剧性和出人意料的成功,但自动驾驶汽车等备受瞩目的旗舰项目的进展仍然难以捉摸。必须注意缓和围绕该领域的言论,并使工程进展与科学原理保持一致。
我们发现感知在接受度中起着重要作用:仅仅知道一段内容是由人类生成的,就会提高其感知质量。然而,在我们的环境中,我们没有发现强有力的算法厌恶证据。这有点令人惊讶,因为之前的研究表明人们在主观任务中如何表现出算法厌恶,例如评估一个笑话有多好笑(Castelo 等人,2019 年)。我们的研究表明,对更传统的人工智能形式得出的结论可能不适用于生成式人工智能。未来的研究可以进一步调查人们如何看待 genAI 的性能并改进人机交互协议。
研究表明,人工智能 (AI) 技术对学生的写作技能有积极影响,但印尼研究人员尚未触及这一领域。本研究旨在绘制感知、障碍和建议,以优化使用人工智能在印尼语学术写作教学中的作用。本文以印尼中爪哇省三所高中为例进行研究。它采用了定量和定性数据。研究人员使用李克特量表呈现的问卷收集数据,然后通过移动即时通讯访谈进行深入访谈。研究结果表明:(1)基于人工智能的学习工具可帮助学生进行学术研究,特别是在规划步骤中确定和发展主题,以及在起草步骤中制定论文草稿;(2)基于人工智能的学习工具被认为具有灵活性,尽管它不能满足学生在写作过程中所需的所有必需品;(3)学生有兴趣在学术写作课上使用人工智能技术,这样学习过程就不会枯燥乏味。尽管人工智能已在学术写作课中使用,但工具并未在所有指标上对学生学术论文的质量产生积极影响。使用人工智能有几个障碍,即(1)需要更多可用功能,特别是在编辑印尼语文本时,以及(2)相反,功能仍需优化。这些是优化基于人工智能的学习工具的建议,即(1)添加编辑印尼语文本的功能,包括拼写、措辞和句子结构,以及(2)提高人工智能素养,以便能够最佳地探索和利用现有功能。这项研究尚未涵盖在基于人工智能的学习工具的帮助下检查书面产品的原创性和准确性的可能范围,这可能会成为未来研究人员的重点。
20 多个天使投资,专注于包括 AI 在内的数据业务 早期风险投资基金的投资者 丰富的并购经验,特别是在私募股权领域 担任律师、董事和总法律顾问的债务和股权融资经验 个人投资于其他资产类别,包括房地产、对冲基金、大宗商品和加密货币
摘要 本文旨在更加具体、准确地理解甜甜圈经济学、其模型和思想。在此过程中,本文全面描述了甜甜圈经济学及其与可持续发展目标的联系。然后,本文探讨了甜甜圈经济学的哲学背景,阐明了其依赖于人类尊严的存在原理。此外,本文还以四个人工智能应用为例,展示了甜甜圈模型如何解决它们的使用及其带来的挑战。从这一测试练习中可以看出,根据其哲学背景,甜甜圈模型需要另一个限制。因此,除了可能突破生态上限或社会基础的经济活动外,侵犯人类尊严但未突破任何界限的活动也与甜甜圈模型不相容。这一补充建议在甜甜圈经济学模型中得到了概念性的体现。
在 2006 年发表于《神经影像》杂志的一项研究中,西班牙的研究人员要求受试者阅读与强烈气味相关的单词和中性单词,同时用功能性磁共振成像 (fMRI) 机器扫描他们的大脑。当受试者看到西班牙语单词“香水”和“咖啡”时,他们的初级嗅觉皮层会亮起来;当他们看到表示“椅子”和“钥匙”的单词时,这个区域保持黑暗。大脑处理隐喻的方式也得到了广泛的研究;一些科学家认为,像“艰难的一天”这样的修辞手法太熟悉了,以至于它们被简单地视为单词而已。然而,上个月,埃默里大学的一组研究人员在《大脑与语言》杂志上报告说,当他们实验室中的受试者阅读涉及纹理的隐喻时,负责通过触觉感知纹理的感觉皮层变得活跃。诸如“这位歌手有着天鹅绒般的嗓音”和“他的双手坚韧如革”这样的隐喻能够激发感觉皮层,而“这位歌手有着悦耳的声音”和“他的双手有力”等含义相符的短语却没有激发感觉皮层。
4 网络风险是一个日益重要的风险来源,不仅对单个金融机构如此,对整个金融体系也是如此。过去几年,网络事件数量有所增加,而且成本也越来越高。金融体系的几个特点使其特别容易受到网络风险的影响。尽管许多金融机构已经提高了网络弹性,但网络事件仍会不断发生,并有可能对金融部门造成重大损害。因此,从宏观审慎的角度看待网络风险也很重要。
在设计和部署嵌入式人工智能系统时,信任已成为首要考虑因素,其他以人为本的人工智能价值观包括可解释性、透明度和公平性。然而,由于这些术语的多面性和多学科性,它们可能具有各种依赖于上下文的含义。因此,将这些价值观转化为设计可能是一个挑战 [6]。信任也不例外。了解人机信任是什么以及哪些因素会影响它,主要来自于受控的实验室实验或对嵌入式人工智能系统原型的研究 [3, 7]。然而,人们对在现实世界的人工智能产品和服务的开发和部署中如何解决人机信任问题知之甚少。人工智能从业者,即参与该领域系统设计和部署不同方面的人,其角色从人工智能开发人员到项目经理和政策制定者,可以阐明人机信任的作用以及在现实组织环境中考虑的人机信任因素。他们的见解可以更好地详细说明不同利益相关者在人机信任方面的需求、挑战和经验。在这篇未完成的论文中,我们研究了在开发和部署真实 AI 系统时如何解决人机信任问题。我们对在各种风险敏感环境(金融、法律、管理)中开发和部署嵌入式 AI 决策支持系统的 AI 从业者进行了一系列采访。我们特别关注这些系统,因为人类对 AI 的信任对它们尤其重要,因为它们具有潜在的社会影响。这些采访是一个更大的项目的一部分,该项目围绕 AI 从业者的人机信任经验,但在本工作论文中,我们报告了前 5 位受访者的初步调查结果(见表 1)。具体来说,我们对参与者对人机信任在其实践中的作用以及在 AI 辅助决策背景下建立信任时要考虑哪些因素的问题的回答进行了初步分析。为了进行结果分析,两名独立审阅者至少阅读了两次所有访谈,并按照主题分析方法 [1] 独立识别了兴趣短语和代码。他们一起比较并最终确定了所选短语的列表,并对代码的表述进行了微调。通过对代码进行分组,审阅者确定了三个主要主题:1)人与人工智能之间的信任在开发和设计嵌入人工智能的决策支持系统中的作用,2)人与人工智能之间的信任在人工智能从业者的工作中的重要性,以及 3)人工智能从业者认为哪些因素有助于建立对其系统的信任。
