一名联邦法官驳回了拉斯维加斯赌场酒店房间价格的尖端反信任案,该案件因使用算法定价而造成了法院。5月8日,美国地区首席法官内华达州的米兰达·杜(Miranda du)在得出结论之后批准了拉斯维加斯集体诉讼,认为普通人未能合理地指控被告之间的“默契协议”。这部分是因为他们不需要接受Cendyn组的定价建议。她还提出了12月28日的命令的区别,该命令拒绝驳回针对软件提供商台面的类似主张,并指出:“在这种情况下,投诉包括指控通过算法交换竞争对手之间的原本机密信息,而本案没有。” “因此,仅使用商业实体的人工智能使用算法定价,而没有任何关于compitors之间的任何协议(无论是明确的还是隐性的)的指控,以接受
唤起——人类的反应。信息本身是相当静态和无生命的。它只是存在于多媒体计算机屏幕上、教科书、杂志、电影、电视、CD、报告、信件、电子邮件、传真、备忘录等中——所有这些都在等待被解读,等待被赋予意义——由人们来解读。正如休·麦凯在他的《好的倾听者》一书中所解释的那样,尽管信息确实代表着意义,但它从来都不是意义本身。意义是一种精神的东西,而且永远都是心照不宣的,也就是说,“在我们心中”。相同的信息几乎总是会在我们每个人身上激发(或唤起)不同的意义。我们不应该对此感到惊讶。两个人(即使是同卵双胞胎)很少会对经历赋予相同的意义——即使这些经历表面上看起来完全相同——比如阅读同一篇报纸文章、看同一部电影、参加同一场政治集会或参加同一场会议。相同的信息总是会在我们心中激起不同的意义,因为我们的兴趣、动机、信仰、态度、感受、相关性等总是个性化的,而且几乎每分钟都在变化。
本文从知识创造和知识转移的角度探讨了人工智能在营销中的陷阱和机遇。首先,我们讨论了“高阶学习”的概念,这一概念将人工智能应用与传统的建模方法区分开来,在关注深度神经网络的最新进展的同时,我们还介绍了其底层方法(多层感知器、卷积和循环神经网络)和学习范式(监督、无监督和强化学习)。其次,我们讨论了营销经理在其组织中实施人工智能时需要注意的技术陷阱和危险,包括目标函数定义不明确、学习环境不安全或不切实际、有偏见的人工智能、可解释的人工智能和可控制的人工智能等概念。第三,人工智能将对可以自动化且几乎不需要可解释性的预测任务产生深远影响,我们预测,如果我们不解决人工智能模型和营销组织之间隐性知识转移的挑战,人工智能将在许多营销领域无法兑现其承诺。 © 2020 直销教育基金会,Inc. dba Marketing EDGE。保留所有权利。
各国政府都在研究可解释人工智能 (XAI) 的潜力,以应对人们对人工智能算法决策不透明性的批评。尽管 XAI 作为自动化决策的解决方案很有吸引力,但政府面临的挑战的棘手性使 XAI 的使用变得复杂。棘手性意味着定义问题的事实是模棱两可的,并且对解决此问题的规范标准没有达成共识。在这种情况下,使用算法可能会导致不信任。尽管有许多研究推动 XAI 技术的发展,但本文的重点是可解释性的策略。使用三个说明性案例来表明,公众通常不认为可解释的数据驱动决策是客观的。这种背景可能会引起强烈的动机去质疑和不信任人工智能的解释,结果遭到了社会的强烈抵制。为了克服 XAI 固有的问题,提出了针对决策的策略,以使社会接受基于人工智能的决策。我们建议采取可解释的决策和流程、与社会参与者共同制定决策、从工具性方法转向制度性方法、使用竞争性和价值敏感算法,并调动专业人士的隐性知识
传统上,工程伦理被视为仅属于贫血领域。在本章中,有人认为工程伦理可以从社会学方法中学到很多东西。这一点尤其重要,因为所有工程师都是隐性的社会学家。他们对自己居住,社交和工作的社会世界形成了一种看法 - 他们认为他们的工程文物将被部署。对形式社会学的更多了解使工程师能够以更跨学科和多维的方式将其实践背景,理解问题并产生工程思想。社会学还可以帮助我们了解技术伦理(以及工程师的作用)如何以及为什么(文化)和时间(历史上)以及社会系统的结构变化以及思想历史的变化。社会学为我们提供了与学生合作时解构简单观点的工具,例如技术决定论和信念技术设计是价值中立的。本章介绍了我们认为的三种最关键的社会学方法及其对工程伦理教育的潜在贡献:批判理论,后殖民理论以及科学,技术和社会(STS)研究。
数据分析和人工智能中的大数据和技术进步的可用性导致越来越多的公司将算法定价纳入其业务中,以帮助做出定价和其他战略决策。定价算法可以通过允许公司在做出业务决策时实时分析众多变量和大量数据,从而改善竞争,最大化效率并最大程度地降低成本。但是,美国政府反托拉斯的执行者和私人原告越来越关注算法定价软件可以对竞争产生的影响,并指控在某些情况下,在某些情况下,使用算法的价格可以在竞争中促进竞争或更轻松地派遣挑选的公司或更轻松地派遣挑选的公司或更轻松地与Press的挑战或互动。其中一些论点正在测试美国反托拉斯法律的范围,法院将需要成为这种经常复杂且快速发展的技术合法性的最终仲裁者。同时,考虑将定价算法纳入其业务的公司应了解与之相关的法律风险。
虽然对框架问题的定义尚无共识,但我们可以说,这是一个围绕如何让人工智能记住几乎所有成年人在特定情境下都拥有的“隐性知识”的问题展开的问题。想象一下,一个在餐厅为顾客提供餐点和饮料的服务员机器人。这个机器人必须学习一系列服务所需的知识和动作。这个机器人需要掌握多少知识才能在实际环境中充分提供服务?首先,“往玻璃杯中倒太多水,水就会溢出”这一知识是服务所必需的。“当我们移动一个放着玻璃杯的托盘时,玻璃杯也会随着托盘一起移动”这一知识也是必要的,因为没有这样的知识,机器人就无法同时移走用过的玻璃杯和托盘。此外,我们必须输入这样的知识,即当机器人移动玻璃杯时,玻璃杯中的液体也会随之移动。然而,我们不必输入液体永远不会因托盘移动产生的摩擦热而蒸发的知识,因为这个知识与机器人的服务任务无关。
摘要。为链接预测而开发的知识图谱嵌入模型 (KGEM) 学习知识图谱中实体的向量表示,称为嵌入。一个常见的默认假设是 KGE 实体相似性假设,该假设指出这些 KGEM 在其嵌入空间内保留了图的结构,即将图中的相似实体彼此靠近。这一理想特性使 KGEM 广泛应用于下游任务,如推荐系统或药物再利用。然而,实体相似性和嵌入空间相似性的关系很少得到正式评估。通常,KGEM 是根据其唯一的链接预测能力进行评估的,使用基于排名的指标,如 Hits@K 或平均排名。本文挑战了流行的假设,即图中的实体相似性本质上反映在嵌入空间中。因此,我们进行了大量实验来衡量 KGEM 将相似实体聚类在一起的能力,并研究了潜在因素的性质。此外,我们研究不同的 KGEM 是否表现出不同的相似性概念。数据集、预训练嵌入和代码可在以下位置获取:https://github.com/nicolas-hbt/similar-embeddings/ 。
进化生物学提供了一个统一的理论,用于测试有关激素与人感知之间关系的假设。人们的感知通常从性选择的角度受到关注。但是,由于人的感知是受激素调节的套件中的一个特征,因此单变量方法不足。在这一观点文章中,定量遗传学被视为一个重要但未充分利用的框架,用于测试本文中的进化假设。我们注意到当前有关精神遗传学的文献中的默认假设,这些假设危及到迄今为止的发现的解释。作为各种特征多种流形的调节因子,激素介导了一系列功能之间的权衡。激素多效性还提供了相关选择的基础,该过程在激素介导的套件中对一个性状进行选择会在其他特征中产生选择。该体系结构为激素介导的套件内的性和自然选择之间的冲突提供了基础。由于其在人的感知,精神疾病和生殖生理学中的作用,性激素雌激素被强调为这里的典范。讨论了该框架对人感知演变的含义。对荷尔蒙介导的套件中特征的选择的经验量化仍然是文献中的重要差距,具有阐明精神疾病的基本本质的巨大潜力。
在本社论中,我们重新审视 Alavi 和 Leidner (2001) 的概念视角,从知识管理 (KM) 的角度考虑生成人工智能 (GenAI) 对组织的影响。我们研究 GenAI 如何影响知识创造、存储、传输和应用的过程,强调这项技术带来的机遇和挑战。在知识创造方面,GenAI 增强了信息处理和认知功能,促进了个人和组织的学习。然而,它也带来了人工智能偏见和人类社会化程度降低等风险,可能会边缘化初级知识工作者。对于知识存储和检索,GenAI 快速访问庞大知识库的能力显著改变了员工与知识管理系统的交互。这引发了关于平衡人类获得的隐性知识和人工智能生成的显性知识的问题。本文还探讨了 GenAI 在知识转移中的作用,特别是在培训和培养学习文化方面的作用。挑战包括对人工智能的过度依赖和传播敏感信息的风险。在知识应用方面,GenAI 被视为提高生产力和创新的工具,但知识误用、知识产权和道德考量等问题至关重要。最后,本文主张采取平衡的方法将 GenAI 集成到知识管理流程中。它主张将 GenAI 的能力与人类洞察力相协调,以有效管理当代组织中的知识,确保技术进步和道德责任。
