摘要:我们重点分析电子商务背景下商业模式的当前研究,得出相关的研究空白和一系列命题。进行了文献综述,并据此制定了理论框架。在指出文献中的差距后,提出了一系列研究建议。这些建议应基于通过分析和解释从真实案例中收集的数据进行测试。该理论的应用视角是 Amit 和 Zotts 的商业模式框架 (2001) 和商业模式主题 (BMT)“NICE”(新颖性、锁定性、互补性和效率) (2001)。分析围绕商业模式主题在数字商业模式中创造价值和获取价值的解释和可行性展开(电子商务领域目前普遍的研究空白)。结果表明,未来的方向应该研究代表研究空白的不同 BMT 组合(命题 1 至 3)。到目前为止尚未考虑的其他背景(非数字业务)也代表了研究空白(命题 4)。此外,进一步综合文献可能导致考虑将“产品市场策略”(Amit 和 Zott,2008)作为一种新理论来应用和测试数字业务中的价值创造和获取(命题 5 和 6),同样从进化的角度。我们询问这种组合如何影响希望在全渠道环境中进行数字化转型的公司的绩效。在本研究中,这些公司如何创造新价值以及如何保持新价值至关重要。我们试图解释这些价值驱动因素如何跨时间发挥作用,即使在不同的环境条件下也是如此。这意味着围绕商业模式参考文献的现有学术框架将取得进步。能够确定哪些 BMT 和产品市场策略 (PMS) 组合尚未经过测试将对公司有利。它可以为从传统 BM 转向数字 BM 的零售公司提供适当的信息。此外,它将能够成功运行并随着时间的推移保持稳定。
提供 A 或 B,证明归约过程可以用类似的方式定义。消去规则提供的命题恰好是引入规则所要求的命题这一性质可以分解为两个性质,即不多也不少(在 [10] 中称为“和谐”和“逆和谐”)。我们还可以想象有些演绎规则不能验证这个反转原理,要么是因为消去规则提供了引入规则所不需要的命题,要么是因为引入规则需要消去规则所没有提供的命题,或者两者兼而有之。当消去规则提供的命题不是引入规则所要求的全部命题时,我们称该演绎规则为不充分的。当消去规则提供的命题是引入规则所要求的,但引入规则所要求的一些命题没有由消去规则提供时,我们称它们为过度的。一个具有不充分演绎规则的连接词的例子是 Prior 的 tonk [18],其引入规则
我们设计了一种陈述性记忆机制,它尽可能与神经科学和认知科学的发现保持一致,同时不违反证明合理性的数学逻辑要求。其主要特点如下。 寄存器和内容可寻址存储器中存储的值仅限于已证明的命题。由于信息处理的最小单位(一个已被证明的命题)有自足的意义,记忆管理(比如忘记不必要的知识)就变得更容易。另一个优点是,即使在合成过程中执行不完整的程序,数据结构也不太可能崩溃。由于程序执行的顺序也将变得更加灵活,因此在时间允许的情况下规划未来的行动将变得更加容易。 每次进行推理时,都会自动将已证明的命题添加到已证明命题集合中,即将信息写入联想记忆机制。目的是减轻程序负担,提高程序综合的性能。 我们计划提供两种类型的陈述性知识回忆:自动回忆和主动回忆。 (目前仅实现了主动回忆。)事件回忆并不涉及重现某一特定时刻大脑的整个内部状态,而是仅重现一个已证实的命题。这使得信息处理能够实现,例如从一个命题推断另一个命题。 回忆陈述性知识的机制也被设计成不破坏证明的合理性(第 3.7 节)。 陈述性知识分为证实命题(情景记忆)和语义记忆。 Pro5Lang 中的语义记忆是多个已证明命题的压缩和抽象版本,旨在使用 [5]2 中描述的方法通过归纳推理来获取。 (然而,在当前的实现中,语义记忆也是从一开始就手动提供的。)由于存在过度概括和获取不正确的语义记忆的可能性,因此有必要提供单独的机制来选择和忘记不正确的语义记忆。这将在第 5 节中讨论。 由于记忆空间有限,即使正确的陈述性知识也会被适当地遗忘。即使不时随机选择和删除已证明命题集合中的元素,图 2 和 Pro5Lang 中的算法也不会失去健全性。然而,证明可能需要更长的时间并且可能变得越来越难以完成。为了避免降低证明的效率,需要使用一些启发式方法来选择需要遗忘的知识。 (目前实施中尚未采取此类措施。)
我们研究了由奖励机器编码的任务的加强学习问题。在环境中的一组属性(称为原子命题)中定义任务,并由布尔变量代表。文献中常用的一个不切实际的假设是,这些命题的真实价值是准确的。在实际情况下,这些真实价值观尚不确定,因为它们来自不完美的传感器。同时,奖励机可以很难明确地建模,尤其是当它们编码复杂的任务时。我们开发了一种增强学习算法,该算法会渗透到奖励机器,该奖励机器在学习如何执行它的同时编码了基本任务,尽管命题的真实价值是不确定的。为了解决此类不确定性,该算法对原子命题的真实价值保持了概率估计;它根据环境探索到达的新感官测量结果来更新此估算。另外,该算法维护了一个假设奖励机,该奖励机是对编码要学习的任务的奖励机器的估计。在代理商探索环境时,该算法根据获得的奖励和原子命题的真实价值的奖励和提议来更新假设奖励机。最后,该算法对假设奖励机的状态使用Q学习过程来确定完成任务的最佳策略。我们证明,该算法成功地侵入了奖励机,并渐近地学习完成各自任务的政策。
在我的演讲中,我想根据《逻辑哲学论》区分两种从基本命题中构造真值函数的方法。第一种方法是“操作方法”,包括连续应用 N 运算符,这是 TLP 6 中给出的“命题的一般形式”的核心。但是,还有第二种方法,可以称为“组合方法”,也出现在《逻辑哲学论》中,但不太为人所知。所有真值函数都可以通过两步程序实现,该程序使用特定的逻辑哲学论真值论证、真值可能性和真值条件架构。对于给定数量的 n 个基本命题(作为真值论证),第一步将形成这 n 个基本命题及其否定的所有可能的连接。例如n= 2,其中 p 和 q 是基本数,这给出了 4 种可能的组合 p.q、~p.q、p.~q 和 ~p.~q(真值可能性)。在第二步中,现在构造所有可能的子集,这些可能性通过析取组合起来。这样就可以构造所有真值函数,这种方法等同于通过 N 运算符构造。从数学的角度来看,这个过程等同于 n 个生成器的“自由布尔代数”,生成 2 𝑛 所谓的代数“原子”,最后生成 22 𝑛 代数元素。这个自由布尔代数反过来同构于命题逻辑的 Lindenbaum-Tarski 代数。在我的演讲中,我想通过讨论这种结构的属性来解释(有限命题逻辑部分)Tractarian Logic,并展示一些与赫兹配置空间(和玻尔兹曼相空间)的联系,这些联系可用于更好地理解维特根斯坦的逻辑空间。最后,我想表明,基于这种观点,可以给出基本命题的明示例子。
话虽如此,这篇文章的引用比传统文章少得多,而且大多数都与文本中的相关“命题”无关。正如 ChatGPT 在下面描述其自身操作时所述,它基本上将所有内容用作来源;如果一切都是来源,那么如何引用任何东西呢?因此,许多引用不一定指向对任何给定“命题”的支持,而是指向 Frye 教授关于类似主题的著作——毕竟,他的查询产生了回应——或其他可以进一步告知读者所提出问题的评论来源。是否值得问一问,这些是否是“命题”,或者仅仅是一些具有某种有意排序的符号的组合,几乎就像成功完成的数独的英语版本?可能吧。文章后半部分的引用也减少了;此时,ChatGPT 似乎开始蚕食和/或重复使用自己的答案,因此提供引用似乎 ...不合适。
最近,我们提出了语言学的哥本哈根解释(或量子语言、测量理论),它对描述经典系统和量子系统都具有很强的威力。因此,我们认为量子语言可以看作是科学语言。此外,我们证明了某些逻辑(称为量子模糊逻辑)在量子语言中是有效的。一般来说,逻辑和时间不太相容。然后,本文的目的是表明量子模糊逻辑与时间配合得很好。也就是说,量子模糊逻辑的优势在于能够清楚地区分蕴涵和因果关系。事实上,我们将证明“如果没有人被骂,就没有人会学习”这个命题的反命题(或“约翰总是饿”的否定命题)可以用量子模糊逻辑来写。然而,日常语言中的“时间”有各种方面(例如,时态、主观时间)。因此,不可能用量子语言的“时间”来理解日常语言的所有“时间”。
