Erik Gerdin 和 Rebecca Rifve 由于全球制造业竞争力的提高,各公司都在努力提高其制造系统的效率。新工业革命,工业 4.0,是帮助创建改进的制造系统的必然结果。工业 4.0 中的一个常用工具是模拟,人们可以模拟现实世界系统的虚拟表示中的变化。离散事件模拟 (DES) 是一种在行业内广泛采用的工具,用于在实际实施制造系统变化之前对其进行虚拟测试。然而,需要发现模拟建模在工业中应用的优势、劣势和障碍,以及如何通过使用该技术来展示其价值。全球制造公司 Atlas Copco 位于瑞典 Tierp 的工厂进行了一项案例研究,目的是使用 DES 帮助制造厂改进手动制造系统,以及如何将当前的方法发展为更长期、更可持续的方法。在进行仿真建模之前,已经使用流程映射来促进对系统的更好理解,因为事实证明,手动系统很难以其他方式进行映射。这项研究的结果表明,模拟可以提供以下优势:关于实施系统改进的决策可以有更好的基础;模拟可用于虚拟测试系统更改以防止最终的实施问题;模拟可用作生成长期解决方案的工具。然而,缺点和障碍被确定为管理层的阻力,难以说服人们使用模拟的价值;需要广泛的建模能力;缺乏正确的先决条件使得模拟建模实施更加困难。进一步的研究应侧重于揭示在工业中实施仿真建模的困难和障碍,因为现有文献中尚未广泛讨论这一点。关键词:流程映射、仿真、DES、手动制造系统、装配、改进
补充信息:1. 项目背景和授权。1927 年密西西比河发生毁灭性的洪水之后,国会通过了 1928 年防洪法案 (FCA),授权实施密西西比河及支流 (MR&T) 项目。密西西比河堤坝 (MRL) 项目由 1928 年 FCA 修正案授权,是 MR&T 项目的一部分,可防止密西西比河下游 (LMR) 冲积谷被淹没,该河始于密苏里州开普吉拉多,缓缓流入墨西哥湾。密西西比河堤坝通过将水流限制在堤坝水道内(除非水流进入回水区或被故意转移到洪泛区),保护主要城市和城镇、发达的工业区、宝贵的农田和野生动物栖息地免受项目设计洪水 (PDF) 的侵袭。回水区和泄洪道都是整个 MRL 项目不可或缺的部分。回水区是密西西比河主干堤坝系统在流入河流的主要支流河口处留下缺口的必然结果。在大洪水期间,密西西比河的洪水会倒灌进缺口和/或阻止支流系统的排水流出回水区。MR&T 项目增加了四个回水区。LMR 北部的圣弗朗西斯河回水区和白河回水区,LMR 中部的亚祖河回水区,以及 LMR 南部的红河回水区。这些回水区通常通过使用回水堤坝来运行,这些回水堤坝与 MRL 系统、水控制结构、水泵以及有时的连接水渠相连。圣弗朗西斯河、白河和红河回水区各自都有运行的泵站; Huxtable 泵站建于 1977 年,Graham-Burke 泵站建于 1964 年,Tensas-Cocodrie 泵站建于 1986 年。泄洪道旨在安全地将多余的洪水从堤坝系统的关键河段转移出去,以防止 PDF 超过堤坝设计高程。最初的 MR&T 项目提供了五条泄洪道,分别是 LMR 北部的 Birds Point-New Madrid 泄洪道、LMR 中部的 Boeuf/Eudora 泄洪道以及 LMR 南部的 West Atchafalaya、Morganza 和 Bonnet Carre 泄洪道。Boeuf/Eudora 泄洪道原本会转移
1900 年 12 月 14 日,马克斯·普朗克向德国物理学会提交了他对黑体辐射分布定律的推导,能量量子的概念首次出现在物理学中。考虑到量子理论产生的巨大影响,令人惊讶的是,很少有人关注普朗克迈出引入量子的第一步的推理的详细研究。当然,文献中有许多关于量子理论起源的描述,但几乎所有这些描述在历史上都是不准确的、缺乏批判性的,而且对于普朗克自己的工作及其背景都具有很大的误导性。我们确实有普朗克的回顾性记述[1],这些记述清晰而一致地描绘了他自己对这一发展的看法,还有罗森菲尔德[21]的一篇关于量子理论早期的优秀专著,该书对普朗克的工作进行了恰当的历史背景介绍,但鲜为人知。在我看来,如果我们要充分理解普朗克决定性一步的性质,以及它在多大程度上标志着与先前思想的真正决裂,仍然有两个关键问题必须回答,这两个问题并非毫无关联。第一个问题实际上是一个历史问题:普朗克是否知道瑞利推导出的辐射分布定律是经典物理学的必然结果?大多数作者对这个问题的回答是肯定的,并将普朗克引入量子描述为他对经典理论与实验结果不一致以及经典理论在“紫外灾变”中表现出的内部失败所带来的“危机”挑战的回应。事实上,根本没有这样的危机,或者说根本没有意识到这样的危机。1900 年夏天之前,所有关于黑体辐射的研究都是在不了解古典物理学对这个问题意味着什么的情况下进行的。直到 1900 年 6 月,瑞利勋爵才发表了一份两页的说明,其中首次推导出古典分布定律,瑞利论文的非常严重的意义在相当长一段时间内才被普遍认识到。普朗克在 1900 年和 1901 年的论文中没有提到瑞利的说明,在多年后发表的关于量子理论起源的论述中也没有提到瑞利。然而,普朗克似乎知道瑞利的工作,但他并不认为它比他对大约在同一时间发表的其他几篇论文更有意义,在这些论文中,或多或少地尝试了临时方法。
在两个大脑半球中,我都感知到自己,就神经突触与轴突和树突尖峰之间的接触而言,我嵌入到我的直接环境(右脑)和更大的宇宙(左脑)中;我感知到自己在我的世界中感知和行动,并且生活和存在。这就是全局接受场如何反映在我的主观心理体验中。为了保持一致性,我们应该验证这个讨论是否适合我们的世界(右脑现象),并让我知道我们对此的感受(左脑本体)!这种左右脑双重机制的特点是左脑中的内中枢神经系统 (ICNS) 和右脑中的外中枢神经系统 (OCNS)。ICNS 是本体;OCNS 是现象。现象是空间的、几何连续的,是图像。本体是时间的、逻辑顺序的,是结构。可以明确左右大脑半球中两个区域 BA10 各自的确切作用。左侧大脑 BA10:我,在我的内部城堡和更大的抽象宇宙中,时间意义上的我的本体宇宙。右侧大脑 BA10:我,在我的环境和更大的物理宇宙中,空间意义上的我的本体宇宙。为什么我们需要这种双脑双 CNS?原因是他的 OCNS 针对的是瞬间,即当前时刻,即当前环境中的当前、瞬间场景,而 ICNS 针对的是过去,它为我们提供了一般的经验,即本体宇宙,在此基础上,我们可以对当前的行为做出判断,甚至进行未来预测(红色)。当前时刻(绿色)位于 BA10,过去(蓝色)位于颞叶(内侧和外侧)。未来预测的所在尚不清楚,而这正是本文的主要目的。在这两种情况下,我都在感知我自己,并且我在感知我自己的感知和行动,同时我在我的世界中感知和行动,同时我生活和存在。大脑理论可以解释人类意识,这是对简单解释的简要总结,这种解释指向笛卡尔的著名论断,即我们的存在在于我们的思维,即我们的精神世界。“人是什么”这个问题的答案在于中枢神经系统的逻辑和解剖学。“人是什么”这个问题的最终形而上学答案原来是中枢神经系统逻辑和解剖学的必然结果。基于这个简单的解释,我已经预见到了,实际上,除了标题和结论之外,大部分都包含在我 2011 年在施普林格杂志《科学基础》(FOS)上发表的论文中。我们现在可以说笛卡尔的“我思故我在”是正确的,但是是以一种新的方式。 “意识难题”是由匈牙利哲学家斯蒂凡·哈纳德于 1995 年定义的,并由大卫·查尔默斯于 1999 年提出。应该指出的是,现在从所有实际目的来看,它可以被认为已经解决了,根据我在发表的文章和 ResearchGate 上其他地方报告的工作评论。这是对结果的全面陈述。
课程背景 统计力学解释热力学并能够根据分子计算材料特性。 当热力学刚刚发展起来时,人们并不知道物质是由分子组成的!因此,热力学定律的起源也是未知的。 (1) 热力学并没有告诉我们定义材料的状态函数是什么,E(S,V,N) 还是 F(T,V,N) 还是 G(T,P,N) 还是 H(S,P,N) 等。这些函数是热力学定律的输入数据,必须针对每种材料进行测量。我们不能使用热力学来计算这些函数。 (2) 热力学也没有基本的微观基础——它基于经验假设。第二定律和熵特性的存在基于经验假设,通常是“热量不会自发地从一个物体流向另一个更热的物体。”为什么这是真的?热力学无法回答这个问题。统计力学给出了答案,而且非常简单。1874 年,奥地利物理学家路德维希·玻尔兹曼 (Ludwig Boltzmann) 提出了著名的熵假说,将宏观(热力学)世界与微观世界联系起来:𝑆= 𝑘 𝐵 𝑙𝑛 Γ 。其中 Γ 是可能状态的数量(与约束条件一致),𝑘 𝐵 是玻尔兹曼常数。因此,我们所要做的就是计算分子可能处于多少种状态,这就可以得出熵(从中可以得到所有其他热力学函数,如 F、G、H、Ω )。因此,如果分子是已知的(因此它们的相互作用也是已知的,等等),那么就可以得到所有的热力学函数,并且可以预测所有材料在不同过程中的性质和行为。第二定律 ΔS 宇宙 > 0 是玻尔兹曼假设的必然结果,也是合乎逻辑的。很明显,这一定律完全是材料分子性质的结果。它解释了时间之箭,这是牛顿和量子力学基本自然定律中缺失的,这些定律表现出 t→-t 不变性(想象一下台球桌上两个球的碰撞——如果你倒着播放这部电影,你不会知道,因为牛顿定律仍然适用)。基于分子的工程设计。因此,统计力学提供了微观和宏观、分子世界和材料世界之间的联系。因此,它为现代分子工程时代打开了大门,这是化学工程的现在和未来的核心。统计力学使我们能够设计分子(甚至构建全新的分子,如聚合物),这些分子将构成具有所需特性的新材料,构建利用分子应用于传感和其他新技术的纳米级设备,或了解活细胞中的分子机制,从而指导疾病的治疗和预防。统计分析的计算技术。当然,统计力学是关于统计学。它是统计分析的科学,其概念和工具旨在分析和理解涉及大量变量的复杂随机过程。当今用于解决涉及大量变量的统计问题的计算方法库主要诞生于统计力学领域。如今,这些方法不仅用于分子系统的研究,还用于从大脑神经回路到人工智能再到数据科学的各种应用。