体育博彩最近在美国的联邦合法化与机器学习的黄金时代相吻合。如果投注者可以利用数据来可靠地预测结果的概率,他们可以认识到博彩公司的赔率何时对其有利。作为体育博彩仅是美国一个数十亿美元的行业,因此确定这种机会可能非常有利可图。许多研究人员将机器学习应用于运动结果预测问题,通常使用准确性来评估预测模型的性能。我们假设对于运动博彩问题,模型校准比准确性更重要。为了检验这一假设,我们在几个季节中对NBA数据进行了训练,并在单个季节进行了投注实验,并使用已发表的赔率进行了培训。我们表明,使用校准而不是准确性,作为模型选择的基础会导致更大的回报(投资回报率为 + 34.69%对-35.17%)和最好的情况( + 36.93%对 + 5.56%)。这些发现表明,对于体育博彩(或任何概率决策问题),校准比准确性更重要。希望增加利润的体育投篮者应基于校准而不是准确性选择其预测模型。
摘要:提高绿色供应链的有效性是最大程度地减少废物,优化资源使用并减少业务运营对环境影响的关键一步。为了实现这些目标,应在整个供应链中实施可持续实践。这样做,企业不仅可以提高环境绩效,而且可以降低成本,提高客户满意度并在市场上获得竞争优势。但是,由于存在竞争特征,不精确的信息以及缺乏知识,因此选择适当的绿色提供商是一个复杂且无法预测的决策问题。线性二磷酸化(LIDF)框架的主要目标是帮助决策者选择最佳的行动过程。本文介绍了几个新型聚合操作员(AOS),即线性双苯胺模糊软性最大含量平均值(LIDFSMA)和线性双苯胺模糊软性软体几何(LIDFSMG)操作员。然后通过一个简单的示例来证明所提出的方法的绿色供应商优化技术,该技术包含线性双磷灰石模糊含量,显示了该方法的实用性和适用性。总体而言,拟议的LIDF框架和AOS可以帮助决策者选择最合适的绿色提供商,从而提高绿色供应链的效率。
分布式能源(DERS)的最佳集成是一个多主体和复杂的组合优化问题,常规优化方法无法有效地解决。本文回顾了现有的DER集成模型,优化和多标准决策方法。此外,引入了最近开发的君主蝴蝶优化方法,以解决分布系统中的DER混合问题。为考虑多个关键绩效目标的DER而言,提出了一个新的多目标DER集成问题,以查找最佳站点,大小和混合(可调度和不可触及)。此外,提出了一种结合君主蝴蝶优化的混合方法,并提出了与理想解决方案相似(TOPSIS)偏爱顺序的技术,以解决配制的大规模多标准决策问题。虽然Meta-Heuristic优化方法生成了非主导的解决方案(创建帕托 - 前),但TopSIS方法选择了许多替代方案的最有希望的结果。通过解决基准33-BUS分布系统上的单个和多目标调度集成问题来验证此方法的有效性,并将性能与现有优化方法进行比较。DER混合的建议模型和优化
为了充分利用需求侧大量未开发的资源,智能家居技术在解决智能电网“最后一英里”问题中发挥着至关重要的作用。强化学习 (RL) 在解决许多连续决策问题方面表现出色,是智能家居控制的绝佳候选。例如,许多研究已经开始研究动态定价方案下的家电调度问题。基于这些,本研究旨在提供一种经济实惠的解决方案,以鼓励更高的智能家居采用率。具体来说,我们研究将迁移学习 (TL) 与 RL 相结合,以降低最佳 RL 控制策略的训练成本。给定基准住宅的最佳策略,TL 可以启动针对具有不同家电和用户偏好的新住宅的策略的 RL 训练。模拟结果表明,通过利用 TL,RL 训练收敛速度更快,并且对于与基准住宅相似的新住宅,所需的计算时间要少得多。总之,本研究提出了一种经济有效的方法来大规模训练家庭 RL 控制策略,最终降低控制器的实施成本,提高 RL 控制器的采用率,并使更多家庭实现电网互动。
At least one of the following: • Ineligible or not interested in advanced heart failure therapies (outpatient inotropic infusion, left ventricular assist device, cardiac transplantation) • Consideration for high-risk procedures (cardiac surgery, thoracic surgery) • Consideration for ICD • Consideration for feeding tube placement, tracheostomy, or initiation of renal replacement therapy • Comorbidity (chronic renal failure,糖尿病,癌症,中风,癌症,人类免疫缺陷病毒,肺纤维化,氧气依赖性慢性阻塞性肺部疾病)•先前的/当前的重症监护/心脏重症监护病房入院或过去一年内的CPR•对“惊喜”的反应负面反应:“如果患者在1年内死亡,您会感到惊讶吗?” (尽管“惊喜”问题在非癌症人群中没有很大的预测价值)•合并症的严重恶化(例如,氧气需求)•分歧,不确定性或道德上的治疗决策问题或道德问题,以解决治疗决策或复苏偏好的偏好•感知的情绪,精神上的障碍或对患者的疾病造成的障碍•复杂性•独立,独立,独立,独立,独立性,独立,认知,认知,认知,认知,认知认知,基于证据的药物
大型语言模型(LLMS)之类的GPT-4已彻底改变了自然语言处理,表现出了显着的语言水平和推理能力。然而,它们在战略多代理决策环境中的应用受到严重限制的阻碍,包括数学推理不佳,遵循说明的困难以及产生错误信息的趋势。这些缺陷阻碍了他们在战略和互动任务中的表现,这些任务需要遵守细微的游戏规则,长期计划,未知环境中的探索以及对对手的举动的预期。为了克服这些障碍,本文介绍了一个新型的LLM代理框架,该框架配备了内存和专业工具,以增强其战略决策能力。我们将工具部署在许多经济上重要的环境中,尤其是双边谈判和多机构和动态机制设计。我们采用定量指标来评估框架在各种策略决策问题中的表现。我们的发现表明,我们的增强框架显着提高了LLM的战略决策能力。当我们强调当前LLM模型的固有限制时,我们通过有针对性的增强功能来证明改进的进步,这表明在LLM应用程序中,在LLM应用程序中,互动式环境的未来发展有前途的方向。
摘要 — 为应对能源结构不断增加和环境不断变化所推动的能源转型,本文提出了一种利用真实微电网数据的能源交易策略。具体而言,我们采用具有优先经验重放 (PER) 的深度 Q 网络 (DQN) 来开发基于 DQN-PER 的能源市场算法,以优化参与本地能源市场 (LEM) 的产消者所获得的效用。执行能源交易行为的问题被表述为一个顺序决策问题,以优化产消者在各种能源交易场景中的效用。这包括能源存储系统 (ESS) 提供的应急性或灵活性、太阳能光伏 (PV) 源的结合以及与电网或 LEM 交易能源的决策。结果表明,在 LEM 中交易能源所获得的收益更高,当纳入更多可再生能源时,收益更高。例如,在带有 ESS 的电网中,LEM 交易的平均收益为 35%,而当 PV 和 ESS 结合在一起时,收益将增加到 54%。索引术语 — 太阳能光伏、储能系统、深度 Q 网络、本地能源市场、深度强化学习、优先经验重放。
多准则决策辅助 (MCDA) 或多准则决策 (MCDM) 方法已受到研究人员和从业人员的广泛关注,用于评估、评定和排列不同行业的替代方案。在为解决实际决策问题而开发的众多 MCDA/MCDM 方法中,按与交易解决方案的相似性排序参考技术 (TOPSIS) 在不同应用领域继续发挥着令人满意的作用。在本文中,我们进行了一项最新文献调查,以对 TOPSIS 应用和方法的研究进行分类。本评论的分类方案包含自 2000 年以来来自 103 种期刊的 266 篇学术论文,分为九个应用领域:(1) 供应链管理和物流,(2) 设计、工程和制造系统,(3) 商业和营销管理,(4) 健康、安全和环境管理,(5) 人力资源管理,(6) 能源管理,(7) 化学工程,(8) 水资源管理和 (9) 其他主题。TOPSIS 学科的学术论文根据 (1) 出版年份、(2) 出版期刊、(3) 作者国籍和 (4) 与 TOPSIS 结合或比较的其他方法进行了进一步解释。我们在评论论文的最后提出了对 TOPSIS 决策未来研究的建议,这些建议既具有前瞻性,又具有实践导向。本文对 TOPSIS 方法提供了有用的见解,并为学术研究人员和从业人员提供了未来在该领域尝试的框架。2012 Elsevier Ltd. 保留所有权利。
理解决策问题和战略互动中的人类行为在经济学、心理学和人工智能领域有着广泛的应用。博弈论为这种理解提供了坚实的基础,其基础是个人旨在最大化效用函数的理念。然而,影响策略选择的确切因素仍然难以捉摸。虽然传统模型试图将人类行为解释为可用行动结果的函数,但最近的实验研究表明,语言内容对决策有显著影响,从而促使范式从基于结果的效用函数转变为基于语言的效用函数。鉴于生成式人工智能的进步,这种转变比以往任何时候都更为紧迫,它有可能通过基于语言的互动来支持人类做出关键决策。我们提出将情绪分析作为这一转变的基本工具,并通过分析独裁者博弈中的 61 条实验指令迈出了第一步,独裁者博弈是一种经济博弈,捕捉了自我利益与他人利益之间的平衡,这是许多社会互动的核心。我们的元分析表明,情绪分析可以解释超越经济结果的人类行为。我们讨论了未来的研究方向。我们希望这项研究能为一种新颖的博弈论方法奠定基础,强调语言在人类决策中的重要性。
抽象的自主系统越来越被期望在对手存在下运行,尽管对手可以仅通过观察系统就可以推断敏感信息,甚至无需与之互动。因此,在这项工作中,我们提出了一个欺骗性的决策框架,该框架不仅隐藏了敏感信息,而且实际上积极地误导了对此的对手。我们将自主系统建模为马尔可夫决策过程,我们考虑使用反向强化学习来推断其奖励功能的对手。为了应对此类努力,我们为政策综合问题提出了两种正则化策略,这些策略积极欺骗了对系统的基本奖励的对手。欺骗的第一种形式是“分歧”,它导致对手就系统的奖励函数的含义得出任何错误结论。第二种形式的欺骗是“针对性的”,它导致对手就系统的奖励函数的含义得出特定的错误结论。然后,我们展示如何在政策优化问题中实施每种形式的欺骗,并在分析中分析欺骗引起的总累积奖励的损失。接下来,我们将这些发展与一个真实的代理和多个诱饵一起在多代理的顺序决策问题中进行评估。我们表明,转移欺骗会导致对手相信最重要的代理人是最小的
