收到:2023年1月9日接受:2023年5月10日,摘要增加的竞争导致企业在简化供应链流程,尤其是在制造业领域中相互竞争。供应链管理(SCM)决定了工业业务流程的成功,因为它调节了产品流量的整合,性能和信息。然而,供应链过程中出现了一些问题,例如生产队列中缺乏协调,预测趋势产品中的分支以及次优的生产能力。为了解决这些问题,信息技术的作用对于实施决策支持系统(DSS)至关重要。本研究旨在开发DSS以改善供应链流程。使用的研究方法是通过问卷调查的定性方法的极端编程(XP)。研究过程涉及收集数据,定义边界和概率以及设计,编码和测试系统。作为最终步骤,通过分发调查以获得有效的满意结果来进行评估。这项研究生产的DSS在营销,会计和生产过程中具有适用性。DSS在家具制造业中的应用可以帮助管理资源的运输,优化战略网络并协助供应链过程中的决策。
(1,2,3,4,5,6,7,8)Hydro-泰国曼谷信息学院,泰国电子邮件watin@hii.or.th摘要洪水是泰国的主要灾难之一。尤其是在2011年,泰国遇到了半个世纪后最严重的洪水。洪水在泰国造成了1.43万亿泰铢的经济损失。灾难准备和响应措施高度取决于准确,及时的预测可用性。Hydro-信息学研究所(HII)和DHI丹麦开发了泰国洪水预测的决策支持系统,覆盖了该国大约73%的地区。系统每天运行运行,并提前7天提供洪水预测信息。The flood forecasting system is an integrated real-time multifunctional forecasting system including data import and linkage with web API that can easily be linked any data to the system, data processing and quality control is an automated process to ensure reliable input data for models, flood forecast models (hydrological model, 1D and 2D hydrodynamic models) has been integrated seamlessly with the forecast system and applied data assimilation (DA) using observed从水位或排放站的数据,以提高基于Web的模拟应用程序的准确性,用于模型的交互式可视化,以图形,时间序列,表格,地图和能力的形式比较基于云的解决方案上的任何仿真。决策支持系统为整合数据和模型提供了有希望的机会,以评估洪水影响,支持决策,提高洪水管理的效率并减轻洪水损失。简介洪水管理变得更加可管理和有效。关键字:决策支持系统;洪水预测;洪水管理;泰国1。
摘要:研究人员已经提出了几种基于机器学习和数据挖掘技术的自动诊断系统来预测心力衰竭。然而,研究人员并没有密切关注预测心脏病患者的死亡率。为了解决这个问题,我们开发了一个用于预测心脏病患者死亡率的临床决策支持系统。为所提模型的实验目的收集的数据集包含 55 个特征,总共 368 个样本。我们发现数据集中的类别高度不平衡。为了避免机器学习模型中的偏差问题,我们使用了合成少数过采样技术 (SMOTE)。在平衡数据集中的类别后,新提出的系统采用 χ2 统计模型对数据集中的特征进行排序。排名最高的特征被输入到优化的随机森林 (RF) 模型中进行分类。使用网格搜索算法优化 RF 分类器的超参数。使用多种评估指标验证了新提出的模型 ( χ 2 _RF) 的性能,包括准确度、灵敏度、特异性、F1 分数和受试者工作特征 (ROC) 曲线。仅使用数据集中的 10 个特征,提出的模型 χ 2 _RF 就实现了 94.59% 的最高准确度。提出的模型 χ 2 _RF 将标准 RF 模型的性能提高了 5.5%。此外,还将提出的模型 χ 2 _RF 与其他最先进的机器学习模型进行了比较。实验结果表明,新提出的决策支持系统优于使用相同特征选择模块 ( χ 2 ) 的其他机器学习系统。
摘要:近年来,自动虚假信息检测方法备受关注,因为虚假信息会对社会凝聚力产生严重影响。虚假信息会影响选举结果、疾病传播(阻止采取适当的对策)和盟友的形成,正如俄罗斯入侵乌克兰所表明的那样。因此,不仅要考虑文本作为媒介,还要考虑录音、视频内容和图像以打击虚假新闻。然而,自动事实核查工具无法同时处理所有模态,并且在嵌入信息背景、讽刺、反讽以及没有明确真值的情况下面临困难。最近的研究表明,协作的人机系统比单独的人类或机器学习方法更能成功地识别虚假信息。因此,在本文中,我们简要而全面地介绍了当前针对文本、音频、视频、图像、多模态组合的自动虚假信息检测方法,它们在智能决策支持系统 (IDSS) 中的扩展以及人类协作的形式和角色。在现实生活中,此类系统越来越多地被记者应用,根据两种最突出的用例类型,即每日新闻档案和调查性新闻,为人类角色设定规范。
Laura Wingfield博士通用外科手术与移植手术Nuffield手术科学系牛津大学6607室,6级John Radcliffe医院Headington Headington Oxford,Ox3 9du United Kressement of United Kembore:Laura.wingfield@nds.ac.ac.ac.ac.ac.ac.uk
© 作者 2023。开放存取 本文根据知识共享署名 4.0 国际许可进行授权,允许以任何媒体或格式使用、共享、改编、分发和复制,只要您给予原作者和来源适当的信任,提供知识共享许可的链接,并指明是否做了更改。 本文中的图片或其他第三方资料包含在文章的知识共享许可中,除非资料的致谢中另有说明。 如果资料未包含在文章的知识共享许可中,且您的预期用途不被法定规定允许或超出允许用途,则需要直接从版权所有者处获得许可。 要查看此许可证的副本,请访问 http://creativecommons.org/licenses/by/4.0/ 。知识共享公共领域贡献豁免(http://creativeco mmons.org/publicdomain/zero/1.0/)适用于本文中提供的数据,除非数据来源中另有说明。
人工智能(AI)已广泛应用于医学各个领域,如影像诊断、病理分型、治疗方案选择、预后分析等,尤其在肿瘤影像辅助诊断中,人机交互的配合已趋于成熟。但AI作为新兴技术应用于临床决策的伦理问题尚未得到充分支持,因此基于AI技术的临床决策支持系统(CDSS)在临床实践中还未像影像辅助诊断系统一样充分实现人机交互。目前全球范围内使用和推广的CDSS包括Watson for Oncology、中国临床肿瘤学会人工智能分会(CSCO AI)等。本文对AI在CDSS中的应用进行综述并阐明其原理,分析AI在肿瘤决策中的应用难点,为今后AI在肿瘤决策中的应用提供参考方案。
摘要 尽管数据、模拟技术和预测分析的可用性不断提高,但目前尚不清楚用户是否会信任决策支持系统 (DSS),以及在何种条件下会信任。DSS 旨在通过更准确的预测和建议,帮助用户在专业任务中做出更明智的决策。这项混合方法用户研究通过分析 DSS 用户界面中集成可靠性指示对首次使用不确定情况下的流程管理的潜在影响,为信任校准研究做出了贡献。十位专门从事建筑数字工具的专家被要求在一个改造项目场景中测试和评估两个版本的 DSS。我们发现,虽然用户表示他们需要完全访问所有信息才能做出自己的决定,但 DSS 中的可靠性指示往往会让用户更愿意做出初步决策,用户会根据指示的可靠性调整他们的信心和依赖性。DSS 中的可靠性指示还增加了主观有用性和系统可靠性。根据这些发现,建议在可靠性指示设计中,从业者考虑在 DSS 用户界面中显示多个粒度级别的可靠性信息组合,包括可视化,例如交通信号灯系统,并为可靠性信息提供解释。进一步的研究方向
人们经常宣扬“大数据”与人工智能 (AI) 的结合,认为将其应用于医疗决策时能带来宝贵的健康益处。然而,负责任地采用基于人工智能的临床决策支持系统在个人和社会层面都面临着多重挑战。其中一个特别令人担忧的特点是可解释性问题,因为如果医生不知道(或无法知道)算法得出特定输出的方式,则可能导致多重挑战,包括无法评估输出的优点。这种“不透明性”问题引发了人们对医生是否合理依赖算法输出的质疑,一些学者坚持可解释性的重要性,而另一些学者则认为没有理由对人工智能有要求,而对医生没有要求的东西。我们认为这两种观点都有可取之处,但我们发现,为了阐明可解释性在临床实践中的基本功能,从而阐明其在人工智能临床应用背景下的相关性,需要进行更深入的探讨。在本文中,我们通过研究可解释性在临床医学中的要求来探索可解释性,并区分可解释性对当前患者和未来患者的功能。这种区别对于可解释性的短期和长期要求具有影响。我们强调透明度在可解释性中的作用,并确定语义透明度是可解释性问题本身的基础。我们认为,在日常临床实践中,准确性足以作为临床决策的“认识论依据”,而要求可解释性(科学或因果解释)的最令人信服的理由是,通过建立更强大的世界模型,有可能改善未来的护理。我们认为临床决策的目标是尽可能多地提供最佳结果,并且发现——只要努力探索科学解释并继续改善未来患者的医疗保健,准确性就足以作为对当今患者进行干预的依据。
人们经常宣传“大数据”和人工智能 (AI) 的结合在应用于医疗决策时具有带来宝贵健康益处的潜力。然而,负责任地采用基于 AI 的临床决策支持系统在个人和社会层面都面临着若干挑战。引起特别关注的特征之一是可解释性问题,因为如果医生不知道(或无法知道)算法得出特定输出的方式,这可能会导致多重挑战,包括无法评估输出的优点。这种“不透明性”问题引发了人们对医生是否合理地依赖算法输出的质疑,一些学者坚持可解释性的重要性,而另一些学者则认为没有理由要求 AI 做医生不需要的事情。我们认为这两种观点都有可取之处,但我们发现,为了阐明可解释性在临床实践中的潜在功能,以及它在临床应用人工智能背景下的相关性,需要进行更细致的分析。在本文中,我们通过研究可解释性在临床医学中的需求来探索可解释性,并区分可解释性对当前患者和未来患者的功能。这种区别对可解释性的短期和长期要求具有影响。我们强调了透明度在可解释性中的作用,并认为语义透明度是可解释性问题本身的基础。我们认为,在日常临床实践中,准确性足以作为临床决策的“认识论依据”,而要求科学或因果解释意义上的可解释性的最令人信服的理由是通过建立更强大的世界模型来改善未来的护理。我们认为临床决策的目标是尽可能多地提供最佳结果,并且发现——只要揭示科学解释的努力继续改善未来患者的医疗保健,准确性就足以为当今的患者提供干预。