Liang关键词检索结果

IEEE 进化计算汇刊,第 30 卷,第 2 期,2025 年 4 月

IEEE Transactions on Evolutionary Computation, Volume 30, Issue 2, April 2025

1) Efficient Meta-Heuristic Approach for the Multiobjective Green p-Hub Center Routing Problem作者:E. M. Ibnoulouafi, T. Aouam, M. Oudani, M. GhoghoPages: 449 - 4632) A Multi-Fidelity Genetic Algorithm for Hyperparameter Optimization of Deep Neural Networks作者:A. R. Moya, S. Ventura 页数: 464 - 4783) 通过分

IEEE 模糊系统汇刊,第 34 卷,第 4 期,2026 年 4 月

IEEE Transactions on Fuzzy Systems, Volume 34, Issue 4, April 2026

1) 客座社论:模糊大型模型专题:桥接不确定性和创造力作者:H. Yu、Q. Liu、W. Pedrycz、J. Lu 页数:1039 - 10402) FMA-Net:用于细粒度图像识别的模糊相互注意网络作者:H. Huang、J. -H.李,S.-K。 Oh, Z. Fu, J. H. Yoon, W. Pedrycz 页数:1041 - 10523) 通过大型语言模型对权衡总成本和客户满意度 VRP 中的上下文进行建模作者:H. -W.丁,Z.-S。 Chen, Y. Yang, W. DingPages: 1053 - 10634) 通过模糊隶属聚合审计大型语言模型中的部分数据集使用作

复杂与智能系统,第 12 卷,第 3 期,2026 年 3 月

Complex & Intelligent Systems, Volume 12, Issue 3, March 2026

1) 智能协作:用于机器人细胞动态重新调度的预测神经网络作者:Matthias Bues、Maurizio Faccio、Benjamin Wingert2) 基于仿射非负协作表示的模式分类作者:He-Feng Yin、Xiao-Jun Wu、Zi-Qi Li3) 新生区块链的 51% 攻击漏洞:全面综述作者:Buti Sello、Jianming Yong、陶晓辉4) 资源受限设备上的高效多语言垃圾邮件检测:Gemma 3、Qwen 3 和 Llama 3.2 模型的 QLoRA 微调比较分析作者:Hamza Rauf、Umair Khan、Aurang Zaib5) 一种基于动态辅助任务构

取决于通勤时间的在家工作频率与生产力评估之间的关系 - 生产力和幸福感之间权衡的可能性 -

通勤時間で異なる在宅勤務頻度と在宅勤務の生産性評価の関連-生産性とウェルビーイングのトレードオフの可能性-

■摘要 在本文中,我们使用 Nissay 研究所 (2025) 的独立调查数据,按通勤时间分析了在家工作与在家工作时的生产力评估之间的关系。因此,尽管在家工作的频率和总体生产力评级之间没有明确的关系,但当考虑到通勤时间时,却证实了不同的趋势。具体来说,在通勤时间为30分钟至90分钟以下的人群中,在家工作的频率越高,越容易感受到在家工作效率的提高;而在通勤时间小于30分钟的人群中,频率最高的是每周2至4天;而在长时间通勤时间为90分钟或以上的人群中,在家工作的频率越高,越不可能感受到在家工作效率的提高,而越可能感觉到在家工作的效率有所提高。生产力下降。这些结果表明,远程办公和生产力评估之间的关系

在家工作生产力评估与育儿之间的关系 - 根据人生阶段不同的生产力评估 -

在宅勤務の生産性評価と子育ての関係-ライフステージで異なる生産性評価-

■摘要本文采用Nissay研究所进行的一项原创调查来分析在家工作与在办公室工作时的生产力评估与有无儿童及其年龄之间的关系。结果表明,在家工作和生产力评估之间的关系并不统一,并且根据生命阶段的不同而有所不同。尤其是在有孩子与家中同住的情况下,更频繁在家工作的受访者比例更有可能感受到生产力的提高,这一趋势在最小孩子为学龄前(0-6岁)的受访者中尤为明显。另一方面,观察到了一种不同的模式,没有孩子与他们住在一起的员工由于混合工作而在家工作时往往具有更高的生产力评级。此外,评估趋势因性别和年龄组而异,表明在家工作的生产力评估可能与多种因素有关,包括与育儿、工作自由裁量权和职业阶段相关的时间限制。 ■目

识别法学硕士的大规模互动

Identifying Interactions at Scale for LLMs

了解复杂机器学习系统的行为,特别是大型语言模型 (LLM),是现代人工智能的一项关键挑战。可解释性研究旨在使决策过程对模型构建者和受影响的人类更加透明,这是迈向更安全、更值得信赖的人工智能的一步。为了获得全面的理解,我们可以通过不同的视角来分析这些系统:特征归因,它隔离驱动预测的特定输入特征(Lundberg & Lee,2017;Ribeiro et al.,2022);数据归因,将模型行为与有影响力的训练示例联系起来(Koh&Liang,2017;Ilyas 等人,2022);以及机械可解释性,它剖析了内部组件的功能(Conmy 等人,2023;Sharkey 等人,2025)。在这些观点