人工智能(AI)的使用极大地影响了商业和社会。ai被定义为“系统能够正确解释外部数据,从此类数据中学习并使用这些学习来通过灵活的适应来实现特定的目标和任务”(Kaplan&Haenlein,2019年),具有通过认可,了解,学习,学习和行动(Dwive,学习和动作)增强甚至更换人类的任务和活动(DWIDEDIEDI ET,20221)。现代AI系统目前与机器学习(ML)绑定。机器学习方法和模型的开发使计算机无需明确编程即可从数据中学习(Mohri等,2018)。机器学习涉及向计算机系统提供大量数据,然后使用统计技术来查找数据中的贴图和关系。基于其学到的数据,系统可以使用此信息来做出预测或采取行动。专家预测,ML和AI将在未来十年显着改变工作的性质(Rahman&Abedin,2021; Tommasi等,2021)。
摘要 在人力资源管理 (HRM) 中使用人工智能 (AI) 进行决策引发了以下问题:员工如何看待这些决策的公平性以及他们是否感受到尊重的待遇(即互动公正)。在这项采用开放式定性问题的实验性调查研究中,我们研究了六个 HRM 职能中的决策,并操纵决策者(AI 或人类)和决策效价(正面或负面),以确定它们对个人互动公正、信任、非人化体验以及对决策者角色适当性的看法的影响。就决策者而言,使用人类决策者而不是 AI 通常会产生更好的尊重待遇感。就决策效价而言,经历积极决策而非消极决策的人通常会产生更好的尊重待遇感。在这些情况发生冲突的情况下,在某些指标上,人们更喜欢积极的 AI 决策而不是消极的人类决策。定性反应表明人们如何识别 AI 和人类决策的公正问题。我们概述了对理论、实践和未来研究的影响。
申请人的论点 申请人认为应提供新的 QME。相关事实和程序背景 申请人声称遭受工伤,并由 AME 评估。AME 确定医疗证据和申请人 1 的陈述不支持对工伤的认定。申请人不同意此结论,但未提供任何可信或其他证据来支持该立场。讨论 复议请求只能来自“最终”命令、决定或裁决。(Lab.Code,§§ 5900(a), 5902, 5903.)门槛问题包括伤害 AOE/COE、管辖权、雇佣关系的存在以及诉讼时效问题。(参见 Capital Builders Hardware, Inc. v. Workers' Comp.Appeals Bd.(Gaona) (2016) 5 Cal.App.5th 658, 662 [81 Cal.Comp.Cases 1122].)本案中的 F&A 是最终命令,需重新考虑。重新考虑请求并未指控该命令、决定或裁决是通过欺诈手段获得的。复议请愿书中没有任何内容声称证据不能证明事实认定,或 WCJ 超越了任何法定权限。申请人只是不同意 AME 并声称 AME 有偏见。但是,申请人没有提供任何证据,无论可信与否,来支持该论点。加州的基本法定要求是,要获得赔偿,伤害必须因工作而产生并在工作过程中产生(参见《劳动法》第 3600 节)。“因工作而产生”这一短语是因果要素,指的是事故的起源。也就是说,必须说工作是造成伤害的原因。对于“因工作而产生”的伤害,它必须是由于工作条件或事件而发生的。也就是说,就业和伤害必须以某种因果关系联系起来。这被称为近因,
求职者比以往任何时候都更愿意使用移动设备随时随地寻找工作。当您的招聘合作伙伴可以通过专门为您的需求和员工的便利而开发的定制系统进行联系时,联系员工的能力将从传统的朝九晚五转变为更现代的全天候。今天的求职者习惯于直观的客户体验,并希望收到新职位列表的通知。这就是为什么您希望在发布职位后立即与员工联系。通过 PeopleReady 的招聘应用程序 JobStack,合格的员工会立即收到通知并有机会选择该职位。订单履行是实时发生的,甚至更好的是,您可以随时随地看到它发生。
编者注:这是对经济创新小组报告《美国工人:迈向新共识》的回应,该报告由亚当·奥齐梅克、约翰·莱蒂耶里和本杰明·格拉斯纳撰写。另一篇由美国企业研究所的迈克尔·斯特兰撰写。二战后头几十年,美国工人的生活大大改善。实际工资飙升,工时减少,工作条件改善。随后,在石油危机和滞胀面前,进步一度受阻,尽管 20 世纪 70 年代的实际收入比传说中要好。但在通货膨胀得到控制并迎来美国的早晨之后,工人发生了什么?我们知道,尽管技术被大肆宣传,但自 1980 年以来,生产率增长速度远低于战后一代。我们还知道收入不平等加剧,因此生产率提高带来的部分收益被工人阶级蚕食,转而流向相对较小的顶层群体。但工人是否真的如许多人所说的那样失去了优势?Ozimek、Lettieri 和 Glasner 的答案是否定的。他们认为,尽管如此,中等工人的实际工资仍然大幅上涨,工作场所也变得更安全、更舒适,工作保障至少也略有改善。那么,他们是对的吗?(是的。)如果他们是对的,为什么这么多人不这么认为?(我有一些想法。)所有这些意味着什么?(“比你想象的要好”并不意味着“足够好”。)工人真的取得了进步吗?Ozimek 等人的研究表明,除非你使用一种众所周知有缺陷的消费者价格衡量标准,否则自 1980 年以来,中等工资明显超过通货膨胀率;即使不考虑新技术带来的肯定被低估的收益,情况也是如此。值得注意的是,对这些未衡量收益的主要争议在于它们在最近几十年是否比过去更大;这些收益的真实性并不存在争议。总体而言,作者对测量问题的讨论是扎实且有说服力的。
出于技术和商业战略原因,人工智能系统不可避免地会用于某些自动化。在技术方面,许多服务和生产任务自动化的一个主要障碍是它们需要灵活性、判断力和常识——而这些在前人工智能形式的自动化中是明显缺失的。人工智能,尤其是生成式人工智能,有可能掌握这类任务(Susskind,2021 年)。过去由熟练的人类操作员执行的大量计算机安全任务现在可以由人工智能机器人执行。同样,生成式人工智能系统可以撰写广告文案、解析法律文件、转录医生的医疗笔记并进行语言翻译。目前尚不清楚这种类型的自动化将对总体生产力增长做出多大贡献,而这些
免责声明 本专著是在国家职业安全与健康研究所 (NIOSH)、国家职业研究议程 (NORA)、医疗保健和社会援助部门计划部分资助的项目下开发的,合同号为 212-2010-M-35609。该项目的目标是提高人们对病患和工作者健康与安全活动之间潜在协同作用的认识。本专著旨在介绍概念和主题,但并非医疗环境中与病患和工作者安全主题及资源有关的所有相关信息的综合来源。本专著并非为遵守 OSHA 法规、州立法要求或联合委员会标准提供指导。读者应参阅列出各自组织要求的源文件以获得有关合规性问题的指导。同样,本文描述的实践建议不应被视为联合委员会的政策或实践建议。尽管许多建议和推荐来自文献和共识,但由于该领域的严格研究数量有限,它们不一定被视为基于证据的。
A. 测量结果显示左心室肥大的临界值。Q. 我觉得我们一直在争论,您认为后壁测量的正常上限是多少?A. 应该是 1.1 厘米。Q. 您在上次作证时说,美国超声心动图学会将其定义为 1.0;对吗?A. 没错。Q. 然后您又提到,低于 1.1 的数值都被视为正常,高于 1.1 的数值则被视为肥大。您还记得吗?A. 记得。Q. 我想我问的是:那么,我们得到的 1.1 测量值确实显示有轻度肥大的证据;对吗?A. 严格来说,您是对的。问:我不想拿枪指着你的头,但我想如果我们根据壁测量结果来诊断左心室肥大,他有左心室肥大,对吗,尽管程度较轻?答:严格来说,你是对的。问:明白了。所以他有证据表明心脏损伤导致了脑血管问题;对吗?答:这导致了脑血管损伤,这是正确的。