当被要求领导我们的企业社会责任委员会时,您欣然挺身而出。企业社会责任对您来说意味着什么?我对企业社会责任有着浓厚的兴趣。我的父母分别是小学教师和儿科护士,他们每天都在回馈我成长的社区,对一代又一代儿童及其家庭的身心健康产生了积极影响。我亲眼目睹了我们的生活、爱情和工作方式的影响。在法学院,我发现自己对环境和代理法有着天生的倾向,并攻读了环境法硕士学位。在此期间,我在一家国际冶金公司的工作也影响了我的世界观,因为我开始了解社区和环境问题在多大程度上影响了世界对企业的看法和评判。当有机会帮助建立 Vibrantz 的企业社会责任计划时,我觉得这是一个将我的技能和兴趣用于更大目标的绝佳机会。我坚信我们的员工、子孙后代和环境都需要并值得我们考虑。
我们还将继续探索全球经济“绿化”为我们的业务带来的诸多机遇,同时努力有效识别和减轻新出现的气候相关风险对我们业务的影响。我们的产品对于客户应对世界快速发展和严苛的可持续发展需求和期望的挑战至关重要。应用范围从更轻、更省油、寿命更长的喷气发动机,到可再生和其他无碳能源生产,再到污染控制和废水处理。在我们的气候相关财务披露工作组 (TCFD) 报告中,您可以深入讨论这些机遇以及气候变化对我们业务的风险。您可以在 https://www.atimaterials.com/aboutati/Pages/safety-sustainability.aspx 找到 2024 年更新版。
作为位于维也纳第11区Leberstraße122的空置办公大楼的明智利用的一部分,我们将其提供给了WEGA特遣部队。WEGA使用我们的建筑物进行射击,战术,人质解放和反恐练习。WEGA特遣部队是联邦首都维也纳的奥地利警察的特殊部门。WEGA主要是具有增加风险程度的操作所必需的。Wega也是奥地利最古老的特别警察部门。为您的机会在空旷的建筑物中与我们一起训练,Wega组织了一次现场演示,访客可以在这里体验Wega的专业精神。
摘要组织越来越多地实施算法决策AIDS来建议管理决策。我们使用建议(人类和非人类)背后的经理动机,尤其是分享责任与提高决策精度的动机。我们在销售预测环境中与经验丰富的经纪人进行了在线实验,并发现当他们无法(能够)与顾问分担责任时,经理们专注于提高决策准确性(分享责任)。此外,管理人员更希望与非人类顾问分享责任,除非他们认为算法是社会胜任的。因此,结果表明,管理者不仅有动机来最大程度地减少预测错误,而在接受建议时减少个人责任。,我们通过在接受(非)人类建议时强调经理的机会主义动机来为文学做出贡献。我们的发现也对实践具有重要意义。具体来说,公司在实施算法的决策辅助工具时应意识到经理的机会性建议动机。
本文全面概述了目前关于人工智能 (AI) 在日常生活中的好处和问题的学术研究现状。本文所介绍的文献研究结果为利益相关者提供了有用的指导,他们正在研究建立负责任的人工智能 (AI) 治理实践,以便我们未来的智能社会是安全、包容和可持续的。本文综合了文献综述,将各个学科的点点滴滴联系起来,最终形成了多利益相关者安排中负责任人工智能的模型理论框架。根据文献综述的结果,本文提出了两个有趣的讨论。这些讨论反映了人工智能与社会这一主题不可避免的多学科复杂性。讨论 1 通过分解复杂的概念并提供清晰的解释,提供了有关道德考虑成为人工智能治理焦点的原因的有用见解。同样,讨论 2 强调了负责任地采用人工智能需要多利益相关方的方法。总体而言,本文通过系统地构建论据来说明为什么多利益相关方的方法对于解决人工智能的社会问题至关重要,为正在进行的关于负责任的人工智能的讨论和辩论做出了贡献。
作为我们的ESG计划的一部分,TTEC监督最佳实践,并从主题专家那里获得建议,以不断地告知该公司在其业务中使用的可持续实践来减少其碳足迹,帮助打击气候变化,并优化我们如何使用资源来创造价值。TTEC ESG优先事项受我们董事会的监督和指导。
抽象的是自由意志与道德责任之间关系的任何一种,例如我们是否可以在没有前者的情况下拥有后者,如果是的话,必须满足哪些条件;无论人们想到人工智能的代理人是否可能符合这种情况,人们仍然面临以下问题。道德责任的价值是什么?如果我们承担道德责任是成为道德责备或赞美的目标的问题,那么对它们的商品是什么?关于“机器道德”的辩论通常会涉及人工代理人是否或可能在道德上负责,并且通常被认为是理所当然的(遵循Matthias 2004),如果他们不能,他们对道德责任系统和相关商品构成威胁。在本文中,我通过询问该系统的商品(如果有的话)以及面对人工智能的代理人会发生什么,挑战了这一假设。我会争辩说,他们既不引入道德责任制度的新问题,也不会威胁我们真正(应该)关心的事情。我以有关如何确保这一目标的建议结束了本文。
随着人工智能(AI)继续彻底改变商业景观,其部署的道德含义引起了极大的关注。本文在公司责任的背景下对AI与道德之间的交集进行了全面审查。将AI集成到业务流程中需要对负责任的AI实践有深入的了解,以确保技术进步与道德标准和社会价值观保持一致。本综述中探讨的第一维是AI算法和决策过程中透明度的重要性。采用AI技术的企业必须优先考虑在利益相关者之间建立信任的透明度,以确保决策过程是可以理解和负责的。道德考虑也扩展到了偏见和公平性的问题,促使需要多样化和包容性数据集以防止歧视性结果。AI领域的公司责任范围超出了技术方面,涵盖了AI实施的更广泛的社会经济影响。评论重点介绍了考虑AI对就业,不平等和可及性的影响的重要性。敦促企业采用道德准则,优先考虑员工和社会的福祉,从而减轻AI对就业动态和社会结构的潜在负面影响。此外,本文探讨了围绕数据隐私和安全性的道德考虑,强调了负责任的数据处理实践的重要性。随着企业积累大量数据,必须优先考虑保护个人隐私权的优先级,从而加强AI应用程序的道德基础。这项全面的审查强调了企业在公司责任框架内将负责任的AI实践整合在一起的需求。通过优先考虑透明度,公平性和道德数据实践,组织可以在AI实施的复杂地形中导航,同时确保与社会价值观和道德标准保持一致。对AI和业务道德的综合对于促进可持续和负责任的技术未来至关重要。
教育技术。我们在互联网使用中认识到的潜在好处与所涉及的最大风险密不可分。面对这一责任,个人要求根据他们作为学生、教师、家庭或工作人员的不同角色,在数字环境中保障他们的权利和自由。本范围界定审查选择并分析了过去十年(2013-2023 年)的 54 项理论和实证研究,确定了主要研究主题为在线环境中的隐私保护、数字安全或网络安全权利以及数字教育权利。审查强调需要指导公民数字教育的努力,因为权利和责任的法律规范是必要的,但还不够。本文还就接受度、局限性和对教师培训的影响进行了论证。关键词:数字权利;隐私;互联网使用;公民教育;道德;教育技术在教育方面的数字化和责任:Un estudio de alcance Resumen: Los estudios sobre los derechos digitales en la educación han llamado la atención y han proporcionado un marco para lainvestigación, la politica y la práctica en lainvestigación educativa en el教育技术中心。使用互联网可以带来巨大的好处,这对我们来说是不可分割的。在此之前,我们的责任是保护数字环境中的权利和自由,以及校友、教授、家庭或个人的权利。我们对最近十年(2013-2023)中的 54 个研究项目进行了选择和分析的修订,确定了保护隐私和数字安全的主要主题网络安全和数字教育。对东方国家数字教育的必要性进行修订,以解决法律法规和责任的必要性,但仍不够。该文件提出了专业人士的接受、限制和影响的论据。 Palabras-clave: derechos digitales;隐私;使用互联网;城市教育;埃蒂卡;教育技术和数字化教育责任:Um estudo de escopo Resumo: Os estudos sobre os direitos digitalna educação ganharam atenção e forneceram um Quadro para aigação, a politica ea prática nainvestigação educacional没有 domínio da tecnologia educativa。使用互联网可以带来最大的好处。面对这样的责任,个人的责任和自由,不受数字环境的影响,不受学生、教授、家庭或职能的限制。本范围审查选择并分析了过去十年(2013 年至 2023 年)的 54 项理论和实证研究,确定了主要研究的主题,例如网络环境中的隐私保护、数字安全或网络安全权利以及数字教育权利。分析强调,需要加大对公民数字教育的力度,因为权利和责任的法律规范是必要的,但还不够。该文件还提出了关于教师培训的接受度、局限性和影响的论点。
10991468,0,从https://onlinelibrary.wiley.com/doi/10.1002/mde.4074下载,通过测试,Wiley Online Library [22/01/2024]。有关使用规则,请参见Wiley Online Library上的条款和条件(https://onlinelibrary.wiley.com/terms-and-conditions); OA文章由适用的Creative Commons许可