人权和环境的尽职言会正迅速成为企业,政府和民间社会的基石,他们寻求推动负责任的商业和可持续发展。通过根据国际标准应用基于风险的尽职调查,企业可以更好地识别和解决对People和Planet的不利影响。然而,越来越多的政策和法规网络可能会令人畏惧,特别是对于发展中国家的中小型企业和利益相关者,他们经常面临资源和促进挑战,以及跨国公司的竞争要求。
瓦格宁根大学和研究教育愿景(WUR)的日期为2017年。[1]从那时起,瓦格宁根大学一直保持其“最佳荷兰大学” [2]的地位,并且该愿景的大部分内容仍然成立:高质量的科学知识仍然是我们教育的基础,丰富的学习环境非常重要,灵活性是我们教育的关键特征。我们有充分的理由为我们的学生,我们的讲师以及毕业生在社会中扮演的角色感到自豪。
感谢您有机会提供对欧洲模型草案(“ EMC”)零草案的反馈。瑞典企业的联邦拥有60,000家成员公司,由48个业务和/或雇主协会组织。欧盟公司可持续性尽职调查指令的目的(在下面的“ CSDDD”或“指令”中)至关重要。同时,该指令是一种新型的,前所未有的立法类型,将自愿框架转变为具有制裁和民事责任的约束性法律,这将是欧盟委员会和国家立法者的挑战,以确保规则可以在实践中可行并实现有意义的影响。公司需要明确的指导,以实施有意义的措施,这在这样做时也可以进行适当的灵活性并确定行动的优先级。即使与欧盟委员会有关的任何模型条款和指导都是自愿的,但它们可能会成为事实上的标准,对公司具有实质性实践影响。因此,我们希望借此机会向EMC提供我们的评论。简而言之,我们认为公司将需要明确的指导和支持,允许适当的灵活性,以确保有意义的遵守CSDDD,并使得在实践中应用规则并确保实现指令的目标是可能的。我们对EMC的一般性评论已在下面简要概述。还指出,即将到来的有关自愿模型合同条款的委员会指导的目的是为公司提供支持以促进合规性。与他们的目的相反,我们担心拟议的EMC(草稿)过于全面,并且会导致广泛的非价值为公司增加工作,这将不可能以有意义的方式以实践方式实施,因此,这将不会受益于预期的保护人权和环境。为了为公司提供帮助,模型条款必须不那么复杂且不那么广泛,并且指导和模型条款不得添加到CSDDD要求中。我们认为,将需要另一种形式的指导和模型从句,我们并不是在详细评论EMC。
虽然负责任的人工智能的概念越来越流行,但从业者和研究人员可能经常难以在自己的工作中描述负责任的实践。本文介绍了乌迪内大学 Damiano Spina 博士举办的为期四天的负责任人工智能博士级课程。该课程采用实践方式,旨在说明负责任的人工智能概念在研究中的应用。该课程使用基于现有 IR 研究的案例研究,探讨了负责任的人工智能概念,如定位、参与式研究、公平性、多样性和道德。该课程吸引了 23 名参与者,包括在线和面对面的参与者,包括不同阶段的博士生、博士后研究员、教授和学术人员。它包括四场会议和五场互动小组活动。在 23 名与会者中,20 人(87%)积极参与活动,14 人(61%)完成了期末调查。我们相信本文讨论的实践活动可以帮助从业者和教育工作者设计信息检索课程的负责任的人工智能内容。
集团董事会的主要目的是通过共同监督公司的事务来确保公司的安全和繁荣,同时满足其股东和利益相关者的适当利益。小组委员会最终负责批准公司的愿景和战略,并确保所有利益相关者共享它;确保公司的组织高效;并保留海滨文化和价值观。这包括设定公司治理,企业社会责任和公司道德的高标准,同时确保客户体验和创新继续成为我们所做的一切的核心。
从健康和科学到农业和金融的各种环境中,AI都在广泛的环境中应用。它在日常知识工作任务中以多种方式使用,例如在搜索和建议中,以书面形式,转录和翻译。它正在影响许多工作场所,因此AI素养很可能被视为就业能力的组成部分。此外,由于它对社会,尤其对媒体和传播的影响,它对民主具有影响,因此对每个公民和公众都有影响。因此,人们认识到,重要的是要定义公众作为工人和公民需要了解AI的内容。却很难定义AI素养的范围。作为一种通用技术,这实际上是多种技术的伞,AI在不同的情况下看起来不同。这也是一个不断发展的想法。例如,生成型AI从戏剧性的角度转移了我们对AI的概念化。此外,需要对这些技术进行一些了解,但是显然,AI素养并不能降低技术技能。AI具有哲学和道德的维度,很难与技术完全相关。有必要学习潜在的持久技能,而不仅仅是如何使用特定工具。但是,也很可能
当今的算法已经在各个领域达到甚至超越了人类的任务表现。特别是,人工智能(AI)在组织与个人(例如其客户)之间的互动中发挥着核心作用,例如改变了电子商务或客户关系管理。然而,大多数人工智能系统仍然是难以理解的“黑匣子”——不仅对于开发人员,而且对于消费者和决策者也是如此(Meske 等人,2022 年)。对于电子市场而言,诸如试图管理风险和确保基于机器学习的电子交易系统符合监管要求等问题不仅源于其数据驱动的性质和技术复杂性,还源于其黑匣子性质,其中“学习”创造了
尽管人工智能在开源生产中的重要性日益增加,但在如何利用人工智能来提高开源软件(OSS)团队绩效的重要问题上,人们所做的研究却很少[2, 5]。人工智能能力可以被认为是开源团队的一个独特特征,可以衡量开源团队寻求人工智能机会和资源的倾向。例如,人工智能可以以机器人的形式作为OSS团队的基础设施,以简化开源流程,如关闭拉取请求、故障排除、迎接新用户等。同时,OSS团队还可以探索人工智能的新商机,以增加项目的吸引力。由于开源社区以多种方式使用人工智能,因此尚不清楚人工智能能力如何影响OSS团队的绩效[4]。因此,我想问:
人工智能 (AI) 迅速融入各个领域,带来了显著的效益,例如提高了业务效率和客户满意度,同时也带来了挑战,包括隐私问题、算法偏见和对自主性的威胁。针对这些多方面的问题,本研究提出了一个负责任人工智能 (RAI) 的新型综合理论框架,该框架涉及四个关键维度:技术、可持续发展、负责任的创新管理和立法。负责任的创新管理和法律维度构成了该框架的基础层。前者将预期和反思等元素嵌入企业文化,后者研究了欧盟和美国的人工智能特定法律,为管理人工智能的法律框架提供了比较视角。这项研究的结果可能对寻求负责任地整合人工智能的企业、专注于创建负责任合规人工智能的开发人员以及希望提高认识和制定 RAI 指南的政策制定者有所帮助。
摘要 将道德和价值观纳入人工智能资产的生命周期意味着在这些视角下确保其开发、部署、使用和退役。这些方法取决于人工智能运营的市场领域——考虑任何流程未按预期执行时与人类的互动和影响——以及法律合规性,这两者都是确保充分履行道德和价值观所必需的。具体而言,在制造业,自 1990 年代以来制定了标准,以确保机械的正确使用、系统的稳健性、低产品变异性、工人安全、系统安全以及系统约束的充分实施等。然而,将现有实践与以可信赖的方式部署人工智能的需求相结合是一项挑战。本文档为制造业的人工智能管理提供了一个扩展框架。该框架基于与负责任的人工智能相关的不同观点,将可信问题视为风险。该方法基于这样的理念:道德考量可以而且应该作为危害来处理。如果这些要求或约束没有得到充分满足和管理,预计会对不同的可持续支柱产生严重的负面影响。我们提出了一种基于风险管理的结构良好的方法,允许在制造业人工智能组件的任何生命周期阶段实施道德考量。该框架遵循管道结构,有可能扩展并与其他工业风险管理流程连接,从而促进其在制造领域的实施。此外,鉴于人工智能监管状态的动态条件,该框架允许扩展和考虑未来可能开发的因素。