财务风险主要源于产品责任立法,但也源于安全法规,这些法规可能导致不安全产品被欧盟 (EU) 等大型市场禁止和/或被召回。许多公司意识到,对他们不利的法律诉讼确实可能代价高昂,还可能毁掉他们的品牌声誉。出于这个原因,几十年来,他们一直聘请法律专家为他们打赢官司,或者通过具有约束力的保密协议庭外和解。这样,不良工程的真实成本通常就被公众、政府和其他公司所隐藏。
工艺:团结在目标周围 找到目标很重要,但这还不足以让品牌繁荣发展。作为消费者权益倡导者,品牌领导者知道在所有接触点信守承诺的重要性。违背承诺,品牌就会被毁掉。基于目标的品牌战略是一个太大的机遇,也是一个太全面的挑战,任何一个职能部门都无法独自应对。要创造一致的故事并成功实现目标驱动的转型,所有职能部门和高管团队的所有成员都必须密切合作。根据我们的经验,这种对共同目标的追求往往也起到了粘合剂的作用。经过激烈的目标讨论的高管团队总是会从这样的努力中脱颖而出,成为一个更强大的整体。
关于人工智能伦理的报告有数百份;然而,Backchannel 编辑 Scott Rosenberg 写道,大多数报告都很轻率,充斥着以人为本的陈词滥调。Rosenberg 摘录了纽约大学 AI Now 研究所最近发布的报告,该报告涉及一个科技行业试图按照人工智能的思路重塑社会,但无法保证结果的可靠性和公平性。一份报告的结论是:“迄今为止,让人工智能遵守道德标准的努力都以失败告终,新的人工智能伦理框架需要超越个人责任,让强大的工业、政府和军事利益在设计和使用人工智能时承担责任。”在作者看来,人工智能系统正在被引入各种脆弱领域,如警务、教育、医疗保健和其他环境,在这些领域,“算法的失误可能会毁掉一个人的生活。”
在此之前,尽管生成式人工智能模型前景光明,但它带来的风险广泛而复杂,涉及隐私、安全、合规和道德等多个业务领域。如果企业将赌注押在错误的工具、应用程序或用例上,或者未能将初始试点项目融入其运营方式,则可能会浪费数十亿美元。如果无监督的生成式人工智能算法给出不道德或错误的建议,客户可能会被疏远,品牌可能会被毁掉。员工可能会感到焦虑,因为他们担心技术取代的可能性,或者对生成式人工智能工具带来的正常工作习惯的变化感到困惑。如果生成式人工智能机器人泄露敏感或机密信息或知识产权,企业可能会违反全球法律法规。
外国对手,尤其是中国,正在利用 LinkedIn 对现任和前任美国国防部 (DOD) 成员进行虚拟间谍活动。他们创建虚假的个人资料和丰厚的招聘信息,以诱使目标泄露敏感信息或成为招募资产。这种低风险、低成本的策略绕过了强大的物理和网络安全防御。从高级领导到初级人员,每个国防部专业人员都是潜在目标,因为对手都在寻求对未来能力、漏洞、研究、作战概念和人力情报网络的洞察。成功的招募可以通过实现技术复制、战场战略对抗和关键人员的妥协来破坏国家安全。对个人的后果包括潜在的叛国罪指控和职业生涯的毁掉。为了应对这一威胁,建议美国政府开展有针对性的反间谍活动,同时加强培训、制定政策和法律法规,明确针对虚拟间谍活动。防御措施必须与虚拟威胁的规模和复杂程度相匹配。
两幅图像,两个女人,两个世纪:一张是黑白的,另一张是彩色的。第一张是弗里茨朗 1927 年著名电影《大都会》中玛丽亚的剧照(图 1)。《大都会》拍摄于魏玛共和国,背景设定在一个未来的反乌托邦世界,富有的市长之子弗雷德与工业工人中的圣人玛丽亚联手,弥合阶级鸿沟。他的父亲,市长,听到了叛乱的风声,命令发明家罗特旺将机器人改造成玛丽亚的样子,以毁掉她在工人中的名声。罗特旺绑架了玛丽亚,并将她的肖像转移到机器人身上,机器人玛丽亚随后在整个大都会引发混乱。快进九十年,我们看到了索菲亚的照片,索菲亚是汉森机器人公司的发明,也是世界上第一个获得公民身份的机器人
组织面临着影响活动正常开展的障碍。管理人员试图通过提高单个系统效率、大量投资甚至裁员来解决问题。但有时,结果仍然不佳,甚至会毁掉公司。在流程的运行中,会发现不同的障碍阻碍目标的实现。这就是约束理论 (TOC) 为流程管理者和领导者提供一种替代方案的地方,使他们能够以合乎逻辑和系统的方式改善结果,在许多情况下,无需进行昂贵的投资,即可确保业务连续性和竞争力。本文通过设计一个严肃的游戏来模拟制造组织中类似飞机的生产过程,重点介绍约束理论 (TOC) 概念的发展。研究展示了严肃游戏的设计过程和初步应用,其中主要目的是利用动态游戏作为一种手段,让那些有兴趣了解 TOC 的基本原理,并通过系统的方法培养识别和管理组织中限制性情况的技能,这种方法引导参与者在模拟场景中边做边学。