人工智能及其第五次工业革命正在迅速席卷非洲大陆。人工智能应用和系统的出现和采用正迅速成为整个非洲新兴市场格局的正常趋势。本文旨在确定专业人士在克服非洲人工智能应用现实所带来的挑战时所面临的挑战。该研究采用主题风格来介绍人工智能应用对新兴市场会计专业人士的挑战和前景。本研究确定的人工智能应用的一些挑战包括:算法复杂、投资减少、软件故障、缺乏政治意愿和限制等。另一方面,人工智能在新兴市场的机会包括交通自动化、技术机器人和机器人伴侣等。根据研究结果,建议会计专业人士更加努力,通过利用品牌重塑、重组和彻底改善业务和投资决策的机会为客户提供优质服务,从而击败竞争对手,这是该职业的最终目的。更重要的是,鼓励他们围绕专业数据开发一套新的能力关键词:人工智能;挑战;机遇;会计专业;第五次工业革命
背景 临床网络危机是由于医疗设备故障而导致的患者紧急情况。1 在过去的二十年里,新医疗技术以指数级的速度发展——从植入式心脏装置到可以监测血糖的手机应用程序。虽然有大量研究强调新设备的好处,但较少关注设备故障对患者的影响。最重要的是,我们缺乏针对因植入式设备故障而面临危机治疗患者的临床医生的教育和研究材料。植入式医疗设备的性能可能以多种方式受到影响,例如恶意或非恶意黑客攻击导致的硬件或软件故障;或者由于环境中的电磁辐射 (EM) 影响连接功能而中断。2–6 Rahim- pour 等人的研究发现,深部脑刺激器 (DBS) 的性能可能会受到常见家用电器(包括吹风机和安全门)的电磁辐射的影响。 6 此外,网络安全研究人员已经证明了植入式医疗设备的安全局限性,如果被利用,可能会对患者造成严重后果。3 7 8 现有的遥测设备黑客攻击案例研究包括使用射频发射器绕过胰岛素泵的安全性,这可能会给患者带来致命的影响。9
摘要—软件故障模式和影响分析 (SFMEA) 是一种系统安全分析技术,广泛应用于航空航天、汽车和其他安全关键型系统。FMEA 方法难以识别和分析由接口或功能之间的动态逻辑信息(例如软件-硬件交互)引起的故障模式。为了直观地假设模块故障对系统的影响,已经提出了许多方法。这项工作通过对安全关键型嵌入式控制系统进行实验来解决 SFMEA 的使用问题。本文介绍的工作提供了一个通用示例,说明了 SFMEA 应用于几乎没有或根本没有硬件保护的基于微处理器的计算机控制系统。本文展示了功能 FMEA、接口 FMEA 和详细软件 FMEA 在安全关键型软件系统中的应用。通过 SFMEA 方法,解决了硬件故障和软件故障。安全分析揭示了几个设计缺陷和物理故障,并提出了修改建议。本文还表明,如果在软件开发生命周期的正确阶段正确实施 SFMEA,则需求、设计和代码审查将更加有效。它还可以识别由软件导致的单点故障。本文介绍的工作可以推广并应用于任何安全关键嵌入式领域的设计师未来使用
摘要 - 软件缺陷预测是软件质量保证的关键方面,因为它可以早期识别和缓解缺陷,从而降低了软件故障的成本和影响。在过去的几年中,量子计算已成为一种令人兴奋的技术,能够改变多个领域。量子机学习(QML)是其中之一。QML算法比其经典同行可以利用量子计算的能力以更好的效率和有效性解决复杂问题。但是,仍需要探索其在软件工程中对软件缺陷进行应用的研究。在这项研究中,我们通过比较20个软件缺陷数据集中的三种QML和五种经典机器学习(CML)算法的性能来填补研究差距。我们的调查报告了QML与CML算法的综合场景,并确定了预测软件缺陷的表现更好和一致的算法。我们还强调了基于我们在进行此调查时所面临的经验,在实际软件缺陷数据集中采用QML算法的挑战和未来方向。这项研究的发现可以通过使软件系统可靠且无漏洞来帮助从业人员和研究人员进一步进步。索引术语 - Quantum机器学习,支持向量分类器,软件缺陷预测,量子古典级,性能比较
摘要—软件故障模式和影响分析 (SFMEA) 是一种系统安全分析技术,广泛应用于航空航天、汽车和其他安全关键型系统。FMEA 方法难以识别和分析由接口或功能之间的动态逻辑信息(例如软件-硬件交互)引起的故障模式。为了直观地假设模块故障对系统的影响,已经提出了许多方法。这项工作通过对安全关键型嵌入式控制系统进行实验来解决 SFMEA 的使用问题。本文介绍的工作提供了一个通用示例,说明了 SFMEA 应用于几乎没有或根本没有硬件保护的基于微处理器的计算机控制系统。本文展示了功能 FMEA、接口 FMEA 和详细软件 FMEA 在安全关键型软件系统中的应用。通过 SFMEA 方法,解决了硬件故障和软件故障。安全分析揭示了几个设计缺陷和物理故障,并提出了修改建议。本文还表明,如果在软件开发生命周期的正确阶段正确实施 SFMEA,则需求、设计和代码审查将更加有效。它还可以识别由软件导致的单点故障。本文介绍的工作可以推广并应用于任何安全关键嵌入式领域的设计师未来使用
由于我们目前无法生产出无错误的软件,软件容错性现在是并且将继续是软件系统中的一个重要考虑因素。软件设计错误的根本原因是系统的复杂性。在构建正确的软件时,问题变得更加严重的是难以评估高度复杂系统的软件的正确性。本文回顾了软件容错性。在简要概述软件开发过程之后,我们注意到在开发过程中可能引入难以检测的设计故障,以及软件故障往往依赖于状态并由特定输入序列激活。虽然组件可靠性是系统级分析的重要质量指标,但软件可靠性很难表征,并且使用后验证可靠性估计仍然是一个有争议的问题。对于某些应用程序,软件安全性比可靠性更重要,而这些应用程序中使用的容错技术旨在防止灾难。讨论的单版本软件容错技术包括系统结构化和闭包、原子操作、内联故障检测、异常处理等。多版本技术基于这样的假设:以不同方式构建的软件应该以不同的方式出现故障,因此,如果其中一个冗余版本出现故障,则其他版本中至少有一个应该提供可接受的输出。恢复块,N- 版本 p
摘要:传统上,故障攻击被认为是一种威胁模型,该模型假设被测设备由攻击者拥有。我们提出了该模型的变体。在我们的模型中,攻击者将故障注入电路集成到恶意的现场可更换单元 (FRU) 中,受害者随后将其放置在靠近自己设备的位置。包含 FRU 的设备示例包括路由器中的接口卡、手机中的触摸屏和传感器组件、打印机中的墨盒、健康传感器中的电池等。FRU 通常由售后维修技术人员安装,而无需正确验证其真实性,先前的研究表明,它们可以用作对智能设备的隐私和完整性进行各种攻击的载体。我们设计并实现了一种适合放置在恶意 FRU 内的低成本故障注入电路,并展示了如何通过组合硬件-软件方法使用它从特权系统进程中实际提取机密,即使攻击者软件应用程序仅具有用户级权限。我们的原型可以产生高效且可重复的攻击,尽管其成本比常用的故障注入分析实验室设置低几个数量级。这种威胁模型允许远程执行故障攻击,即使被测设备在受害者手中。结合纯软件故障攻击的最新进展,我们认为应该将对故障攻击的抵抗力内置到其他类型的设备中。
本文对自动驾驶汽车的研究和创新进行了分析。通过对定量证据的考察,讨论了人工智能 (AI) 作为机器学习、深度学习和数据挖掘对自动驾驶汽车研究和开发的重要性。随着发明活动和学术努力的速度大幅增长,我们发现有证据表明,2009 年后自动驾驶汽车相关技术的应用发生了重大转变。我们表明,这种转变反映了创新的重大变化以及人们对自动驾驶汽车的道德、法律和社会方面的日益关注。自动驾驶汽车或无人驾驶汽车或自动驾驶汽车只是一种无需任何人工干预即可行驶的汽车。这将成为汽车行业的巨大变化。自动驾驶汽车连接着许多外部传感器。利用这些外部传感器和计算机机器学习算法,它可以做出决策。我们将这些外部传感器称为高级控制系统。自动驾驶汽车与人类驾驶的汽车相比具有多种优势,例如交通事故更少、决策更智能等。因此,问题在于为什么无人驾驶汽车尚未成功。答案是存在诸如网络犯罪或软件故障等威胁以及与道路上有人驾驶汽车打交道等缺点。他们的主要目标是首先克服这些问题并找到解决方案。本文讨论了检测代码,以利用传感器提供的感知环境作为输入,返回有关道路上不同类型物体的信息。一旦自动驾驶汽车克服了这一障碍,它们将被广泛使用。
凯西·菲斯勒 科罗拉多大学 随着公众对人工智能的伦理和社会影响的担忧日益加深,似乎是时候放慢脚步了。但在科技公司内部,这种情绪却截然相反。据《纽约时报》报道,随着科技巨头的人工智能竞赛升温,微软一位高管在一封关于生成式人工智能的内部电子邮件中写道,如果“现在担心以后可以修复的事情,那将是一个绝对致命的错误”。换句话说,用马克·扎克伯格的旧座右铭来说,是时候“快速行动,打破常规”了。当然,当你破坏了一些东西时,你可能不得不以后再修复它们——这是有代价的。在软件开发中,“技术债务”一词指的是由于现在选择更快、更不谨慎的解决方案而导致未来修复的隐含成本。急于上市可能意味着重新发布尚未准备好的软件,因为你知道一旦它进入市场,你就会发现其中的缺陷,并希望能够修复它们。然而,关于生成式人工智能的负面新闻往往与这些缺陷无关。相反,人们更担心人工智能系统会放大有害的偏见和刻板印象,以及学生欺骗性地使用人工智能。我们听说过隐私问题、人们被错误信息欺骗、劳动力剥削以及对人类工作可能被取代的速度的担忧,等等。这些问题不是软件故障。意识到一项技术会强化压迫或偏见与发现网站上的某个按钮不起作用是截然不同的。作为一名技术伦理教育者和研究人员,我对这类“缺陷”思考了很多。这里累积的不仅仅是技术债务,还有道德债务。正如技术债务可能源于开发过程中的有限测试一样,道德债务源于没有考虑可能的缺陷
凯西·菲斯勒 科罗拉多大学 随着公众对人工智能的伦理和社会影响的担忧日益加深,似乎是时候放慢脚步了。但在科技公司内部,这种情绪却截然相反。据《纽约时报》报道,随着科技巨头的人工智能竞赛升温,微软一位高管在一封关于生成式人工智能的内部电子邮件中写道,如果“现在担心以后可以修复的事情,那将是一个绝对致命的错误”。换句话说,用马克·扎克伯格的旧座右铭来说,是时候“快速行动,打破常规”了。当然,当你破坏了一些东西时,你可能不得不以后再修复它们——这是有代价的。在软件开发中,“技术债务”一词指的是由于现在选择更快、更不谨慎的解决方案而导致未来修复的隐含成本。急于上市可能意味着重新发布尚未准备好的软件,因为你知道一旦它进入市场,你就会发现其中的缺陷,并希望能够修复它们。然而,关于生成式人工智能的负面新闻往往与这些缺陷无关。相反,人们更担心人工智能系统会放大有害的偏见和刻板印象,以及学生欺骗性地使用人工智能。我们听说过隐私问题、人们被错误信息欺骗、劳动力剥削以及对人类工作可能被取代的速度的担忧,等等。这些问题不是软件故障。意识到一项技术会强化压迫或偏见与发现网站上的某个按钮不起作用是截然不同的。作为一名技术伦理教育者和研究人员,我对这类“缺陷”思考了很多。这里累积的不仅仅是技术债务,还有道德债务。正如技术债务可能源于开发过程中的有限测试一样,道德债务源于没有考虑可能的缺陷