摘要我们今天花了很多时间使用机器人和人工智能(AI)技术。同时,似乎我们越来越习惯于与AI和机器人互动,就好像他们是人类一样。这种趋势恰当地引起了人们关于如何处理技术设备的道德讨论的越来越多。我们是否欠机器人一定程度的尊重?在本文中,我提出了一种回答这些问题的新方法。我援引了修正主义对康德的道德规范的说法,该伦理在尊重之前修改了通常的尊严优先级(Sensen,2009年)。这样做使我们能够看到如何有充分的理由与某些AI和机器人系统保持尊重的关系。关键字:机器人伦理,AI伦理,人类机器人的互动,尊严,尊重,康德类型:文章引用:Tigard,D。W.(2023)。尊重机器人。Robonomics:《自动化经济杂志》,第4、37 1哲学系,圣地亚哥大学,5998 Alcala Way,圣地亚哥,加利福尼亚州92110,美国;电子邮件:dtigard@sandiego.edu通讯作者
2025-26 年尊重行动计划以大学于 2023 年和 2024 年实施的第一个尊重行动计划的成功和经验为基础。该计划参考了受害者幸存者、大学学科专家以及学生和教职员工代表的建议。它包括几个应对不断变化的环境的新行动领域。该计划推动大学为即将出台的《预防和应对性别暴力的国家高等教育守则》做好准备,该守则将为高等教育提供者制定规则,以嵌入全组织方法来预防和应对性别暴力。大学还认可澳大利亚政府立法设立国家学生监察员,该监察员将为学生提供一个论坛,让他们可以就高等教育提供者对性行为不当的反应提出投诉。2025-26 年尊重行动计划将继续通过进一步嵌入问责、支持和报告机制来改善大学对性行为不当的处理。除了新的行动领域外,该计划还列出了流程改进或细化,以加强现有工作的有效性或影响力。2023-2024 计划中的一些行动将需要持续监控,因为它们将过渡到大学的标准工作方式。该行动计划与大学的“尊重变革理论”相一致,并阐述了大学将如何在未来两年内为以下目标做出贡献:
基于急诊室的案件经理与急诊室的常见患者进行了交谈。如果他们愿意进行进一步的沟通,则案件经理在出院后与患者合作,以确定他们的需求,并向基于社区的医疗保健和社会服务机构提供“温暖的交接”,以帮助满足这些需求并朝着自给自足方向发展。它是否有助于为医疗任命提供运输,公用事业援助,获得食品资源的机会,用于药物或其他服务的财务援助,该健康倡导计划可帮助患者无需为患者提供医疗保健世界和社区资源。
接收器。这些警报是实时自动向关键矿工官员自动驱动的,如果需要,可以立即进行现场调查/验证。对路线偏差或未经授权停工的实时检测和询问是对道路煤炭运输的任何恶性实践的有力威慑作用。(b)CCTV摄像机的电子监视。在脆弱的操作区域对CCTV摄像机进行的监视显然具有很高的威慑价值,这是一种实时观察和监测工具。它们对于用于使用调查机构的证据收集也非常有用。通过基于IP的连接或任何其他方式将CCTV摄像机连接到控制室时,可以促进实时监视,视频记录,甚至生成实时警报 /通知。如果将它们安装在脆弱的位置,例如称重,入口/出口点,铁路壁板,煤炭,爆炸杂志,材料商店等,最好实现其潜力。除了普通摄像机外,还安装了一些复杂的PTZ摄像机和夜视摄像机,作为上述IT主动性的一部分。
对人工智能系统的批判性审查通常应用公平、正义、问责和安全等原则,这些原则反映在欧盟人工智能法案等人工智能法规中。这些原则是否足以促进支持人类繁荣的系统设计?即使一个系统在某种意义上是公平、公正或“安全”的,它也可能具有剥削性、强制性、不便性,或与文化、个人或社会价值观相冲突。本文提出了迄今为止被忽视的互动伦理的一个维度:人工智能系统应如何对待人类。为此,我们探讨了尊重的哲学概念:如果尊重是每个人都需要和应得的,那么技术难道不应该以尊重为目标吗?尽管尊重在直观上很简单,但在哲学上它是一个复杂的概念,具有许多不同的含义。与公平或正义一样,尊重可以描述人们应如何受到对待;但尊重主要不是与利益或惩罚的分配有关,而是与人们如何看待彼此以及这如何转化为感知、待遇和行为有关。我们从多种文献中广泛探讨尊重,综合了康德主义、后康德主义、戏剧学和代理现实主义设计视角对尊重的看法,目的是共同探讨尊重对人工智能的意义。通过这样做,我们确定了尊重可能引导我们走向更具社交性的人工制品的方式,这些人工制品以道德和包容的方式尊重和认可人类,而我们已经进化出这种语言来每天相互交流。
“如果博士学位候选人和其他作者或发明人所作的任何研究论文、手稿或国际审查专利作为博士学位课程的研究成果提交,则候选人必须从每个共同作者和共同发明人处获得一份书面声明,其中说明该共同作者或共同发明人授权将该研究成果用于所述目的,并进一步说明每个共同作者或共同发明人在有关研究成果中的份额。”