tyler致力于探索和使用人工智能(AI)工具,适合于所进行的学科和任务。我们鼓励讨论AI工具的道德,社会,哲学和纪律意义。正如UT Tyler的《荣誉法》中指出的那样,应承认AI的所有用途与我们致力于荣誉和诚信的承诺相吻合。使用任何AI工具时,教师和学生不得使用受保护的信息,数据或受版权保护的材料。此外,用户应意识到,AI工具依靠预测模型来生成可能看起来正确但有时证明是不完整的,不准确的,没有其他来源和/或有偏见的内容。因此,不应将AI工具视为传统研究方法的替代品。您最终对提交信息的质量和内容负责。滥用违反本课程指南的AI工具(见下文)被认为是对学术完整性的违反。学生将采取纪律处分,如乌特·泰勒(Ut Tyler)的学术完整性政策所概述。
摘要:本研究探讨了在印度史诗,尤其是摩ab婆罗多的背景下人工智能(AI)概念的应用。该研究试图在圣经中人物面临的道德困境与AI治理的当代挑战之间取得相似之处。目的是研究这些古代经文中所描绘的自主,责任和道德决策的概念如何为现代讨论提供有关AI的道德使用的讨论。这项研究采用了定性方法,根据AI治理框架,分析了摩ab婆罗多的特定发作。关键情节,例如Yudhisthira的骰子游戏,奎师那(Krishna)对Arjuna的顾问以及奎师那(Krishna)的Sudarshana Chakra的使用,以了解其与AI DETHICS的相关性,尤其是没有支架的自主权的危险,是自主和责任之间的平衡以及自治系统的道德使用之间的平衡。调查结果表明,摩ab婆罗多(Mahabharat)为当代AI治理问题提供了丰富的类比。文本强调道德监督,人类控制和道德责任在决策过程中的重要性,反映出围绕AI在社会中的作用的当前辩论。佛法的原则被强调为管理AI系统的潜在框架,确保它们在道德上运作并确定人类福利的优先级。总而言之,研究表明,印度哲学的见解,尤其是佛法的概念,为人工智能系统的发展和调节提供了宝贵的道德指导,以确保这些技术负责任地为人类服务。
d.tjondronegoro@griffith.edu.au 摘要 人工智能 (AI) 已成为一种变革性技术,有可能彻底改变从医疗保健到金融、教育等各个领域。然而,成功实施人工智能系统仍然是一项复杂的挑战,需要一个全面且方法合理的框架。本文通过介绍值得信赖、优化、适应性和社会技术和谐 (TOAST) 框架来应对这一挑战。它借鉴了各个学科的见解,将技术战略与道德价值观、社会责任和创新愿望相结合。TOAST 框架是一种旨在指导人工智能系统实施的新方法,重点关注可靠性、问责制、技术进步、适应性和社会技术和谐。通过将 TOAST 框架应用于医疗保健案例研究,本文对其在解决高风险环境中的运营、道德和监管挑战方面的实用性和理论合理性进行了可靠的评估,展示了适应性强的 AI 系统如何提高机构效率、降低偏见和数据隐私等风险,并为其他需要符合道德规范和高效 AI 集成的行业提供可复制的模型。关键词:AI 实施策略、医疗保健中的 AI、负责任的 AI、社会技术融合、道德 AI 实践。1. 简介人工智能 (AI) 极大地改变了行业并推动了数字时代的创新。技术进步和全球投资的增加加速了 AI 在商业运营中的应用。AI 的采用率在 50-60% 之间(Maslej 等人,2023 年),与 2017 年相比有显着增长,当时只有 20% 的企业将 AI 纳入其工作流程(Ransbotham,2017 年)。组织利用 AI 来获得竞争优势、创造新的市场机会并改进产品质量和流程。尽管人工智能在各行各业的应用日益广泛,但许多组织在有效整合人工智能系统时仍面临挑战。在没有周密计划和利益相关者协调的情况下实施人工智能可能会导致仓促决策、资源浪费和结果不佳(Li 等人,2023 年)。
非联邦来源的代表性服务的补偿(18 U.S.C.§ 203-Type Violations) ............................................................................ 48 Conflicts of Interest (18 U.S.C.§208型违规)............................................................................................................................................................................................................................................................................................................................................................................................................................................... 56§208型违规)............................................................................................................................................................................................................................................................................................................................................................................................................................................... 56
Openai开发的高性能人工智能语言模型Chatgpt的出现引起了学术界的兴奋和关注(Li,2024年)。配备了先进的自然语言处理技术,Chatgpt能够生成类似人类的文本,这些文本可为广泛的查询提供连贯的和上下文相关的响应。这种前所未有的能力提高了乐观和关注,因为它可以从根本上改变学术界,工业和日常生活中的传统实践(Cambra-Fierro等,2024)。“问我任何东西”和“我可能有一个好的答案”的基本功能不再仅仅是许多领域的关注点。在期刊中传播的科学知识已经在努力在这种技术将发挥的作用。关于它是否会并且可以合着的问题(Tang,2024)。建立知识的教授立即面临在这种技术存在下评估学生的挑战。这些是实用和合法的问题。在增加学生参与,协作和可及性成果方面,Chatgpt具有许多好处,但它也具有非常严重的学术完整性影响:其核心是窃。本文制定了有关教育工作者如何通过在AI工具的学术用途中促进道德使用和公平性来帮助减轻这些风险的全面策略。
摘要 人工智能 (AI) 正在 (重新) 塑造商业领域,尤其是营销领域的战略、活动、互动和关系。人工智能系统和应用在营销领域提供的巨大机遇的缺点是道德争议。基于人工智能伦理文献,作者从多利益相关方的角度系统地审视了在营销中部署人工智能的道德挑战。通过揭示伦理原则之间的相互依赖和紧张关系,作者阐明了纯原则性、义务论方法在营销中对人工智能伦理的适用性。为了调和其中一些紧张关系并解释人工智能造福社会的观点,作者提出了如何利用营销中的人工智能来促进社会和环境福祉的建议。
人们总是倾向于“同时”援引伦理和法律,无论是关于人工智能伦理,还是关于《人工智能法案》,例如 Townsend [17]。这种倾向在《人工智能法案》提案中也起作用。但我认为,在对伦理实践的反思基础上,有许多理由拒绝承认《人工智能法案》法规具有伦理依据。这些原因包括:该提案对《人工智能法案》目标的描述,该提案的愿景和对公众咨询的运用,以及最后,在监管过程和将人工智能视为一种技术的观点中都嵌入了我称之为“速度范式”的东西。简而言之,后者是一个未经深思熟虑的假设,即一个看似天生快速的过程或发展——这里指的是人工智能技术——需要社会参与和融入人类事务,其节奏与该过程相匹配,从而建立一个自我延续的循环。
4.1 使用人工智能工具的输出而未给予适当认可将构成学术不端行为。学生应与教学人员确认评估要求,或向课程协调员、学生支持服务或图书馆寻求有关如何认可人工智能工具输出的建议。
2009 年 10 月,不满情绪在欧盟理事会中逐渐蔓延。在此前的几个月里,欧盟理事会努力制定欧洲在人工智能 (AI) 问题上的立场,该立场将坚定地反映欧盟对基本权利的承诺。然而,当成员国准备就此事得出结论时,显然无法达成共识。一个成员国——波兰——提出了反对意见,其重点是结论草案中提到的“性别平等”。波兰代表认为,由于“性别”一词并未出现在《欧盟基本权利宪章》中,因此没有必要在人工智能的背景下提及它。 其他理事会成员强烈反对,但他们无法劝阻波兰改变立场。最终,德国理事会主席国得出结论,达成共识的努力失败了。别无选择的情况下,它采纳了主席国的结论,这些结论不需要成员国的一致同意,只是表达了主席国对此事的立场。对于新兴人工智能政策格局的观察者来说,上述事件是一个奇怪的异常现象。直到最近,在高层找到共同点
尽管人工智能在开源生产中的重要性日益增加,但在如何利用人工智能来提高开源软件(OSS)团队绩效的重要问题上,人们所做的研究却很少[2, 5]。人工智能能力可以被认为是开源团队的一个独特特征,可以衡量开源团队寻求人工智能机会和资源的倾向。例如,人工智能可以以机器人的形式作为OSS团队的基础设施,以简化开源流程,如关闭拉取请求、故障排除、迎接新用户等。同时,OSS团队还可以探索人工智能的新商机,以增加项目的吸引力。由于开源社区以多种方式使用人工智能,因此尚不清楚人工智能能力如何影响OSS团队的绩效[4]。因此,我想问: