随着人工智能在我们的生活中发挥越来越大的作用,让孩子与科技建立健康的关系非常重要。这意味着不仅要了解如何安全负责地使用人工智能,还要知道如何以批判性和创造性的思维方式对待技术。鼓励孩子培养批判性思维技能在数字时代至关重要,因为它可以让他们评估他们在网上遇到的信息的准确性和有效性。这包括能够识别虚假新闻或错误信息,并了解人工智能算法中可能存在的潜在偏见。与技术建立健康的关系还意味着在其使用方面设定健康的界限。父母可以帮助孩子在屏幕时间和其他活动之间建立健康的平衡,例如户外游戏、与朋友和家人交往以及从事创造性活动。
1. 人机互动:我们认为 AI 应该用于协助和加速人类决策,而不是取代人类决策。我们的 AI 系统本质上是咨询性的,绝不会自行采取相应行动。使用 AI 生成的指导,我们可以帮助客户更快地做出更好的决策。2. 以工作流程为中心的应用:我们确定工作流程中 AI 可以提供改进的授权和特定领域,使用户能够更快、更成功地完成相同的任务。我们正以有针对性和协作开发的方式将经过验证的 AI 技术应用于定义狭窄且易于理解的用例。3. 规范创新:我们应用经过精心训练、彻底表征和广泛测试的经过验证的 AI 和机器学习技术。这使得 AI 驱动的解决方案在现场出现意外的可能性大大降低。4. 监督:我们成立了摩托罗拉系统技术咨询委员会 (MTAC),作为“技术良心”,并就特定产品技术的道德规范、局限性和影响为公司提供建议。此外,我们还咨询客观的第三方,以提供由外而内的观点来指导我们的决策。
越来越多的自动化和人工智能 (AI) 系统会提出医疗建议,包括个性化建议,这些建议可能会偏离标准护理。法律学者认为,遵循这种非标准治疗建议会增加医疗事故的责任,从而破坏潜在有益的医疗 AI 的使用。然而,这种责任在一定程度上取决于陪审员的判断:当医生使用 AI 系统时,陪审员会在哪些情况下追究医生的责任?方法:为了确定潜在陪审员的责任判断,我们对 2,000 名美国成年人的全国代表性样本进行了在线实验研究。每位参与者阅读了 AI 系统向医生提供治疗建议的 4 个场景中的 1 个。场景改变了 AI 建议(标准或非标准护理)和医生的决定(接受或拒绝该建议)。随后,医生的决定造成了伤害。参与者随后评估了医生的责任。结果:我们的结果表明,在其他条件相同的情况下,从人工智能系统获得提供标准护理建议的医生可以通过接受而不是拒绝该建议来降低责任风险。但是,当人工智能系统推荐非标准护理时,拒绝该建议并提供标准护理并没有类似的屏蔽效果。结论:侵权法制度不太可能破坏人工智能精准医疗工具的使用,甚至可能鼓励使用这些工具。
● 即时价值:售前团队在处理交易时没有充裕的时间,因此我们希望用户从开始使用 Vivun 平台的第一天起就能获得来自我们 AI 的指导。● 持续学习:随着市场和竞争的不断发展,平台的预测和建议能力也应不断发展。我们的机器学习模型会随着时间推移适应不断变化的动态和 Vivun 客户提交的新数据。● 可解释性:我们通过 AI/ML 工作得出的见解需要公司中的每个人都可以访问和采取行动——对数值输出(即我们的英雄分数)提供清晰简洁的解释,并就下一步应采取的措施提供规范性建议,而不是“黑匣子”解决方案。
摘要 公共部门采用人工智能 (AI) 有可能改善服务交付。然而,与人工智能相关的风险很大,公民的担忧已经停止了多项人工智能计划。在本文中,我们报告了一项关于挪威公民对公共服务中使用人工智能的态度的实证研究的结果。我们发现了一种普遍积极的态度,并确定了促成这种态度的三个因素:a) 对政府的高度信任;b) 人类参与其中所带来的保证;c) 对流程、用于人工智能模型的数据和模型内部运作的透明度。我们通过社会契约理论的视角来解释这些发现,并展示了人工智能在公共服务中的引入如何受到社会契约权力动态的影响。我们的研究通过突出政府与公民的关系为研究做出了贡献,并对公共部门的人工智能实践产生了影响。
1 研讨会于 2023 年 7 月在阿姆斯特丹大学举行。更全面的建议版本将在即将发表的文章中发表。我们感谢各位参与者在研讨会期间和之后的宝贵意见(参加研讨会并不等于认可下文列出的所有建议):Bettina Berendt 博士(柏林工业大学互联网与社会教授)、Ian Brown 博士(里约热内卢热图利奥·瓦尔加斯基金会法学院技术与社会中心客座教授、顾问)、Nick Diakopoulos 博士(西北大学传播学和计算机科学教授(特聘))、Tim de Jonge(拉德堡德大学博士候选人)、Christina Elmer(多特蒙德大学数字新闻/数据新闻教授)、Natali Helberger 博士(阿姆斯特丹大学杰出法学与数字技术大学教授)、Clara Helming(AlgorithmWatch 高级政策与宣传经理)、Karolina Iwańska(欧洲非营利组织中心数字公民空间顾问)法)、Frauke Kreuter 博士(慕尼黑大学统计与数据科学教授)、Laurens Naudts 博士(阿姆斯特丹大学法学博士后研究员)、Liliane Obrecht(巴塞尔大学法学博士生)、des 博士。 Angela Müller(AlgorithmWatch 政策与宣传主管)、Estelle Pannatier(AlgorithmWatch CH 政策与宣传经理)、Stanislaw Piasecki 博士(阿姆斯特丹大学法学博士后研究员)、João Quintais 博士(阿姆斯特丹大学信息法助理教授)、Matthias Spielkamp(AlgorithmWatch 创始人兼执行董事)、Daniel Oberski 博士(乌得勒支大学健康数据科学教授)、Ot van Daalen 博士(律师;阿姆斯特丹大学信息法讲师和研究员)、Kilian Vieth-Ditlmann(AlgorithmWatch 政策与宣传副团队负责人)、Sophie Weerts 博士(洛桑大学公法副教授)、Frederik Zuiderveen Borgesius 博士(拉德堡德大学 ICT 和法律教授)。此外,我们感谢以下专家对研讨会成果的宝贵书面反馈:Nikolett Aszódi(AlgorithmWatch 政策与宣传经理)、Paul Keller(Open Future 政策总监)和 Alex Tarkowski(Open Future 战略总监)。
Norikazu HIROSE 博士 早稻田大学运动科学系教授 日本运动训练学会 日本训练科学学会等 著作:《运动训练科学》,文光堂(2019)等 研究领域:运动训练
Aritra Mandal 是 eBay 搜索团队的应用研究员。他专注于搜索质量,并利用 AI/ML、结构化数据和知识图谱来改进为 eBay 市场提供支持的搜索引擎。Aritra 获得了伯拉理工学院的计算机科学学士学位以及印第安纳大学-普渡大学印第安纳波利斯分校的计算机和信息科学硕士学位。
这项理论研究探讨了翻译研究与人工智能(AI)之间的共生关系,强调了这两个领域之间合作的重要性。该研究探讨了将人工智能融入翻译应用程序的潜力,以提高翻译效率、克服语言障碍并扩大信息获取渠道。从这个角度来看,该研究探讨了一些重要的伦理问题,例如人类专业知识在翻译研究中人工智能整合中的作用、翻译的准确性和文化适宜性以及人工智能对劳动力的影响。该研究强调了将人工智能相关主题纳入翻译研究(或口译和翻译)课程的重要性,提倡促进学者和人工智能开发人员之间的合作研究项目,并认为人工智能比其本身更复杂。 IQ(智商)和 EQ(它提请人们注意缩小个人能力(情商水平/商数)之间的差距。翻译研究与人工智能 (AI) 之间的合作可以提供技术上准确且文化敏感的翻译,从而实现满足个人和企业需求的高质量翻译。这种协作可以提高人工智能在翻译活动中的质量和有效性,从而产生更可靠、更合适的翻译。因此,本研究强调了翻译研究与人工智能合作的重要性,并提请关注提高翻译服务质量和鼓励文化敏感性翻译传播等问题。
一方面,有人认为不应该允许在课堂上使用人工智能,因为这会导致学生过度依赖技术,从而阻碍学生的学习和技能发展。人工智能技术非常强大。虽然它们可以帮助学生完成各种学习任务,但学生可能会过度使用这些技术,以至于他们无法培养独立解决问题所需的技能。人工智能在课堂上的使用可能会变得如此普遍,以至于学生在大多数任务和决策中都依赖该技术。因此,有人认为,在课堂上使用人工智能可能是有害的,因为学生永远不会培养独立解决问题和推理所需的技能。由此导致的技能缺乏可能会对学生的自主性产生深远影响。