摘要:人工智能生成的内容在人们生活中的出现越来越多,而能够有效浏览和区分此类内容的重要性与透明度有着内在联系,我们的研究重点是透明度,我们通过评估《人工智能法案》第 50 条来研究这一概念。本文呼吁采取行动,在指定《人工智能法案》的透明度要求时考虑最终用户的利益。它侧重于一个特定的用例——媒体组织在生成人工智能的帮助下制作文本。我们认为,目前的形式下,第 50 条留下了许多不确定性,并且有可能在保护自然人免受操纵或赋予他们采取保护行动的权力方面做得太少。本文结合文献和调查数据分析(基于代表荷兰人口的样本),就《人工智能法案》透明度义务的实施提出了具体的政策和监管建议。其主要目的是回答以下问题:如何协调《人工智能法案》适用于人工智能生成的数字新闻文章的透明度规定与新闻读者对操纵和赋权的看法?
保护基本权利以及以人为本、合乎道德和负责任地使用人工智能 (AI) 技术是欧洲人工智能战略的核心目标,其目标不亚于“带头制定新的雄心勃勃的全球规范”(欧盟委员会 2021 年)。与之前的《通用数据保护条例》一样,《人工智能法案》草案有望为欧洲内部和外部围绕“负责任的人工智能”的辩论定下新基调。这是全球首次尝试突破日益不透明的私人和公共道德准则丛林,以制定具有约束力的监管标准,明确负责任和以人为本的人工智能的确切含义。《人工智能法案》草案不仅与人工智能的潜在生产者和用户有关,而且与越来越多的学者群体有关,他们对人工智能的规范含义感兴趣,并希望找到方法让“负责任地使用”人工智能的概念变得有意义。学者在通过自己的见解为新兴的人工智能政策提供信息以及研究政策实施后的后果方面发挥着重要作用。因此,本评论的主要目标是探讨《人工智能法案》草案对媒体和新闻业的相关性,并鼓励媒体学者界进一步参与该法规的潜在影响。
摘要 在不断增长的 (数字) 数据量和人工智能进步的推动下,当代社会的决策越来越多地被委托给自动化流程。本研究借鉴社会科学理论和关于算法欣赏和算法感知的新兴研究,探讨了个人特征与对人工智能自动决策的感知之间的关联程度,以及这些感知的边界条件,即这些感知在不同的媒体、(公共) 健康和司法背景下的差异程度。一项基于情景的全国样本调查实验 (N = 958) 的数据显示,人们总体上担心风险,对社会层面自动决策的公平性和实用性有不同的看法,总体态度受个人特征的影响。有趣的是,人工智能自动做出的决策通常被评价为与人类专家相当甚至更好。这些发现的理论和社会意义被讨论。