人工智能(AI)已经在日常交流中广泛使用,但是尽管担心AI对社会的负面影响,但在很大程度上尚未探索使用它的社会后果。我们研究了最普遍的AI应用程序之一,算法响应建议(“智能答复”)的社会后果,这些建议每天发送数十亿条消息。两个随机实验提供了证据,表明这些类型的算法推荐系统会改变人们在亲社会和反社会方式上互相互动和感知的方式。我们发现,使用算法响应会改变语言和社会关系。更具体地说,它增加了沟通速度,积极的情感语言的使用,并且对话伙伴相互评估,以更接近和更合作。然而,与对AI的不利影响的共同假设一致,如果怀疑他们使用算法响应,对人们的评估更为负面。因此,即使AI可以提高沟通速度并改善人际观念,但AI的主要反社会含义会破坏这些潜在的好处,如果使用公开使用。
3.1。Research Philosophy................................................................................................................................ 15 3.2.Research Approach................................................................................................................................... 15 3.3.Research Design........................................................................................................................................16 3.4.数据收集...............................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................................Data Analysis:........................................................................................................................................... 20 3.6.Ethical Consideration:...............................................................................................................................20 4.结果和经验发现:......................................................................................................................................................................................................................................................................................................................................................................................................................................................................................... 21
摘要。随着技术的快速增长,近年来,人们对人的过度使用已被大大宣告。e-Media正在改变人们的生活方式以及与他人互动的方式。越来越多的孩子即使在年轻人中也可以使用电子设备。因此,这项研究的目的是总结过度使用电子媒体对0至6岁学龄前儿童的心理发展影响的最新进展,并特别关注他们的情感和社会关系的发展。在先前的研究中强调了电子媒体过度使用对幼儿的总体负面影响,并在本研究中总结了。然而,很少的研究研究了不合理的电子媒体使用对学龄前儿童的情感和社会关系以及进一步后果的特定影响。关于情绪发展,高电子媒体暴露的学龄前儿童可能会有较高的焦虑和抑郁症风险。此外,由于情绪控制和由电子产品引起的父母冲突,过度使用电子媒体可以成为家庭中张力的根源。此外,它也会影响与与同行的沟通和视频中的暴力内容有关的同伴关系。
机器人和人工智能 (AI) 系统的道德地位已成为规范研究中广泛争论的话题。然而,这场讨论主要集中在那些为社会功能而开发的系统上,例如社交机器人。鉴于社会与非社会机器的相互依存日益加深,研究如何将现有的规范性主张扩展到特定的混乱领域,如艺术行业,已变得势在必行。受到 Gunkel 和 Coeckelbergh 提出的将机器的道德地位建立在社会关系基础上的提议的启发,本研究提出了在线实验 (N 448),测试与人工智能生成的艺术作品的互动是否以及如何影响人们感知到的其创作者(即人工智能生成系统)的道德地位。我们的结果表明,评估人工智能系统是否缺乏心智可能会影响人们随后对人工智能生成的艺术作品的评价。我们还发现,对人工智能生成的图像的高估可能会对其创作者感知到的能动性产生负面影响。然而,我们的实验并未表明与人工智能生成的艺术作品互动对机器的道德地位有任何显著影响。这些发现表明,人工智能权利的社会关系方法可能与基于财产的道德地位论点交织在一起。我们通过揭示公众对这一问题的看法,阐明了实证研究如何为人工智能和机器人权利辩论做出贡献。