量子技术 (QT) 的发展既有可能性,也有风险。我们需要开始考虑如何以及在何处嵌入量子技术。具体来说,需要解决安全性、访问权和不确定性问题。量子技术既可用于好事,也可用于坏事。例如,在安全领域,它带来了破解数据加密的手段,也带来了新的安全通信方式。由于量子技术的这种双重用途,所有权是一个重要话题。谁可以/应该访问这项技术既是安全性问题,也是可访问性问题。这些问题要求我们在道德和责任的背景下思考量子技术。为量子技术的未来做准备意味着为它将产生的影响做准备。虽然不确定性仍然存在,但其中一些影响是已知的。因此,我们可以开始将影响转化为可操作的过程。虽然安全性似乎是主要关注的方面,但也应该考虑对研究和教育领域的特定影响。量子如何影响现有的科学实践和规范,例如可重复性和开放性?将部分计算基础设施从经典技术迁移到量子技术需要新的知识和经验。我们需要教育或协助目前从事密码学和信息安全领域的人员,并为我们当前的系统做好迁移到不同加密形式的准备。总的来说,关于如何将量子技术融入社会,还有很多问题需要回答。幸运的是,有人和组织正在努力解决这些问题。慢慢地,这些组织的评估需要转化为具体的加密系统和计算基础设施。我们仍然不完全知道量子将如何融入社会、研究和教育,但我们正在为我们所知道的事情做准备。
摘要:人工智能系统在什么条件下会有幸福感?尽管这个问题与人类与人工智能系统互动的伦理有着明显的关系,但却很少受到直接关注。由于所有主要的幸福感理论都认为,个人的福利水平部分取决于他们的精神生活,所以我们首先考虑人工智能系统是否有精神状态。我们表明,当将各种精神状态理论与领先的幸福感理论相结合时,可以预测某些现有的人工智能系统具有幸福感。在此过程中,我们认为,有充分的理由相信,即使人工智能系统没有现象意识,它们也可以拥有幸福感。虽然我们并不声称能够确凿地证明人工智能系统具有幸福感,但我们认为,一些人工智能系统已经或即将拥有幸福感的可能性很大,这应该促使我们重新评估我们与所创造的智能系统的关系。我们彼此都认为,事情可能会好转或变坏,生活可能会变好或变坏,这取决于他们在好事和坏事、快乐和痛苦、欲望的满足和受挫之间的平衡。在我们心胸开阔的时候,我们愿意将幸福的概念也扩展到非人类动物,把它们视为独立的价值承载者,我们必须在道德审议中考虑它们的利益。1 但大多数人,甚至大多数哲学家,都会拒绝接受这样一种观点,即由人类工程师设计并在计算机硬件上实现的完全人工系统可能同样需要我们的道德考虑。即使是许多接受未来人形机器人将拥有幸福的可能性的人,也会拒绝接受当今现有的人工智能系统也可能拥有同样幸福的想法。也许是因为人们认为创造具有幸福感的人工系统还很遥远,所以哲学界对幸福感问题的关注相对较少。
摘要 - 全球变暖,以使人们更加潮流,这使人们像人类一样,像在欧洲的othertres fresuter一样。增加了Gretres hous forcct forct to to Global变暖和潮流。实际上,它的eftcct(其卢比)并不是一件坏事。gretres hous forcct允许Earth保持温暖,以为人类和创造物生存。氯氟化合物(CFCS)在大气中耗尽了大气的臭氧,并允许UltravioL射线吸收earthth。逐渐增加全球温度正在发生较大的变化,其中包括极地冰盖的效果,在海上列出。在所有这些事物上,整个生态系统几乎都会产生。减少碳和格里的房屋气氛,这是为时已晚,这是唯一的回答。节省entergy和deving的替代品会源代表,可以将全球变暖的全球变暖降至最低。人类,像特定的人一样,将在改变世界上做出贡献。我们每个人都可以通过使用温室气体产生充满活力,行驶,选择效率的汽车和设备供电的饮料和热人等来做出对它的贡献。缓解个人,工业和政府可能会减少全球变暖的预期。比nevRer ,这是一个呼吁我们拯救欧洲的呼吁,并在ordresr中保存我们的sellv,以使presstt和the the of to protist to pros to pros to pros the -thelet and to to pros and the oferth and the to pros and themnt and。 全球变暖不仅在变暖,而且是全球警告。,这是一个呼吁我们拯救欧洲的呼吁,并在ordresr中保存我们的sellv,以使presstt和the the of to protist to pros to pros to pros the -thelet and to to pros and the oferth and the to pros and themnt and。全球变暖不仅在变暖,而且是全球警告。
非人类人道主义:当人工智能的善举变成坏事时 Mirca Madianou 伦敦大学金史密斯学院 2018 年,有超过 1.68 亿人需要人道主义援助,同时有超过 6900 万人成为难民,人道主义部门面临着重大挑战。人工智能 (AI) 应用可以成为人道主义危机的潜在解决方案的提议受到了热烈欢迎。这是“人工智能用于社会公益”大趋势的一部分,也是“数字人道主义”更广泛发展的一部分,“数字人道主义”指的是公共和私营部门为应对人道主义紧急情况而使用数字创新和数据。聊天机器人、声称可以预测未来流行病或人口流动的预测分析和建模以及依赖于采用机器学习算法的先进神经网络的生物识别技术,都是在援助行动中越来越受欢迎的例子。本文建立了一个跨学科框架,将殖民和非殖民理论、人道主义和发展的批判性探究、批判性算法研究以及对人工智能的社会技术理解结合在一起。人道主义在这里被理解为一种复杂的现象:不仅仅是通常定义的“减少痛苦的必要性”(Calhoun,2008),而且是一种行业、一种话语和一种源于 19 世纪和 20 世纪殖民主义的历史现象(Fassin,2012;Lester & Dussart,2014)。人工智能同样是一个多面现象:不仅仅是基于先进计算和机器学习算法的技术创新,而且是一个行业以及关于技术的特定话语。人工智能只能与数据和算法一起理解——这三者是不可分割的,因为人工智能依赖于机器学习算法,而机器学习算法是特定数据集的产物。鉴于“大数据”本质上是不完整的,且具有本体论和认识论的局限性(Crawford & Finn,2014),人工智能应用会重现并可能放大大型数据集中发现的现有偏见(Benjamin,2019;Eubanks,2018;Noble,2018 等)。
AS:对。我们有一个刚性旋翼,一个良好的系统。 PW:这是哪个时期?20 世纪 50 年代末? AS:我不知道。在那个时期。可能是在 60 年代。 PW:我知道洛克希德在 60 年代与休斯在直升机方面展开竞争。 AS:我们有一个很好的系统。我们拥有唯一可以盘旋的直升机。我想我们仍然保持着速度记录。我们在其中一架直升机上装了一个小型喷气发动机,然后飞走了。AH-56 是我们的。我们参加了陆军攻击直升机的竞标。AH-56 是我们的方案。我们进行了大规模的提案工作,我也参与其中。我回到华盛顿;我们有两架飞机的人回到华盛顿制定提案。然后我们赢得了合同,并开始建造它。我负责维护组。不再是技术手册了;在可维护性方面,我们与设计师合作,确保他们设计的东西是可维护的。 PW:这更像是现场服务,但与…… 集成在一起 AS:有一点,但现在与设计师合作。当他们设计东西时,我们会查看并审查它,以确保它是可维护的。我们在那架飞机上做得很好。我们在奥克斯纳德这里进行了测试,一名陆军飞行员有一天在地面上进行测试,他像这样击打操纵杆,导致旋翼像这样转动 [用手演示],他设法让旋翼挖进座舱盖。这是一件坏事。他们取消了合同。可能还有更多事情,而不仅仅是我刚才说的,但这就是我记得的。但我记得,从这里我会去奥克斯纳德的现场检查直升机。该项目在范奈斯,在范奈斯机场。我们在那里有一个大型设施。 PW:你说你 1958 年搬到了卡马里奥的家?AS:是的。PW:但你当时要通勤到范奈斯,而在此之前你还要通勤到伯班克?AS:我想当我们搬到这里时,我在范奈斯。这可以说明直升机工作的时间。之后,我去了伯班克。PW:将现场服务和可维护性与设计工程相结合,是该项目的新举措,还是洛克希德一直都在这样做?AS:我们一直都是这样做的。让我回顾一下:我们并不总是这样做。现场服务是现场服务;可维护性是工程的一部分。在某个时候,
在上一期的《ESD》中,我们的开篇社论是对布鲁塞尔北约峰会的有趣评估,首先指出特朗普总统已经碰壁了,正如欧洲领导人所提出的北约统一阵线所描述,他“笨拙地”要求所有北约国家贡献 2% 的 GDP,这导致了乌龙球——“流鼻血”——并促使欧洲北约国家更加紧密地团结在一起……恐怕不是。首先,欧洲人认为特朗普总统在国内没有信誉,这种看法是建立在假新闻、只相信志同道合的评论员和一厢情愿的想法之上的。在即将到来的中期选举中,他的政党可能会在国会失去一些席位,但现代史上只有一次例外,与此同时,欧洲政客和媒体对最符合他们自己想法的新闻大肆报道,并极力诋毁任何不同意见。特朗普先生与内阁内外的个人存在问题,但马克龙有勒庞,默克尔有泽霍费尔,梅有约翰逊,西班牙有加泰罗尼亚,意大利有贝卢斯科尼;谁没有问题呢?但这一次,当涉及到群众时,左翼暴徒似乎比右翼暴徒更具敌意、暴力和极端:他们中谁的道德立场更高?当政治钟摆再次摆回来时,情况会有多糟糕?谈到 2% 的问题,未能实现这一目标的最重要国家是德国。这还不够好。这不是因为缺钱,而是因为缺乏政治意愿:当总理领导着一种反向的汉姆林魔笛手,为不受约束和控制的大规模移民敞开大门时,德国联邦国防军——这一最终可用于确保人民安全的资源——报告称,主要装备的可用性极低:93 架 TORNADO 中有 26 架,72 架 CH-53 中有 16 架,62 架 TIGER 攻击直升机中有 12 架,15 架 A-400 中有 3 架,6 艘潜艇中有 0 艘,等等。但这只是故事的一部分:德国愿意将北约视为一个国家工具,而与较小和不太强大的经济体所做出的实际牺牲相比,德国对北约的贡献微不足道,这为它提供了一个合适的垫子,让它可以在此基础上培养国家对 21 世纪的一点忏悔之情。自上个世纪中叶以来,德国经历了一次当之无愧的经济复苏,这为其目前的繁荣奠定了基础,但因为“哦,我们做了坏事”(绞着手)而放弃其国际义务是
生成人工智能时代的合作伙伴关系 Emmanuel Tan,新加坡南洋理工大学李光前医学院学生福利副院长 开端 “为什么学生还需要我们?他们有 ChatGPT。”一位同事最近在午餐时假装恼怒地提出了这个担忧。虽然这条评论很可能是对最近全球关于生成人工智能 (AI) 对教育影响的辩论的一个反问,但它指出了人们对教育工作者如何使用生成人工智能来加强教学和学习的真正担忧。这也可能掩盖了紧迫的担忧,包括对抄袭、潜在偏见和歧视的担忧。最后,它引发了道德问题,例如学生在教育工作者的监督下,使用生成式人工智能制作欺诈和诈骗内容,或编写恶意计算机代码来窃取数据或破坏计算机系统。在我居住和教学的新加坡,我们的互联网普及率是世界上最高的国家之一,移动智能设备无处不在,这意味着生成式人工智能在这种背景下的影响可能是巨大的。我认为这可能不是一件坏事,因为在有利的环境下,学校和大学可能会发现部署此类工具更容易,而且我们的许多学生已经在使用先进的工具进行学习。在我的机构,我们的大多数学生已经在使用他们的移动设备进行广泛的学习活动,我相信这说明他们采用这些新技术的能力比我们想象的要快。对我来说,所谓的对生成式人工智能取代教职员工的担忧似乎反映了师生关系的前提,这种关系更以教师为中心,将学生视为被动学习者。由于我认为自己是学习的促进者,与学生共同创造教学和学习,因此我并不认同上述担忧。然而,在思考这条评论时,我确实感到不安,因为它可能暗示我和其他人在不同的教育环境中与同事和学生合作。在我的背景下,新加坡的一所医学院,我们与学生进行了广泛的合作。这包括为学生提供正式的角色和代表,让他们参与教育委员会和政策制定平台,例如由学生领袖担任主席的师生联络委员会 (SSLG)。通过合作,教职员工“让学生成为共同学习者、共同研究者,在 SSLG 中,学生可以与出席会议的学校管理层成员一起提出和讨论与教育和学生生活相关的计划和项目。除了参加 SSLG 之外,我还是其他各种委员会的成员,例如学习和教学委员会 (LAT) 和医学教育委员会 (MEC)。在这些委员会中,我们让学生参与改进他们的社区学习项目,他们也参与重大课程改革和变革。我坚信,根据我的经验,合作永远不是结果,而是指导我们教学和学习方法的方式。
责备除了做错事之外,还意味着我们自身存在问题。换句话说,它的意思是“说或认为某人或某事做错了什么或应该为某些不好的事情负责”。在这里,责备他人涉及让别人为我们自己做出的选择和决定负责。当然,正如前面提到的,因为这样或那样的原因责备他人是我们可以看到的一种常见行为模式,也是人际关系中的一个重要方面。即使在家庭中,我们也能看到内化责备的影响。孩子责备父母;父母责备孩子。在我们的工作场所,经理责备他们的团队成员,团队成员责备他们的同事,等等。我们可以注意到的一个常见例子是,“如果他听我的话,情况会更好”,“如果她没有这样做,就不会发生这种事”等等。这些都是我们文化的共同方面。在这里,我们揭示了我们隐藏的怨恨。此外,我们还表达了通过责备和批评他人来发泄恐惧和挫折的倾向。有趣的是,我们生活在一种责备文化中。人们会将自己的痛苦归咎于任何人或任何事,而不是承担责任,让事情变得更好。值得注意的是,当事情出错时,人们很容易责备他人。在这种情况下,我们所处的情况不足以做正确的事情。责备他人与承担责任背道而驰。我们可能不懂得如何为那些我们并不真正感到负责的事情承担责任。相反,我们会试图让别人承担责任。责备是人类天生的缺陷。它塑造了我们的生活。有时,它可以是一种良性的自我定位方式。它发生在最小到最大的范围内。此外,责备可以分为两种类型,一种是无休止地责备他人,不承担任何责任,另一种是无休止地责备自己。我们不能强迫别人为自己的行为负责。只有当他们做出他们愿意接受的选择时,这才有可能。同样,我们也应该停止对他人产生消极的想法或责备他们。责备并不能解决问题,它通常会使人们产生防御心理。他们可能会觉得责备是一种攻击性和不友善的行为。因为它可能会在他们之间引起温和的争吵或戏谑,但它对受害者来说可能是有害的、有害的或毁灭性的。它可以破坏工作关系,或使主要的社会计划失效。客观地说,这似乎是有道理的。请记住,批评并不总是坏事。它常常可以帮助我们加强我们的选择和决定。但要注意不要把我们的错误和失败归咎于任何人。支持自私的人是浪费时间和精力;他们总会找借口把他们自己的错误归咎于我们,结果却是灾难性的。记住,“人性非常复杂。拥有少的人想要很多。拥有很多的人认为别人拥有更多。失去的人把失去归咎于他人。”“没有伟人,就不会有伟大的成就,只有下定决心的人才会伟大。”-Eraldo Banovac
20 世纪的最后几天似乎是一场奥威尔式的噩梦:法律阻止发表软件科学研究成果;法律阻止共享软件;过多的软件专利阻碍开发;最终用户许可协议剥夺了用户的所有自由——包括所有权、隐私、共享和了解其软件的工作原理。Richard M. Stallman 的这本论文集和演讲集解决了其中许多问题。最重要的是,Stallman 讨论了自由软件运动背后的哲学。这场运动与联邦法律和邪恶的最终用户许可协议的压迫作斗争,希望传播软件自由的理念。在数十万开发人员致力于创建 GNU 软件和 GNU/Linux 操作系统的力量下,自由软件在控制互联网的服务器上占据了一席之地,并且——随着它进入台式计算机市场——对微软和其他专有软件公司构成了威胁。这些文章面向广泛的读者群;您不需要计算机科学背景即可理解其中的哲学和思想。但是,有一个“软件注释”,可帮助不太懂技术的读者熟悉一些常见的计算机科学术语和概念,以及整篇文章的脚注。其中许多文章已根据其最初发布的版本进行了更新和修订。每篇文章都允许重新分发逐字副本。文章的顺序相当随意,因为阅读文章没有要求的顺序,因为它们是在 18 年的时间里独立撰写的。第一部分“GNU 项目和自由软件”旨在让您熟悉自由软件和 GNU 项目的历史和理念。此外,它还为开发人员、教育工作者和商界人士提供了路线图,以便务实地将自由软件融入社会、商业和生活。第二部分“版权、Copyleft 和专利”讨论了版权和专利制度的哲学和政治基础,以及它在过去几百年中是如何变化的。此外,它还讨论了当前的专利和版权法律法规如何不符合软件、音乐、电影和其他媒体的消费者和最终用户的最佳利益。相反,本节讨论了法律如何帮助企业和政府压制您的自由。第三部分“自由、社会和软件”继续讨论自由和权利,以及它们如何受到专有软件、版权法、全球化、“可信计算”和其他有害社会的规则、法规和政策的威胁。行业和政府试图说服人们放弃某些权利和自由的一种方式是使用暗示共享信息、想法和软件是坏事的术语;因此,我们附上了一篇文章,解释某些令人困惑且可能应该避免的词语。第四部分“许可证”包含 GNU 通用公共许可证、GNU 宽通用公共许可证和 GNU 自由文档许可证;GNU 项目的基石。如果您希望帮助进一步推动软件自由事业,如果您希望为自己、课堂使用或分发购买此书,请写信给自由软件基金会 (FSF),地址为 sales @ fsf.org,或访问 http://order.fsf.org/。
关于基因工程的四部分Netflix系列于2019年发布,研究了这种“无声革命”对社会的影响。纪录片系列“不自然的选择”探讨了各种观点,包括来自非学术背景的观点,可全面了解遗传编辑及其伦理。带有像查尔斯·达尔文(Charles Darwin)的名言:“如果您有一个会对社会感到愤怒的想法,您会保留自己吗?”该节目引发了有关基因工程的基本讨论。该系列由每一小时大约一小时的发作组成,为CRISPR技术及其对社会的影响提供了宝贵的见解。此教育内容适用于生物学,人/动物科学,遗传学,生物医学或健康课程,为课程计划提供了丰富的资源。一个带有32个问题和答案键的视频指南可以支持学生学习。“如果一个想法会震惊社会,您会隐藏它吗?”查尔斯·达尔文(Charles Darwin)曾经说过。一个生物黑客谈论他与狗的实验,希望它们跑得更快并具有更大的气味。“您会惊讶于YouTube上的内容,”他从棚子的舒适中说,听起来像是弗兰肯斯坦的东西。现场转移到了创建CRISPR的詹妮弗·杜德纳(Jennifer Doudna)博士,该工具使科学家可以在生物中编辑基因。有些人认为它可以治愈诸如失明或肌肉营养不良的严重疾病,但其他人则对其力量感到害怕。还记得科学家他的江岛,他未经允许而被判处三年徒刑?该节目没有提到这一点。后来,进化工程师凯文·埃斯维尔特(Kevin Esvelt)说,进化只会关心改善而不是苦难。“我们应该为自己的道德价值观违反自然多远?”他问。生物学家,Juan Izpisua Belmonte教授,是否担心使人类更坚强,更聪明。我们在这里处于新领域。,但后来有Josiah Zayner是一名物理学家,他认为基因工程应该适合所有人。“我们应该只是因为他们可能将其用于坏事而教别人吗?”他问。我想知道该节目是否谈论了太多,而对这部科学的适合我们的世界还不够。很好的是,我们看到了科学家的观点和公众的反应。人们害怕改变。crispr提出了许多问题 - 例如谁可以控制自己的力量?有些人担心它会用于军事或经济利益。基因工程会影响动物,食物甚至药物,因此需要仔细的规则。这个节目将遗传科学的伦理在每个人的眼前都勇敢地迈出了一步。Netflix的纪录片“不自然的选择:剪切,粘贴,生活”探讨了基因工程的快速进步,重点是CRISPR技术及其重要含义。这一集提出了有关使用该技术的道德规范的重要问题,并考虑了其未来的潜在利益和缺点。这个信息丰富的视频将是生物学,人/动物科学,遗传学,生物医学科学或健康研究的课程或课程计划的绝佳补充。此外,它是快速教学解决方案的宝贵资源。