文化丧失与毁灭,以及社会如何通过重建和纪念应对文化创伤。2018 年 11 月,亚历山大图书馆创始名誉馆长 Ismail Serageldin 博士在系列讲座的首次演讲中引用了拿破仑·波拿巴的一句话:“从长远来看,笔总是打败了剑。” 今年我们公共人文项目的另一个亮点是新的演讲系列“21 世纪的人性意味着什么?” 为期一年的跨学科讲座系列是与埃森哲位于都柏林的全球研究与孵化中心 The Dock 合作举办的。该系列讲座于 2018 年 12 月启动,作为头条新闻论坛的一部分进行小组讨论,演讲者探讨了超人类主义、基因操纵、数据驱动世界面临的挑战以及以人为本的技术方法。 2018 年 11 月,我们发表了一封致《金融时报》的公开信,信中谈到了爱尔兰最成功的跨境机构之一——三一学院,以及英国脱欧可能对跨境关系(尤其是教育)产生令人担忧的影响。该倡议吸引了媒体的广泛关注,并在社交媒体上获得了广泛的网络受众,一些人将这一举措描述为“知识公民的典范”。这一机会是我们与《金融时报》合作的结果,该合作始于 2017-18 年的“欧洲未来项目”和三一学院博士生 Marie Sophie Hingst 的获奖论文。
尽管人工智能和量子计算 (QC) 正迅速成为未来互联网的关键推动者,但专家认为它们对人类构成了生存威胁。针对 ChatGPT/GPT-4 的疯狂发布,数千名感到震惊的科技领袖最近签署了一封公开信,要求暂停人工智能研究,为不受控制的 AGI (通用人工智能) 对人类造成的灾难性威胁做好准备。AGI 被视为“认识论的噩梦”,人们认为 GPT-5 会使 AGI 陷入危险。两条计算规则似乎是造成这些风险的原因。1) 强制第三方权限,允许计算机以引入漏洞为代价运行应用程序。2) 图灵完备人工智能编程语言的停机问题可能导致 AGI 势不可挡。在传统系统下,这些固有弱点的双重打击仍然是不可战胜的。最近的网络安全突破表明,禁止所有权限可将计算机攻击面降至零,从而提供一种新的零漏洞计算 (ZVC) 范式。本文通过部署 ZVC 和区块链,制定并支持一个假设:“通过征服两个不可攻克的可计算性规则,安全、可靠、合乎道德、可控的 AGI/QC 是可能的。”在欧洲财团的推动下,当 AGI/QC 到 2025 年开始为 750 亿台互联网设备提供支持时,测试/证明提出的假设将对未来的数字基础设施产生突破性的影响。
几乎无论我走到哪里,都能看到人工智能 (AI) 的变革潜力被大力推广,因此,它成为本期《研究视野》的焦点可谓恰逢其时。本文介绍的一些研究人员是全球人工智能专家之一,他们签署了一封公开信,肯定了这项技术的好处,并敦促谨慎发展。他们说的实际上是:“人工智能系统必须做我们希望它们做的事情。”在实现巨大希望的同时推动进步是一种复杂的平衡。它需要工程师、计算机科学家和数学家构建从数据中学习的系统,既像人类一样思考,又不像人类思考;它需要气候科学和犯罪学等不同领域的专家开发这些学习机器的创新用途;它需要研究人员在算法丰富的世界中提出有关安全、信任、透明度、保障和隐私的新问题。剑桥在机器学习、机器人技术和人工智能技术应用方面具有优势。研究不仅旨在最大限度地发挥人工智能的影响,还旨在了解如何确保该技术造福人类。这得益于两个新的研究机构——利华休姆未来智能中心和生存风险研究中心——以及阿兰图灵研究所的创始合伙人。这些发展确实来得正是时候。2017 年 11 月,英国政府的工业战略提出了四大挑战,其中之一就是让英国走在人工智能和数据革命的前沿。在本期中,我们将介绍剑桥人工智能研究人员正在产生重大影响的一些领域,并考虑加入“剑桥集群”对学术界和工业界的一些好处。在这期《研究视野》的不同版本中,我们介绍了囊性纤维化研究的重大推动、史诗的史诗分析以及剑桥第一个专门的树木年轮实验室。我们希望您喜欢这些文章以及本期的其他文章。克里斯·阿贝尔教授研究副校长
引言本文是由ACR开发的,目的是将业务领导者与研究联系起来,以巩固商业案例,以作为全面气候策略的一部分购买和退休高质量的碳信用额。本报告旨在支持“给未来的碳信用购买者的公开信”,总结了广泛的研究,使读者进入了第三方研究中最相关的特定部分,这些部分是最相关的,强调了重要的证据。下面的文本遵循公开字母的顺序,使得可以轻松追踪基础研究。此白皮书是由ACR开发的,ACR对其内容完全负责。如果您有疑问,请将它们引向crict@winrock.org。研究摘要“净零”是与巴黎协议一致的实用目标。《巴黎协定》设定了“远低于2摄氏度的长期温度目标,同时努力将增加到1.5度。”为了实现这一目标,各方旨在“在本世纪下半叶,通过葡萄酒葡萄干的水分来源的人为排放和去除的人为排放之间达到平衡。”在格拉斯哥的COP 26上,双方同意将全球变暖限制为1.5度C,要求将排放量减少到“本世纪中叶左右左右”。 《巴黎协定》第6条描述了如何自愿合作以达到其气候目标。第6条为各国提供了通过减少或清除碳排放产生的缓解结果的框架,以帮助其他国家实现其目标。了解更多。第6.2条:建立国家规则手册,以双边交换缓解结果(国际转移的缓解结果 - ITMOS),并报告和说明其转让并将其用于其国家确定的贡献(NDC)。第6.4条:建立新的联合国气候变化框架公约(UNFCCC)机制,以验证,验证和发行高质量的碳信用额。
以色列-加沙/黎巴嫩战争。辩论。乌普萨拉大学的 131 名教授、研究人员和其他员工写道:现在大学必须断绝与以色列的联系;复制品。安德斯·哈格费尔特 (Anders Hagfeldt),校长。乌普萨拉大学:抵制以色列可能会使辩论陷入沉寂——新消息。 SOU 2024:75。个人数据和媒体法 - Regeringen.se --- 管理人员因护理助理在疫情期间在媒体上发表言论而向其发出警告,侵犯了言论自由。最高法院维持对 Attendo 高管的判决 |关怀焦点---千年。马格努斯·奥尔森 (Magnus Olsson),医生兼健康中心经理。致负责任的政治家的公开信。抛开声望,立即废除千禧年 |哥德堡邮报 除西约塔兰省外,斯科纳省是该国已经采购并将实施千禧医疗信息系统的地区。 VGR 的发展不会影响斯科讷省千禧年的计划——“我认为我们应该在流程早期就更好地倾听大家的意见,”初级保健经理说。达拉纳地区撤回印刷厂后引发抗议 - 管理者进行自我批评 --- 组织研究员 Mats Alvesson 和首席医师 Stella Cizinsky。 “有时,规定已经到了无可奈何的地步,尤其是当条款压倒了判断和道德的时候。” “功能性愚蠢几乎不是什么值得庆祝的事情” - DN.se --- 优先事项。很少有地区设立了优先排序筹备委员会来管理系统性、结构化和透明的优先排序工作。当各地区优先考虑的事项不同时,如何实现平等的护理? - 区域委员会敲定了医院医生的方向决定:“在医疗评估和指南解释方面,应该做必要的事情,但仅此而已。” “我明白这个决定可能会被认为是模糊的” - 医院医生
现代人工智能系统能够与人类竞争解决各种各样的问题。 2023年3月,特斯拉、SpaceX和Twitter管理层、Pinterest和苹果联合创始人发表公开信,概述了暂停人工智能技术开发的理由,指出了对社会的主要风险[1]。信中作者认为,强人工智能的广泛应用将导致社会生活的深刻变化,作者由此得出结论,必须仔细规划这项技术的管理、控制和审计,但由于人工智能实验室之间为争夺其产品开发和实施的主导地位而展开无节制的竞争,目前尚未做到这一点。在科技、技术、人文不平衡的背景下,社会思想的滞后是一个显著的问题[2,p. 28]。可以假设,领先的 IT 巨头的负责人正试图通过在开发实施过程中暂停一段时间来减少这种不平衡。但这种停顿能够持续足够长的时间吗?目前,人工智能服务是用户手中的工具,而目标设定则由人来完成。人类的许多功能已被委托给技术,但理性和意识领域仍然没有实现自动化。但这只是时间问题。如果目标设定活动的基础是对世界的不满和改变世界的需要,并赋予其行动者必要的形式,那么人工智能将如何基于何种不满来想要改变世界?与被剥夺了肉体、精神和其他决定需求意识和目标设定的人类特质的人相比,人工智能会产生哪些需求?如果某个行为是目标设定、意图或意图的结果,那么我们就可以谈论行为者意识的存在。永恒的问题出现了:什么是意识?我们是否可以说意识的出现只是生物体所固有的,或者如果有充分的理由,意识有可能出现在人工智能中?如果是,理由是什么?总的来说,谈论意识与人工智能的关系是否有意义?任务是赋予人意识吗?或许,对这个问题进行推理是为了阻止人工智能出现意识,通过消除先决条件来排除这种可能性。人工智能获得独立性可能会剥夺人类的决策者角色,有时甚至会有消除人类的风险[2,p. 21]。最近涉及人工智能的事件