人类与科技的关系正处于一个转折点。你见过 1000 年后人类的反乌托邦画作吗?驼背、皮肤蜡黄、大而敏感的眼睛——这是那些花太多时间待在室内、与现实世界脱节的人的标志。这些图像反映了艺术家们对当今我们与科技关系的看法。它们发自内心、引人注目,基于真实的恐惧。人们担心屏幕时间和技术对认知的影响,我们越来越多地听到关于技术控制我们生活或失去对技术的控制的担忧——尽管技术使用比以往任何时候都多。但未来不必像这些艺术家想象的那样。如果我们重塑人与技术的关系,设计技术来放大而不是改变让我们成为人类的东西,未来就不会如此。
博世人工智能未来指南首次证明,德国对人工智能,尤其是工业人工智能的支持率很高。然而,我们也看到,人们对人工智能仍有很多保留意见,其中一些保留意见非常强烈。这种怀疑不能仅仅通过与电影中呈现的反乌托邦景象相提并论,就认为是不合理的。与所有技术一样,人工智能也有可能被滥用。正因为如此,我们需要始终准确了解人工智能的工作原理并限制其使用。为此,还需要公开并在事实基础上讨论其优缺点。最重要的是,我们作为人工智能的提供者和用户,需要通过表达我们对明确道德红线的承诺来建立信任。在其人工智能道德准则中,
暗示性的雕刻的缘石将客户引导到庞贝的妓院,总是在家庭语音助手那里收集您的对话,以服务于您的目标广告。但是,要提高销售量,他们首先需要引起我们的注意。,正是这种引起关注的竞争意味着我们可以消费的更大,通常是免费的内容。通过广告收入使有效的新闻,广播和电视都成为可能。广播权利和品牌促进了从业余体育到职业时代的逐步升级 - 让您最喜欢的运动员可以跳过日常工作,宁愿每天在健身房度过12个小时,让您在场上呆80分钟。广告也是我们数字乌托邦的无声顾客。他们为我们无法没有的“免费”平台付费 - Google Maps,Instagram,Facebook,
摘要 — 信息融合系统 (IFS) 的特征描述是一项非常艰巨的挑战。信息融合有许多层次,决策融合模型也有很多。有人可能会说,每个问题都非常具体,因此开发一个通用框架是乌托邦。本文提出了一种简化的、有时是幼稚的 IFS 表示。这种表示基于对 IFS 输入和输出的特征描述。因此,IFS 被视为在某些条件下将输入转换为输出的函数。这些条件可能包括控制、背景知识和目标查询。我们提出了一组可用于描述融合函数的属性。本文还讨论了分布式信息融合作为网络化操作的先决条件所面临的一些挑战。
我们的未来是否会走向通过计算机介导的现实来增强人类体验?沉浸式技术是独一无二的,存在于世界和我们的感官之间,让用户可以穿越完全虚拟的环境(即遥远的地方或幻想世界)或用虚拟物体增强现实世界,以及介于两者之间的任何虚拟与现实的混合。本文探讨了无处不在的沉浸式技术的哲学和社会影响,设想了一个相对不远的未来,主流技术已被取代,以及一个反乌托邦的遥远未来,个人可能会选择放弃现实,转而选择虚拟世界。通过创建设计小说作为思想实验,我们探索了 XR 未来可能面临的开放挑战,研究了今天的明天技术。
ARCT5511 乌托邦/灾难与城市想象 6 分 B 1 ARCT5508 实用建筑保护 6 分 C 1 ARCT5520 绘制弹性 6 分 C 1 ARCT5518 BIM 工作流程 6 分 C 2 ARCT5529 法医建筑 6 分 B 2 ARCT5528 提供优质设计 6 分 B 2 ARCT5536 照片真实渲染 6 分 C 2 ARCT5583 建筑保护简介 6 分 B 1 ARCT5513 新建筑时代的近期未来场景 6 分 C 2 BLDG5000 BIM 作者 6 分 C 1 ARCT5580 高级建筑动画 6 分 C 1 BLDG5300 BIM 可持续性 6 分 C 1 ARCT5586 全球背景下的澳大利亚建筑 6 分 B NA LAWS5398 建筑法 6 分 C NS
* 北京大学国际法学院法学教授。感谢所有对本文相关演讲发表评论的人,包括在吉隆坡的 2018 LexTech、2019 年在北京举行的 ThinkIn China 和 2019 年在阿联酋艾因举行的阿联酋大学年会“人工智能与正义”。1. Cary Coglianese & David Lehr,《机器人监管:机器学习时代的行政决策》,105 G EO. LJ 1147, 1148 (2017)(“设想政府机构可以有效地通过机器人制定法律的未来已不再是幻想,这一前景不难理解地让人联想到个人将自由交给计算机霸主控制的反乌托邦形象。”); Eugene Volokh,首席大法官机器人,68 D UKE LJ 1135, 1135 (2019)(“同样的[人工智能简报写作]技术可以用来创造人工智能法官,我们应该接受这样的法官,因为
围绕数字技术(其中最主要的是人工智能)的讨论可能会创造现代神话,通常提到乌托邦式的可能性(Brevini,2021 年)。然而,这种理想主义的描述往往掩盖了对人工智能误解的固有危险。De Saint Laurent(2018 年)指出了人工智能可以保持中立和不偏不倚的假设所带来的危险后果。这些误解可能导致避免批判性辩论、偏见正常化以及免除创造者和用户的责任。Falk(2020 年)通过强调人工智能超人潜力的神话贡献了一个重要的观点,这往往会掩盖更迫在眉睫的人工智能愚蠢挑战。这种形式的人工智能可能会取代、征服或欺骗人类用户,构成需要关注和讨论的重大威胁(Giray 等人,2024 年)。
首先,与大多数技术不同,它具有深厚的文化联系,这不仅来自我们看过的许多反乌托邦科幻电影,还来自对人工创造生命的深切担忧,这种担忧似乎可以追溯到希腊神话 (Mayor, 2019)。考虑到它的文化联系,人工智能会产生情绪化的反应,这并不奇怪。它确实有很多希望 (Bankhwal 等人,2024),也带来了许多问题 (Fergusson 等人,2023)。人工智能的性质和风险备受争议。虽然大型科技公司讲述了技术乌托邦主义、技术决定论和技术解决主义的故事,但同样强烈的声音正在从社会技术的角度阐明道德问题和社会影响。许多报告建议对工作进行重大改变,这一事实强化了影响我们做出明确决策能力的情绪化 (Jung and Desikan, 2024)。
2100 年,一个名叫格雷厄姆的普通伦敦人醒来后发现了三个不寻常的事实。首先,令人不安的是,他为治疗失眠而服用的实验性药物效果惊人,使他昏睡了两个世纪。此外,令人惊讶的是,他现在成了世界上最富有的人,因为在睡梦中,他得到了一笔遗产,由一个受托人委员会巧妙地管理。最后,格雷厄姆醒来后发现,这个世界并不是未来的乌托邦,而是同样“一边是奢侈、浪费和淫荡,另一边是赤贫”的古老对立。事实上,他的受托人现在是世界的统治者,据说是在代表他行事。格雷厄姆意识到这一点的可怕意义后,惊呼道:“我们正在创造未来,但我们中几乎没有人费心去思考我们正在创造什么样的未来。而现在,它就在这里!” 1