1 在欧洲竞争法中,第 101 条(TFEU)规定禁止卡特尔。第 102 条(TFEU)禁止滥用市场支配地位。欧盟关于合并的立法文本主要规定在欧共体合并条例和实施条例中。 2 例如,参见美国 FCC 频谱拍卖(1994-98 年),其中各方通过在出价的最后 3 位数字中提及他们喜欢的市场号码(Cramton 和 Schwartz,2002 年)。或者德国 1999 年 DCS-1800 拍卖(手机频谱),其中 Mannesmann 表示愿意以 2000 万德国马克的价格分享竞标区块,出价 18,18,以便 T-mobile 可以将其出价提高到 20(最低强制加价为 10%),(Motta,2004 年)。 3 Schinkel(2010 年)也强调了这个问题;在他的就职演讲中,他用猫捉老鼠的游戏来比喻。4 举报可以定义为“一个人认为公众利益高于他所服务的组织的利益,因此举报该组织参与腐败、非法、欺诈或有害活动的行为”(Nader、Petkas 和 Blackwell,1972 年,第 28 页)。5 Hüschelrath(2010 年)也提到了这一点。
第 62 届 ITMG 国际军事史会议 暴力是“真正的变色龙” 军事暴力的转变、持续和出现 概念和组织:Frank Reichherzer 和 Friederike Hartung 地点:德累斯顿,mightyTwice 会议酒店和德国联邦国防军军事史博物馆 时间:12-14。 2023年9月 普鲁士将军、战争哲学家、名言提供者卡尔·冯·克劳塞维茨在其著作《战争论》中使用了一个有趣的比喻:战争就像一条“真正的变色龙”。克劳塞维茨选择的关于战争的多变性和军事暴力形式的变化的论述,体现了当前的研究趋势。暴力研究越来越关注暴力复杂的时间性和过程性。因此,第 62 届 ITMG 询问了军事暴力的时间性——在战争和和平时期,以及其间的阶段和过渡时期。因此,德国联邦国防军军事历史和社会科学中心为讨论当前的研究提供了一个跨学科的论坛。我们可以通过三个时间形象来理解暴力的时间性,它们单独或者结合起来可以引发具体的问题。综合起来,时间数字指向了(军事)暴力拓扑中的关系和格局。
人工智能无处不在。它存在于我们的手机、冰箱中,我们接触的大多数企业都使用它来“改善”他们的服务。从决定接下来要观看的 YouTube 视频到驾驶车辆或射击武器,人工智能是我们社会的关键。但什么是人工智能?更重要的是,为什么它很重要?这很重要,因为我们目前还没有准备好应对人工智能带来的范式转变法律问题。如果没有这种理解,我们几乎肯定会犯错。好的一面是人工智能并不复杂。人工智能——更准确地说是机器学习——建立在简单而直观的概念之上,这些概念围绕着:(1) 一种称为神经网络的特定类型的机器;(2) 让该机器通过梯度下降或类似梯度下降的过程进行学习。本文的目的是提供一个低级、准确且易于理解的人工智能解释,并提供一个新颖的比喻来帮助解释。就像一道永不消退的炖菜,用人工智能构建的模型从一份食谱(神经网络架构)开始,根据特定的口味进行调整(训练),只要它们继续产生美味(准确)的结果,就会永远存在。反过来,本文为法律界提供了一个准确的视角,可以从中分析许多不久就会出现的人工智能问题。
Rosstandart 的 FBU TsSM 系统是国家质量基础设施的基本组成部分。产品测试和计量可确保测量的一致性、准确性和可靠性,是确认产品在其生命周期各个阶段的一致性的活动的基础。只有中心配备标准设备,这些极其重要的工作才能高质量实施。不是比喻意义上的,而是最字面意义上的。因此,需要不断现代化、技术更新和掌握新能力。近年来,中心的创新发展开始受到建筑物理和道德老化的阻碍,日益满足工作场所组织的要求和放置参考设备的条件。随着重建主要阶段的完成,工作场所的人体工程学已达到现代要求的水平。对外部影响最敏感的标准和测试台现在位于“远离城市噪音”的地下两层专门准备的房间中。越来越多的多功能测量仪器出现,可以进行两种、三种或更多种类型的测量。在重新设计场所时,我们寻求为实验室内和实验室间转移 SI 建立最佳的物流。放置非格式设备的机会已经出现。测试流量计的装置占地350平方米。设备工作面积
哲学家们早已认识到隐喻作为一种开辟新研究途径的工具的价值。通过将大脑视为具有表征目标,计算机隐喻以其各种形式帮助系统神经科学研究各种神经元行为,无论规模大小。在这里,我提倡一个互补的隐喻,即互联网。采用这个隐喻将我们的重点从计算转移到通信,从将神经元信号视为局部表征元素转移到将神经元信号视为传播信息。在此过程中,我们可以利用与互联网强大而高效的路由策略的比较来了解大脑如何应对网络通信的挑战。我列出了九种工程策略,帮助互联网解决与大脑网络面临的路由挑战类似的挑战。互联网隐喻帮助我们将大脑中的神经元活动重新定义为路由的一种表现形式,在系统的不同部分,路由可能更像、更不像或根本不像互联网。我描述了与大脑使用类似互联网的路由策略一致的暗示性证据,并得出结论:即使经验数据不直接暗示类似互联网的路由,这个比喻对于那些研究大脑中网络通信的难题,特别是路由问题的人来说,作为一个参考点是有价值的。
优先于其他。大多数科学家可能同意,他们宁愿花时间做科学研究,也不愿担心词语含义的争论。然而,计算和神经科学的哲学家们更乐意担心词语的含义;不是因为它本身很有趣,而是因为它可以阐明我们在仔细思考和有效交流大脑时提出的假设。这在认知科学、计算机科学、神经科学等跨学科领域尤其重要,在这些领域,审问我们的概念可以成为一种富有成效的方式,让来自不同领域的研究人员走到一起,避免各说各话。这里将论证大脑可能是字面意义上的计算机,而不仅仅是比喻意义上的计算机。这需要经验标准来确定什么使物理系统成为计算系统。这些标准超越了理论计算机科学的概念和数学资源;这里将开发一组候选标准。有了这些标准,我们将看到大脑如何成为一台真正的计算机,尽管可能不是一台数字计算机。这里概述的物理计算说明既显示了不同类型的计算(例如数字、模拟和其他类型)的不同之处,也显示了它们都算作真正的计算类型的原因。综合起来,这些考虑表明大脑可以真正地进行计算,而它是否这样做则是一个经验性的说法。此外,虽然模拟计算是一种真正的计算类型,但它与数字计算在神经科学家、认知科学家和理论计算机科学家看来存在一些不明显的不同。我们将讨论其中一些差异。
标题很有趣 - 解释了声音对大脑的影响,大脑对它的影响以及它如何影响人。这本书是听觉神经科学家Nina Kraus博士的爱的劳动。kraus用个人和研究观察的混合物写作,主要来自她的实验室的作品,也是来自其他研究的作品。她对塔拉尔(Tallal's),梅尔泽尼奇(Merzenich's),克里希南(Krishnan),佩雷茨(Peretz)和帕特尔(Patel)的研究贡献给出了众多观点。用比喻来借鉴,用熟悉的现实生活音乐体验来说明她的观点-Zakir Hussain,Lady Gaga,The Beatles和爵士音乐家。这本书给出了有关声音对 - 引用“我们的声音自我”的当前知识的全面图片。kraus将知识置于具有适当类比的已知构造中。它以其他章节的介绍开始。有脚注要解释,提供有关概念的详细信息,并且有一大堆笔记(67页),其中包含每章的参考文献,一个词汇表,索引和确认(10页)。插图虽然黑色和白色提供了复合图片。克劳斯(Kraus)采用了一种对话性语气,并讲述了我们声音思想的故事 - 从简短的介绍到听力,聆听,鸟类歌曲,双语,噪音和衰老的过程,从逻辑上开始安排。解释了拉丁单词的含义(许多人的祸根),这增加了阅读的易用性。
摘要:自认知革命以来,心理学家通过将思维视为计算机,发展了正式的认知理论。然而,这个比喻通常适用于个人思维。人类很少孤立地思考。我们奇怪地依赖文化传承的技能和知识,并且我们擅长与他人合作。在这次演讲中,我将提出——与其将人类思维研究为一台孤立的计算机——不如将协作中的每个思维想象为分布式系统中的节点。我将介绍两条工作路线,每条路线都提供了人类如何共同思考的互补观点。第一条工作路线评估了促成协作的基本心理过程。我将提供证据,证明人类理解他人思维的能力——或心理化——使我们能够应对协作的关键挑战,包括有效地与合作者沟通和建立协作团队。第二条工作路线研究社区如何创造促进协作的条件。我将介绍《一小时一生》中社区兴衰的结果,这是一款多人在线游戏,玩家可以从头开始构建技术先进的城市。总之,这些项目表明,人类合作的动力不仅来自我们理解社会世界的能力,还来自我们通过组建团队积极重塑社会世界的能力。最后,我将提出一个理论框架来研究团队如何在众多头脑中分配任务、信息和决策。
摘要:自主人工智能(以下简称 AI)应用具有非凡的能力,可以彻底改变我们的日常生活。尽管如此,在它们的运行过程中,已经观察到许多侵犯人权的事件,从而危及公众的接受度和进一步发展。造成这种情况的主要原因在于自主 AI 系统固有的不透明性,这构成了所谓的黑箱问题或黑箱效应。为了消除这种影响,科学界经常建议“透明度”应该是实现这一目标的适当工具。事实上,在 21 世纪,关于 AI 透明度主题的学术研究数量迅速增加,甚至敦促欧洲立法者采用有关高风险 AI 系统透明度的协调法律规则等。尽管如此,透明度的语义背景尚未得到充分定义,其可能产生的负面影响也未得到深入探究。因此,人们对人工智能透明度的有效性表示担忧。然而,这些担忧并没有降低透明度对人工智能未来的重要性;它们实际上提出了一种让科学界看待人工智能的不同方式。也就是说,考虑到人工智能从定义上来说是一个多学科领域,由计算科学和认知科学组成,其透明度应该具有双重含义:首先是字面含义,与自主人工智能系统中决策程序的技术性相对应;其次是比喻含义,指充分理解这一程序结果的必要性,更重要的是,指人类有权事前或事后反对自主人工智能系统做出的决定。因此,在人工智能中嵌入透明度应该考虑促进人机交互和人机指挥的方法,而不是仅仅关注人机交互的方法。
本研究旨在了解文本转图像生成式人工智能平台如何延续种族主义和性别歧视等偏见,并解码这种偏见如何在大型语言模型和数据集中编程。在本研究中,生成式人工智能的结果通过情感和情感理论的视角进行分析,因为它们被用于研究生成式人工智能算法背后的机器学习和计算机理论。这项研究的目的是解释生成式人工智能为什么有偏见,以及这种偏见是由于当前趋势还是由于它从中提取信息的数据库中的缺陷和偏见而产生的。通过了解生成式人工智能的编码方式,我们试图了解生成式人工智能是否以及如何能够预测趋势,甚至超过人类的预测。这些对话都与生成式人工智能的伦理影响有关,以及随着文本转图像人工智能平台的扩展,我们是否应该实施问责机制,以确保这些平台以合乎道德和负责任的方式运行。本研究还通过分析当今世界社会和政治气候的趋势,探讨了人工智能的使用是否也会进一步加剧种族和性别歧视,要么是因为它的使用进一步鼓励了种族和性别歧视,要么是人工智能正在助长这种歧视。然而,这项研究的目的是了解生成式人工智能中偏见的起源和机制,特别是关于性别歧视和种族主义的比喻,并提出最佳实践建议,以帮助鼓励和实施指导方针,以更合乎道德和更认真地使用和应用生成式人工智能平台。