摘要 随着越来越先进的数字系统的诞生,这些系统中的一些将成为数字思维,即数字经验主体的可能性也越来越大。数字思维带来了数字痛苦的风险。数字痛苦的问题在于如何减轻这种风险。我们认为,数字痛苦问题是一个高风险的道德问题,巨大的认识论障碍阻碍了它的解决。然后,我们提出了一种解决该问题的策略:访问监视预防 (AMP)。AMP 使用“舞动的感质”论点将某些数字系统的功能状态与其体验联系起来——这产生了对数字思维的认识论访问。有了这种访问权限,我们可以通过仅创建我们可以访问的高级数字系统、监视它们的功能配置文件并防止它们进入具有痛苦功能标记的状态来防止数字痛苦。在介绍和激发 AMP 之后,我们将面对它面临的局限性并确定一些克服这些局限性的选项。我们认为 AMP 特别适合创建此类系统的一种方式:全脑模拟,因此有道德理由优先考虑这种方式。我们还认为,采取其他途径实现数字化思维在道德上是有风险的。
哲学与图灵(Turing)提出的历史模仿测试(1948-1952)的哲学最佳联系。我将研究图灵的模仿游戏或测试的各种版本的历史和认识论根源,并表明它们是在对话中发出的,实际上是科学的争议,最著名的是与物理学家和计算机先驱者道格拉斯·哈特里(Douglas Hartree),化学家和哲学家Michael Polanyi,Michael Polanyi和Neurosurgeon Geoffrey Jeffery Jeffers。将图灵的观点放在
抽象的机器学习(ML)方法对所有科学产生了巨大影响。但是,ML具有强大的本体论(只有数据存在),并且是一个强大的认识论,其中模型在持有培训数据上表现良好,则认为该模型被认为是好的。这些哲学与自然科学中的标准实践和关键哲学持强烈冲突。在这里,我们在自然科学和认识论具有有价值的自然科学中确定了ML的一些位置。例如,当在因果推理中使用表达的机器学习模型来表示混杂因素的效果,例如前景,背景或仪器校准参数,ML的模型容量和宽松的哲学可以使结果更加值得信赖。我们还表明,在某些情况下,ML的引入引入了强烈的,不必要的统计偏见。对于一个,当使用ML模型模拟物理(或第一原理)模拟时,它们会扩大确认偏见。对于另一个,当使用表达回归来标记数据集时,这些标签不能在下游关节或集合分析中使用而无需进行不受控制的偏见。标题中所有自然科学的问题都在问。也就是说,我们呼吁科学社区退后一步,并考虑ML在其领域的作用和价值。我们在这里给出的(部分)答案是从物理学的特定角度出发的。
在本文中,我们研究了生成性AI驱动的文化转变,探索了其革命性和潜在的人类意识中的认知和认识论转变的潜力。我们介绍了“认知”的概念 - 将生成AI注入各种社会方面 - 并通过精神,社会和技术镜头对其进行分析,与三种类型的人类文化相对应。精神观点调查了生成性AI如何增强人类创造力,促进人类的合作和个性化文化对象。社会镜头探讨了人工智会对人类互动的影响,其创造性努力的民主化以及相关的道德问题,例如AI-ai-ai-tosship纠纷。技术观点强调生成的AI是一种新的认知形式,从而实现了认识论的进步并重塑了我们对知识创造的理解。我们认为,生成的AI不仅是一种工具,而且是一种作为人类的合作伙伴或队友的文化技术,能够重新构想社会与智力和创造力的互动。尽管这种现象为创新提供了机会,但它也提出了与作者身份,道德和监管有关的挑战。通过认知,生成的AI有可能重新定义文化规范并增强人类潜力,从而成为进一步研究的关键领域。
