人工智能的问题在于我们

哲学家 Shannon Vallor 在《AI Mirror》中指出,如果我们决定改变人工智能的使用和设计,它不会预示人类的末日,或者说它不必如此。

来源:斯坦福社会创新评论(SSIR)

AI镜:如何在机器思维时代恢复我们的人性

Shannon Vallor

272页,牛津大学出版社,2024

购买书»

当一个人停止讲自己的故事时,一个人或聪明的物种会发生什么?”哲学家香农·瓦洛(Shannon Vallor)在她的新书《 AI Mirror:如何在机器思维时代恢复我们的人性》的开头。 “当自我知识和自决产生不透明算法的预测能力时,我们会失去什么?”

始终对人类未来的恐慌一直遇到新兴和迅速发展的技术。在19世纪初期,玛丽·雪莱(Mary Shelley)的科学怪人(Frankenstein)描绘了电力来激发生命的巨大潜力。在20世纪,科幻和幻想流派代表了核技术和外星人相遇的想象中的未来。同样,Vallor说,对人工智能(AI)的焦虑不是真正的外部威胁,而是人类及其选择的焦虑。她写道:“ AI并没有威胁我们作为人类的未来继任者。” “这不是侵占我们领土的外部敌人。它威胁着我们的人类。”

Frankenstein 亚马逊的内部招聘工具 ProPublica研究

vallor断言,我们对AI的集体迷恋和批发乐观,例如Narcissus对他的反思的结界,使我们忽略了我们所看到的现实和局限性。再说一次,就像水仙一样,我们无法认识到我们在AI镜子中看到的人,这只能提供我们人类的扭曲视图。 Vallor认为,通过允许AI系统塑造我们的理想表达方式,我们正在“投降所有希望使自己变得比以前的希望更多的希望,” Vallor认为,“ [因为]这些工具越来越多地用来告诉我们我们是谁,我们可以做的是谁,我们将成为谁。”

我们需要更广泛地夺回AI和技术文化,以实现可持续的道德愿景。
工作场所 关系