详细内容或原文请订阅后点击阅览
我们身边的算法
节拍器滴答作响。唱片旋转。随着一首令人愉悦的流行音乐播放,一台巨型压实机慢慢压碎了一座材料创作的 Jenga 塔。油漆罐爆裂。棋子倒下。相机镜头碎裂。闹钟尖叫然后安静下来。吉他琴颈折断。甚至玩具表情符号也未能幸免,它的眼睛突突突……
来源:MIT Technology Review _人工智能崇高的预测,这本书是导航AI的有用指南。这包括了解其缺点。例如,与Chatgpt或其同类产品一起玩的任何人都知道,这些模型经常构成东西。 Mollick警告说,如果他们的准确性在将来提高,那就不应该使我们更加警惕。他解释说,随着人工智学变得越来越有能力,我们更有可能信任它,因此遇到错误的可能性较小。
AI的风险不仅是我们可能会出错;我们可能会失去批判性和原始思考的能力。沃顿商学院教授Ethan Mollick
AI的风险不仅是我们可能会出错;我们可能会失去批判性和原始思考的能力。
沃顿商学院教授Ethan Mollick在对管理顾问的研究中,Mollick和他的同事发现,当参与者可以使用AI时,他们通常只是将赋予的任务粘贴到模型中并复制其答案。这种策略通常对他们有利,使他们比没有使用AI的顾问有优势,但是当研究人员提出一个带有误导性数据的技巧问题时,这是适得其反的。在另一项研究中,使用高质量的AI的招聘人员“懒惰,粗心,在自己的判断力方面差不多”,与使用低质量或没有AI的招聘人员相比,他们忽略了优秀的候选人。莫利克感叹道:“当人工智能非常好时,人类没有理由努力工作并注意。”
mollick乐观,我们可以通过故意与之合作的方式来避免AI的许多陷阱。 AI经常通过在我们认为应该做的事情上表现出色,使我们感到惊讶,例如讲故事或模仿同理心,并且对我们认为应该这样的事情感到痛苦,例如基本数学。由于没有针对AI的说明手册,Mollick建议为所有事情尝试一下。只有通过不断测试,我们才能学习其能力和限制,从而继续发展。
我的孩子,算法