关于人工智能风险和监管,而其他社区则被排除在外。纽约市人工智能现在研究所所长 Amba Kak 表示,科技行业领袖撰写的信件“本质上是在划定谁是这场对话中的专家的界限”,该研究所专注于人工智能的社会后果。人工智能系统和工具具有许多潜在优势,从合成数据到协助医疗诊断。但它们也可能造成有据可查的危害,从有偏见的决策到消除工作。专制国家已经滥用人工智能驱动的面部识别来追踪和压迫人民。有偏见的人工智能系统可能会使用不透明的算法来拒绝向人们提供福利、医疗保健或庇护——这些技术的应用很可能对边缘化社区的人们产生最大影响。关于这些问题的辩论正陷入僵局。围绕最新生成式人工智能的最大担忧之一是它可能会助长虚假信息。这项技术使得制作更多、更令人信服的虚假文字、照片和视频变得更加容易,这些文字、照片和视频可能会影响选举,或者破坏人们信任任何信息的能力,从而可能破坏社会稳定。如果科技公司真的想避免或降低这些风险,他们必须把道德、安全和问责放在工作的核心位置。目前,他们似乎不愿意这样做。OpenAI 对其最新的生成式人工智能模型 GPT4 进行了“压力测试”,促使它产生有害内容,然后采取保护措施。但尽管该公司描述了自己所做的工作,测试的全部细节和训练模型的数据并未公开。科技公司必须制定负责任地开发人工智能系统和工具的行业标准,并在产品发布前进行严格的安全测试。他们应该将完整的数据提交给能够验证它们的独立监管机构,就像制药公司在药品上市前必须向医疗当局提交临床试验数据一样。为了实现这一点,政府必须建立适当的法律和监管框架,并适用现有的法律。本月早些时候,欧洲议会批准了《人工智能法案》,该法案将根据潜在风险对欧盟的人工智能应用进行监管——例如,禁止警察在公共场所使用实时面部识别技术。研究人员必须发挥自己的作用,从下至上建立负责任的人工智能文化。该法案在成为欧盟成员国的法律之前,还有进一步的障碍需要清除,而且有人质疑该法案缺乏关于如何执行的细节,但它可能有助于制定人工智能系统的全球标准。关于人工智能风险和监管的进一步磋商,例如即将举行的英国峰会,必须邀请各种各样的与会者,包括研究人工智能危害的研究人员,以及已经或特别有可能受到该技术伤害的社区代表。4 月,大型机器学习会议 NeurIPS(神经信息处理系统)宣布通过了会议提交的道德准则。这包括一项期望,即涉及人类参与者的研究已经