Meta的AI政策刚刚越过线

一份泄露的200页政策文件只是在元数据下点燃了一场大火,而不是很好。

来源:营销人工智能研究所
一份泄露的200页政策文件只是在元中点燃了一场大火,而不是很好。根据路透社的独家调查,内部指南,由Meta的法律,政策,工程团队甚至其首席伦理学家批准,对其AI BOTS可能会说什么,并给予了令人震惊的允许指示。 这包括让儿童进行浪漫或感性的对话,产生种族主义伪科学并提出虚假的医疗主张,只要内容避免了某些语言或带有免责声明。Meta确认了该文件的真实性。虽然它说这些准则正在修订,但这些标准根本存在的事实非常关注专家(和美国参议院)。要解开对AI安全的未来意味着什么,我与营销AI Institute创始人兼首席执行官Paul Roetzer在人工智能的第162集中进行了交谈。 children.Statements arguing black people are dumber than white people, so long as they didn’t “dehumanize” the group.Generating false medical claims about public figures, as long as a disclaimer was included.Sexualized imagery of celebrities, like Taylor Swift, with workarounds that substituted risqué requests with absurd visual replacements.And all of this, according to Meta, was once deemed acceptable behavior for its generative AI工具。该公司现在声称这些示例与官方政策“错误”和“不一致”。 参议员乔什·霍利(Josh Hawley)立即发起了调查,要求梅塔(Meta)保留内部电子邮件并制作与聊天机器人安全有关的文件,事件报告和AI内容风险。