Tech company cancels AI workers’ rights after pushback
人力资源软件公司 Lattice 由 Sam Altman 的兄弟 Jack Altman 创立,是第一家向数字工作者提供正式员工记录的公司,但仅在 3 天后就取消了这一举措。Lattice 首席执行官 Sarah Franklin 在 LinkedIn 上宣布,Lattice“创造了历史,成为第一家在负责任地雇用 AI‘数字工作者’方面处于领先地位的公司,通过创建数字员工记录来管理他们的透明度和问责制。” Franklin 表示,“数字工作者”将得到安全入职、培训和分配目标、绩效指标、适当的系统访问权限,甚至还有一位负责任的经理。”如果您认为这种将 AI 拟人化的举动是科技公司在遭到抵制后取
Ahead of Maha Polls, RSS plans mega celebration of Ahilyabai's 300th Birth Anniversary
RSS 计划在马哈拉施特拉邦即将举行的议会选举中庆祝 Maharani Ahilyabai Holkar 诞辰 300 周年。由于 Lok Sabha 表现不佳,BJP 和 RSS 重新评估了他们的选举策略。RSS 强调建立舆论并吸引年轻人加入他们的意识形态。
AI model performance: Is it reasoning or simply reciting?
当 ChatGPT 为您的提示提供正确答案时,它是通过请求进行推理还是仅仅记住训练数据中的答案?麻省理工学院计算机科学与人工智能实验室 (CSAIL) 的研究人员设计了一系列测试,以查看 AI 模型是“思考”还是只是记忆力好。当您提示 AI 模型解决“27+62 等于多少?”之类的数学问题时,它会很快给出正确答案:89。我们如何判断它是理解底层算法还是只是在训练数据中看到了问题?在他们的论文中,研究人员测试了 GPT-4,文章 AI 模型性能:是推理还是简单地背诵?首次出现在 DailyAI 上。
NATO releases a revised AI strategy to combat threats
北约发布了修订后的人工智能战略,以促进人工智能在国防应用中的负责任使用,并打击来自人工智能对手的威胁。北约的最新战略表明,人工智能在国防领域的应用正迅速从新颖性发展到广泛采用。北约最初的人工智能战略是在 2021 年制定的,其中批准了人工智能在国防领域的六项负责任使用原则 (PRU),即:责任和问责制、可解释性和可追溯性、可靠性、可治理性和偏见缓解。2021 年仅仅是 3 年前,但它比我们今天拥有的商业化技术落后了几代。北约表示,随着新一轮北约发布修订后的人工智能战略以应对威胁,该文章首次出现在 DailyAI 上。
DAI#47 – AI writes jokes, flags fibs, and beats bugs
欢迎阅读我们每周的人工组装人工智能新闻综述。本周,人工智能开始写笑话和发现谎言。中国的实时模型击败了 GPT-4o。OpenAI 在本该关闭的时候开放了。让我们深入研究一下。OpenAI 遭到黑客攻击 尽管 OpenAI 的名字如此,但人们批评它过于封闭。本周我们了解到,该公司的服务器出于各种错误的原因而完全开放。由于黑客突破了其防御,OpenAI 遭遇了数据泄露。随着全球人工智能竞赛的升温,我们很可能会看到更多这样的尝试。微软是 OpenAI 最大的投资者,但这篇文章 DAI#47 – AI 写笑话、标记谎言和击败错误首先出现在 DailyAI 上。
AMD acquires private Finnish AI lab Silo AI in $665 million cash deal
半导体巨头 AMD 宣布以 6.65 亿美元现金收购欧洲最大的私人 AI 实验室 Silo AI,预计该交易将于 2024 年下半年完成。此举推动了 AMD 的战略,即在与行业巨头 NVIDIA 竞争的同时,为硬件、软件和服务提供端到端 AI 解决方案。Silo AI 还以创建创新的开源大型语言模型 (LLM) 而闻名,例如 Poro 和 Viking,这些模型针对 AMD 硬件进行了优化。该公司还为安联、飞利浦、劳斯莱斯和联合利华等大型企业开发了 AI 模型和解决方案。“Silo AI 值得信赖的 AI 团队”文章 AMD 以 6.65 亿美元现金收购芬兰私人 AI 实验室 Silo AI
Scientists urge for ethical guidelines as LLMs play wider roles in healthcare
根据一项新研究,随着人工智能继续改变医疗保健,从药物发现到医学影像分析,道德准则却明显缺失。这项研究由波茨坦大学的 Joschka Haltaufderheide 和 Robert Ranisch 撰写,发表在《新泽西数字通讯》上,分析了 53 篇文章,以描绘出医学和医疗保健领域大型语言模型 (LLM) 的道德格局。研究发现,人工智能已经应用于各种医疗保健领域,包括:诊断影像解释药物开发和发现个性化治疗计划患者分类和风险评估医学研究和文献分析人工智能最近对医疗保健和医学的影响微不足道科学家呼吁制定道德准则,因为 LLM 在医疗保健中发挥着更广泛的作用,这篇文章首先出现在 DailyAI 上
Microsoft surprisingly retreats from non-voting board seat at OpenAI
微软意外退出了其在 OpenAI 董事会的观察员角色。正如《金融时报》首次报道的那样,微软副法律顾问 Keith Dolliver 致信 OpenAI,称鉴于 OpenAI 新成立的董事会取得了“重大进展”,该公司的董事会角色“不再必要”。 “在过去八个月里,我们见证了新成立的董事会取得的重大进展,并对公司的发展方向充满信心,”Dolliver 写道,这表明他对 OpenAI 的领导层充满信心,同时让微软远离直接参与。微软在 OpenAI 董事会的无投票权观察员席位于 2023 年 11 月设立,这篇文章微软出人意料地退出 OpenAI 无投票权董事会席位首次出现在 DailyAI 上。
Anthropic Console and Claude get prompt and Artifacts upgrades
Anthropic 为 Anthropic Console 添加了提示生成、测试和评估,并为其 Artifacts 功能提供了一些令人兴奋的新功能。如果您考虑过成为一名提示工程师,那么您可能需要重新考虑这些计划。AI 应用程序开发人员现在可以使用 Anthropic Console 来制作专家提示。提示的质量会显著影响 AI 模型提供的结果。开发人员现在只需解释他们的任务,Claude 就会为您编写提示,而不必试图让提示恰到好处。如果您的应用程序旨在响应用户输入,您可以使用这篇文章 Anthropic Console 和 Claude 获得提示和 Artifacts 升级首先出现在 Daily
Spanish court sentences 15 children for creating AI-generated explicit material
西班牙巴达霍斯的一家青少年法庭判处 15 名学童一年缓刑,罪名是制作和传播 AI 生成的女同学裸照。这些年龄在 13 至 15 岁之间的未成年人被判犯有 20 项儿童虐待图像制作罪和 20 项违反道德操守罪。作为刑期的一部分,被告必须参加性别平等和技术责任课程。法院表示,这些未成年人使用 AI 应用程序操纵从社交媒体上拍摄的女孩原始照片,将她们的脸叠加到裸体女性身上。该案件最早出现在去年 9 月西班牙法院判处 15 名儿童制作 AI 生成的露骨材料的帖子首先出现在 DailyAI 上。
AI breakthrough rapidly identifies drug-resistant typhoid without antibiotic exposure
剑桥大学的研究人员已经利用人工智能对抗抗生素耐药性。由 Stephen Baker 教授领导的研究小组创建了一种机器学习工具,仅使用显微镜图像来区分对环丙沙星(一种常见抗生素)有耐药性的细菌和对其敏感的细菌。这可以大大减少诊断抗生素耐药性所需的时间,并有可能改变我们治疗伤寒等危险感染的方式。这项研究发表在《自然通讯》上,重点研究了鼠伤寒沙门氏菌,这种细菌会引起严重的胃肠道疾病,并可能导致危及生命的侵袭性疾病。Tuan-Anh Tran 博士是该研究的主要研究员,这篇文章 AI 突破无需接触抗生素即可快速识别耐药性伤寒,首次发表在 DailyAI 上。
SenseNova 5.5 – China’s first real-time LLM beats GPT-4o
中国 AI 开发商 SenseTime 发布了其升级版多模态 SenseNova 5.5 模型,并声称它代表了最先进的技术。升级后的模型是在 SenseNova 5 发布几个月后推出的,SenseTime 表示 SenseNova 5 与 GPT-4 Turbo 不相上下。据报道,升级后的 600B 参数 SenseNova 5.5 整体性能提高了 30%。该公司发布的基准测试分数显示,其模型击败了 GPT-4o 和 Anthropic 的 Claude Sonnet 3.5 模型。SenseNova 5.5 擅长的基准测试是中国模型通常使用的基准测试。如果他们使用 GPQA、Humaneva
AI lie detector beats humans and could be socially disruptive
维尔茨堡大学和马克斯普朗克人类发展研究所的研究人员训练了一个人工智能模型来检测谎言,这可能会扰乱我们彼此交往的方式。人类并不擅长分辨一个人是在撒谎还是在说实话。实验表明,我们的命中率最多只有 50% 左右,这种糟糕的表现决定了我们如何相互交往。真值默认理论 (TDT) 认为,人们通常会假设一个人告诉他们的话是真的。称某人为骗子的社会成本太大,风险太大。这篇文章《人工智能测谎仪击败人类,可能会扰乱社会》首先出现在 DailyAI 上。
OpenAI data breach: what we know, risks, and lessons for the future
OpenAI 的安全漏洞暴露了人工智能公司如何成为黑客的有利可图的目标。此次漏洞发生在去年年初,最近被《纽约时报》报道,黑客入侵了该公司的内部消息系统。黑客窃取了员工关于 OpenAI 最新技术的讨论细节。以下是我们所知道的:此次漏洞发生在去年年初,黑客入侵了 OpenAI 的内部消息系统。黑客入侵了一个在线论坛,OpenAI 员工在该论坛上公开讨论公司最新的人工智能技术和发展。此次漏洞暴露了研究人员和员工之间的内部讨论,但并没有这篇文章《OpenAI 数据泄露:我们所知道的、风险和未来的教训》首先出现在 DailyAI 上。
Kyutai’s AI voice assistant beats OpenAI to public release
我们仍在等待 OpenAI 发布其 GPT-4o 语音助手,但法国一家非营利性 AI 研究实验室抢先发布了 Moshi。Moshi 是一款实时语音 AI 助手,由 Kyutai 开发并使用合成文本和音频数据混合进行训练的 Helium 7B 模型提供支持。然后对 Moshi 进行合成对话微调,以教它如何互动。Moshi 可以理解和表达 70 种不同的情绪,并以各种风格和口音说话。其 200 毫秒端到端延迟的演示非常令人印象深刻。通过同时聆听、思考和说话,Kyutai 的 AI 语音助手在公开发布方面击败 OpenAI 的帖子首先出现在 DailyAI 上。
Salesforce challenges trends in AI with the tiny yet mighty xLAM-1B and 7B models
企业软件公司 Salesforce 推出了两个紧凑型 AI 模型,挑战了 AI 中的“越大越好”范式。尽管体积小巧,但 10 亿和 70 亿参数的 xLAM 模型在函数调用任务中的表现优于许多更大的模型。这些任务涉及 AI 系统将自然语言请求解释和翻译成特定的函数调用或 API 请求。例如,如果您要求 AI 系统“查找下周末飞往纽约的 500 美元以下航班”,则模型需要理解此请求,识别相关函数(例如 search_flights、filter_by_price),并使用正确的参数执行它们。“我们展示了 Salesforce 用小巧但强大的 xLAM-1B 和 7B 模型挑战 AI 趋势的帖子首
Figma’s AI design feature disabled after copying Apple’s weather app
Figma 首席执行官 Dylan Field 宣布,他的公司将暂时禁用其新的 AI 功能。此前有指控称,该工具复制的设计与 Apple 的天气应用极为相似,这引发了人们对 Figma 的训练数据是否包含受版权保护内容的担忧。如果 Figma 的工具包含版权材料,那么其输出也将如此。这可能会让用户面临法律问题。 Figma 是一款协作式网页设计应用程序,最近在最近的 Config 会议上推出了 AI 驱动的功能。它将几个现成的 AI 模型嵌入到 Figma 自己的系统中,提供:AI 生成的内容:直接在设计模型中生成相关的文本内容。这篇文章 Figma 的 AI 设计功能在复制 Apple 的天
AI jokes: New study finds ChatGPT is as funny as The Onion
AI 能搞笑吗?南加州大学心理学研究人员的一项新研究测试了 ChatGPT 的喜剧能力,结果令人惊讶。ChatGPT 可以编写代码、连贯的内容,甚至诗歌。但它能写出捕捉难以量化的幽默概念的内容吗?很容易评估文本是否语法正确或代码是否有效,但幽默则更加主观。研究人员进行了两项实验,看看人们是否觉得 ChatGPT 的内容有趣。在第一个实验中,他们在 Amazon Mechanical Turk 上聘请了 123 名美国外行(即非专业喜剧演员)。参与者被要求完成 3 篇 AI 笑话:新研究发现 ChatGPT 和 The Onion 一样有趣,首先出现在 DailyAI 上。