An AI plush toy exposed thousands of private chats with children
任何拥有 Google 帐户的人都可以访问儿童和 Bondu 的 AI 恐龙毛绒玩具之间的大约 50,000 条聊天记录。
AI Safety Under Fire: Why 42 U.S. States Say Chatbots Are Putting Users at Risk
美国 42 个州就聊天机器人风险、安全漏洞和责任向人工智能公司发出警告《人工智能安全受到攻击:为何美国 42 个州称聊天机器人将用户置于危险之中》一文首先出现在 Spritle 软件上。
VegaX AI Chatbot App Review: Feature Set and Subscription Pricing
VegaX 专为无限制交互而设计,消除了标准聊天机器人中的许多限制。用户可以自由地公开探索想法、语气和主题,并做出动态适应对话流程的响应。 VegaX 是如何工作的? VegaX 会学习并适应您的个人沟通方式。它不是推动僵化的结构,而是让对话保持流畅:您可能更喜欢文本,而其他格式则不予考虑。它尊重舒适度,排除电话之类的事情,并提供符合您偏好的选项。系统响应您的意图并建立在 [...]
Hey ChatGPT, write me a fictional paper: these LLMs are willing to commit academic fraud
研究发现,主流聊天机器人对故意制造请求表现出不同程度的抵制
Pentagon dispute bolsters Anthropic reputation but raises questions about AI readiness in military
Anthropic 对美国军事使用人工智能的道德立场暴露了人们日益认识到聊天机器人可能不足以应对战争行为。
Claude AI: Why are there so many internet outages?
AI 聊天机器人 Claude 宕机只是最近 IT 中断的一个例子。现代互联网的主要漏洞之一是事件数量不断增加的原因
AI biases can influence people’s perception of history
Daniel Karell 及其同事的一项研究表明,人工智能聊天机器人的偏见会影响公众对历史事件的看法,强调需要认识到信息传播中的这些潜在偏见。
Can ChatGPT Replace Therapists? Experts Warn of Ethical Dangers
像 ChatGPT 这样的人工智能聊天机器人可以模拟同理心并提供对话支持,但它们仍然缺乏真正治疗所需的道德保障、情境理解和问责制。随着技术的发展,仔细的监管和严格的测试对于确保人工智能帮助人们而不造成意外伤害至关重要。专家警告说,ChatGPT 可能会在治疗中带来道德风险,包括偏见、误导性同理心和不安全的心理健康建议。一个人在笔记本电脑上与人工智能聊天机器人进行类似治疗的对话、数字大脑和聊天气泡、有关道德和安全的警告符号。ChatGPT 作为治疗师:新研究揭示了严重的道德风险人工智能工具,如ChatGPT 和其他人工智能聊天机器人越来越多地用于情感支持、自我反思,甚至治疗式对话。现在,数百万人
The greatest risk of AI in higher education isn’t cheating – it’s the erosion of learning itself
Hanna Barakat 和剑桥多元化基金 / 数据实验室对话 / 获得 CC-BY 4.0 许可 作者:Nir Eisikovits,麻省大学波士顿分校和 Jacob Burley,麻省大学波士顿分校 关于高等教育中人工智能的公开辩论主要围绕一个熟悉的担忧:作弊。学生会使用聊天机器人来写论文吗?老师们能说一下吗?大学应该禁止这项技术吗? [...]
Why enterprise AI agents could become the ultimate insider threat
生成式人工智能正在从聊天机器人转向自主行动者。当代理可以启动其他代理、花钱并修改系统时,生产力工具和内部威胁之间的界限就消失了。
Paul Krugman in Conversation with Barry Ritholtz
我和 Paulie 聊天总是很开心。我总是觉得站在麦克风的另一边很有趣。他想根据 Citrini Research 引起如此轰动的帖子来讨论人工智能和市场。他总是提出深思熟虑的问题,与保罗·克鲁格曼的对话非常精彩……阅读更多 保罗·克鲁格曼与巴里·里索尔茨对话的帖子首先出现在《大局》上。
Schools are using AI counselors to track students’ mental health. Is it safe?
随着数百所学校实施自动监控工具,教育工作者表示,学生会发现与聊天机器人交谈比向人类倾诉“更自然”• 与 EdSurge 合作制作警报于晚上 7 点左右发出。Brittani Phillips 检查了她的手机。佛罗里达州普特南县菲利普斯的一名中学辅导员收到来自学生在非上课时间使用的人工智能治疗平台的消息。它会根据学生在聊天中输入的内容来标记学生何时可能面临伤害自己或他人的风险。继续阅读...
Scientists made AI agents ruder — and they performed better at complex reasoning tasks
一个新项目允许人工智能聊天机器人像人类在对话中那样打断、保持沉默或大声说话,这让它们变得更聪明、更准确。
Microsoft warns of RAT delivered through trojanized gaming utilities
攻击者传播木马游戏工具,使用 PowerShell、LOLBins 和 Defender 规避策略提供隐秘的 RAT。威胁行为者诱骗用户运行通过浏览器和聊天平台共享的木马游戏实用程序,以部署远程访问木马。 “Microsoft Defender 研究人员发现了一项诱使用户运行木马游戏实用程序(Xeno.exe 或 [...]
Anthropic 'cannot in good conscience accede' to Pentagon's demands, CEO says
人工智能聊天机器人 Claude 的制造商在一份声明中表示,它并没有放弃谈判,但从国防部收到的新合同语言“在阻止 Claude 用于大规模监视美国人或全自动武器方面几乎没有取得任何进展”。
The Five Biggest Obstacles to AI Data Centers in Space
Ethan Siegel,Big Think 无论您对人工智能 (AI) 有何看法,特别是对由它提供支持的大型语言模型和聊天机器人,...
Demographic differences in how teens use and view AI
人工智能已成为当今许多青少年在线生活的一部分,大多数人表示他们使用过聊天机器人。我们最近的调查得出的结论是什么?他们如何使用人工智能——以及他们对人工智能的看法——远非一刀切。长期以来,我们一直通过种族、民族、收入和性别等因素来探索青少年对科技的使用情况——来自皮尤研究中心首次发表的《青少年如何使用和看待人工智能的人口统计差异》一文。
What parents say about their teen’s AI use
多年来,父母一直在智能手机和社交媒体时代抚养青少年。现在,人工智能 (AI) 聊天机器人为现代育儿引入了新的层面。由于现在大多数青少年都在使用这些工具,皮尤研究中心向 1,458 名 13 至 17 岁的美国家长提出了以下问题:这些问题是 […] 这篇文章《家长对青少年人工智能使用的看法》的一部分首先出现在皮尤研究中心。