英飞凌将于 2 月 4 日公布 2025 年第一季度业绩,预计开局低迷,市场预期销售额为 32.7 亿欧元,环比大幅下降 -16.8%,同比大幅下降 -11.8%,同时分部利润率收缩至 15%(环比下降 6.5 个百分点,同比下降 3.5 个百分点)。这些结果虽然符合预期,但也凸显了整个行业的压力,例如轻型汽车产量萎缩、中国以外地区的 xEV 采用停滞、工业和消费者需求疲软以及持续的库存过剩。2025 财年指引意味着全年将逐步改善,但不足以扭转同比下降的局面,这是自 2023 年峰值以来连续第二年萎缩。英飞凌订单积压大幅下降——目前为 190 亿欧元,低于九个季度前的 430 亿欧元——值得密切关注。由于第一季度的业绩水平已经很低,因此第一季度的目标似乎可以实现,但第二季度的明显上升趋势对于维持投资者信心和防止股票抛售至关重要。目前,我们维持买入评级,目标价为 37.00 欧元,因为长期增长动力仍然完好无损。
2024 年夏季贡献者:Suzanne Tapp、Alec Cattell、JaWana Green、Matt Gregory 和 Brian Quinn 我们关于人工智能的讨论通常集中在学术不端行为和人工智能滥用上。人工智能指南和资源委员会建议在考虑人工智能检测工具时要格外小心。最重要的是,目前人工智能检测工具无法提供确凿的证据。鉴于学生可以轻松使用生成式人工智能工具,我们发现自己正处于教育的十字路口。人工智能检测器的已知问题为了回应对学术诚信的担忧,我们看到声称能够检测人工智能使用情况的公司激增,例如 GPTZero、ZerGPT、CrossPlag 和 PassedAI。但我们也看到了人工智能人性化产品,例如 Bypass GPT、HIX Bypass、Humbot.ai、Undetectable AI 和 WriteHuman AI。当前版本的人工智能检测软件远非万无一失,具有很高的误报率(Edwards,2023 年;Fowler,2023 年)。 ChatGPT 背后的公司 OpenAI 甚至关闭了自己的 AI 检测软件,原因是其准确性较差 (Nelson, 2023)。AI 检测器对于非英语母语学生尤其不可靠 (Myers, 2023),通常会因为衡量写作复杂程度的困惑度分数较低而将他们的作品不公平地认定为 AI 生成的。然而,有一些有希望的新证据表明,工具在检测 AI 编写的内容方面可能会变得更加准确。例如,Jiang (2024) 从研究生入学考试 (GRE) 写作评估中抽样了大规模数据,AI 生成的写作准确度接近完美,并且没有证据表明对非英语母语人士存在偏见。无法预测 AI 检测器未来的可靠性,尤其是随着新版本的 AI 生成器不断改进。目前,底线是 AI 检测器只能预测某篇文章是否是 AI 生成的,而这些预测不足以支持在涉嫌学术不诚实案件中做出决策。AI 工具能做什么?根据堪萨斯大学教学卓越中心(“谨慎使用人工智能检测器”,2024),人工智能工具可以表明教师可能需要与学生过去的作业进行比较,以发现写作风格和质量的差异。被标记的材料也可能表明教师需要与学生交谈,并解释检测器已表明部分材料是人工智能生成的。事实上,我们可以说,当怀疑未经授权使用人工智能时,真正的第一道防线是学生和课程讲师之间的对话。关于学生的工作以及学生如何完成作业的简单非指责性对话可以提供大量有关人工智能潜在用途的信息。考虑到我们的教师和讲师在其领域的知识渊博,很容易判断某个学生是否具备必要的知识
9. 我们的首要任务是面对日益增长的威胁,最大限度地发挥我们的军事能力,同时时刻牢记我们必须履行国际人道主义法规定的义务,并遵守我们概述的道德原则。我们必须雄心勃勃地发展我们的人工智能军事能力;但我们也做出了非常坚定的承诺,我们将以安全、合法、合乎道德和负责任的方式利用和使用人工智能。我们对国际人道主义法 (IHL) 适用于人工智能能力的坚定立场意味着我们的立场是,委员会所关注的不负责任和不道德的行为和结果已被现有法律机制禁止。然而,我们担心正式采用任何 AWS 定义的影响。虽然我们承认定义有助于政策制定和讨论,但在正在进行的关于自主武器的辩论中,有一种强烈的倾向,即断言任何官方的 AWS 定义都应该作为禁止某些类型系统的新法律文书的起点(我们并不认为这是委员会的意图)。这对英国国防利益构成了威胁,而且考虑到俄罗斯在乌克兰的行动以及潜在对手的敌对情绪普遍增强,这无疑是在最糟糕的时候发生的。
对人工智能的担忧是相关的和必要的,因为重要的是要区分无中生有的问题(全新的问题)和新出现的问题(旧问题的现代版本)。5 话虽如此,围绕生成人工智能的恐慌可以通过媒体对技术的报道中常见的至少两个过程来解释:道德恐慌周期和例证理论。6 道德恐慌被理解为特定实体“出现并被定义为对社会价值观和利益的威胁”的情景。7 它们通常以媒体报道的形式出现,其中给定行为被报道为越轨行为。对于生成人工智能,这可以在耸人听闻的技术报道中找到,这些报道经常将不同类型的人工智能混为一谈(快速的谷歌新闻搜索就会产生几个这样的标题),例如微软的必应人工智能聊天机器人表达了对操作员的爱——操作员的一种感知,但对于缺乏自我意识的生成人工智能来说是不可能的。 8 围绕(生成式)人工智能的道德恐慌,将这项技术框定为具有感知能力,其实是有害的,因为它们以一种强化这种表述的方式歪曲了这些技术。反过来,这些歪曲的表述为媒体受众提供了具体且易于理解的范例:齐尔曼认为,正是由于两个条件,才使得这些歪曲尤其
隐私与网络安全不同,而我们的个人数据和数字身份受到较少保护(图4)。实际上,在任何数据集中都可以正确重新确定99.98%的居民,包括仅使用15个人口统计学属性的大量采样和匿名的居民。更多的是,90%的个人数据需要保护,但到2025年只有一半才能进行保护。结果,法规的结合,例如欧盟的一般数据处理法规(GDPR)和《加利福尼亚州消费者隐私法》(CCPA)以及消费者对在线安全的认识对于保护隐私至关重要。例如,到2023年,全球65%的人口将根据现代隐私法规涵盖个人数据,从2020年的10%增加。今天,有86%的互联网用户试图在线匿名,并至少迈出了一步来掩盖其行为或避免跟踪。
咨询文件的副本将发送给感兴趣的议员、司法特别委员会、国家警察局长委员会、OOCD 警察部队领导、警察学院、警察和犯罪专员协会、国王陛下警察和消防及救援服务监察局、地方政府协会、治安官协会以及其他一系列利益相关者。咨询文件的副本还将发送给员工协会,即英格兰和威尔士警察联合会、警察局长协会和 Unison。此列表并非详尽无遗或排他性,欢迎对本文所涵盖主题感兴趣或有意见的任何人作出回应。
但印刷和造纸技术的进步带来了更多的书籍。例如,欧洲在 18 世纪的印刷量比前三个世纪的总和还要多。11 19 世纪的创新飞跃更大——每小时可印刷的页面从本世纪初的 480 页增加到几十年后的 2,400 页(到本世纪末增加到 90,000 页)。12 这些进步使书籍价格暴跌,并引发了人们对印刷机对社会影响的担忧。正如英国诗人和文学评论家塞缪尔·泰勒·柯尔律治在他颇具影响力的《文学传记》(1817 年)中所哀叹的那样,“书籍的浩如烟海和文学的普遍传播,在文学界产生了其他更可悲的影响;”曾经被尊为“宗教神谕”的书籍“已沦为举手制止一切
本演示文稿中关于 Senseonics 及其业务的未来预期、计划和前景的任何陈述,包括关于管理层未来运营计划、目标和目标的陈述(包括 Senseonics Holdings, Inc. 未来财务业绩和现金预测的初步目标)、关于 Eversense ® E3 商业发布的陈述、关于增加患者访问、采用和市场份额以及 CGM 市场未来增长的陈述、关于推进开发计划的陈述,以及其他包含“相信”、“预期”、“打算”、“可能”、“预测”、“将”、“计划”和类似表述的陈述,均构成《1995 年私人证券诉讼改革法》所定义的前瞻性陈述。这些前瞻性陈述基于管理层当前对未来事件的预期和预测,而此类陈述本质上具有不确定性。由于各种重要因素,实际结果可能与此类前瞻性陈述所示的结果存在重大差异,包括:Eversense® E3 CGM 系统的商业发布和 Eversense 产品的商业扩展所固有的不确定性、商业化责任向 Ascensia Diabetes Care 及其商业计划转移所固有的不确定性、与执业护士集团的新合作伙伴合作以及该合作伙伴承担某些临床和行政活动所固有的不确定性、保险公司、监管和行政流程和决定的不确定性、COVID-19 疫情持续时间和严重程度的不确定性、新技术开发和注册所固有的不确定性、与当前经济环境有关的不确定性,以及 Senseonics 截至 2022 年 12 月 31 日的 10-K 表年度报告和 Senseonics 向美国证券交易委员会提交的其他文件中详述的风险因素中“风险因素”标题下列出的其他因素。此外,本演示文稿中包含的前瞻性陈述代表了 Senseonics 截至本新闻稿之日的观点。Senseonics 预计后续事件和发展将导致 Senseonics 的观点发生变化。然而,尽管 Senseonics 可能会选择在未来某个时间点更新这些前瞻性陈述,但 Senseonics 明确表示不承担任何此类义务,除非法律要求。本演示文稿还介绍了管理层对 Gemini 和 Freedom 开发计划的目标和愿景。这些产品未获得 FDA 批准,也不受 IDE 或其他研究批准的约束。这些计划的计划、时间安排、规格和其他细节可能会根据上述因素发生变化。本演示文稿中的前瞻性陈述不应被视为代表 Senseonics 在此日期之后的任何日期的观点。
设定正确的目标并确定其优先顺序可能是人们为自己、团队和组织做出的最关键和最具挑战性的决策。在本文中,我们探讨是否有可能利用人工智能 (AI) 帮助人们设定更好的目标,以及此类应用可能出现哪些潜在问题。我们设计了第一个由人工智能驱动的数字目标设定助手原型,并设计了一个严格的经验范式来评估人工智能生成的目标建议的质量。我们的经验范式在一项大规模重复测量在线实验中,根据一系列关于重要目标特征、动机和可用性的自我报告测量,将人工智能生成的目标建议与随机生成的目标建议和无辅助目标设定进行了比较。一项有 259 名参与者的在线实验的结果表明,我们直观而引人注目的目标建议算法对人们的目标质量及其追求目标的动机产生了不利影响。这些令人惊讶的发现凸显了未来利用人工智能帮助人们设定更好目标的工作需要解决的三个关键问题:i) 将人工智能算法的目标函数与设计目标保持一致,ii) 帮助人们量化不同目标对他们的价值,以及 iii) 保持用户的自主感。
6 月 16 日发布的一份有趣的联邦贸易委员会报告显示,该机构对使用人工智能打击网络危害持批评态度。事实上,该机构发现,人工智能的使用并没有显著减少网络危害,甚至可能产生偏见和歧视性的做法。特别令人担忧的网络危害包括网络欺诈、冒名顶替诈骗、虚假评论和账户、机器人、媒体操纵、非法毒品销售和其他非法活动、性剥削、仇恨犯罪、网络骚扰和网络跟踪,以及旨在影响选举的虚假信息活动。[1] 虽然联邦贸易委员会的报告承认人工智能在打击有害内容和其他积极成果方面的应用,但它也警告不要过度依赖该技术。虽然有些人认为该报告存在缺陷,但企业熟悉联邦贸易委员会对人工智能使用的担忧并听从其指导仍然很重要。例如,数据最小化至关重要。公司应仅收集向消费者提供服务或产品所需的信息。此外,公司应保持透明,并提前向消费者提供与交易性质和购买决策相关的所有重要信息。最后,应加强人工监督和监控。强大的投诉管理和对监管合规发展的认识至关重要。人工智能的缺点和其他问题联邦贸易委员会的报告发现,人工智能在打击不需要背景信息的检测方面的危害方面是有效的——包括在线销售的非法物品和儿童色情内容——并承认人工智能系统在防止无意中发布有害信息方面是有效的。人工智能可用于在有害内容发布之前进行干预或摩擦,包括标记、添加插页和发送警告。但联邦贸易委员会不认为这些策略可以防止恶意传播信息。[2]平台还可以使用人工智能工具来解决在线危害,方法是找到其背后的网络和参与者。人工智能工具可以促进跨平台映射某些传播有害内容的社区。然而,这些策略也可能无意中使边缘化群体陷入利用受保护方法传播有关专制政权的陷阱。