法案概述 2025 年 1 月 7 日,议会通过了《防止诈骗法案》(“法案”)。即将出台的《2024 年防止诈骗法》将授权指定警察向银行发出限制令(“限制令”),如果警察有理由相信某人正在从其账户中转账或提款以造福诈骗者,并且该命令对于保护诈骗受害者是必要的。在命令生效期间,银行不得允许从诈骗受害者持有的任何银行账户(包括与其他方的任何联名账户)转账或提款。银行也不得向诈骗受害者授予或允许提取任何信贷额度。每项命令最长持续 30 天,如有必要,最多可延长五次。暂停资金转账和提款将减少诈骗受害者的潜在损失,同时为当局和家人争取更多时间说服个人他或她正在遭受诈骗。命令是最后手段,政府的政策意图是在保护个人免受伤害与尊重个人自主权和个人责任之间取得平衡。因此,命令是暂时的,最多六个月后就会失效,即使个人仍然坚持将资金转给可能的骗子。
人工智能 (AI) 是指机器被设计用来模仿人类智能。这意味着它们可以思考、学习并执行识别语音、做出决策和理解语言等任务。AI 既可用于打击医疗保险和医疗保健欺诈,也可用于实施此类欺诈。AI 被滥用于欺诈的一些方式包括生成虚假索赔、身份盗窃和深度伪造。AI 使欺诈者能够创建看似逼真的虚假医疗索赔。这些虚假索赔看起来合法且难以发现。诈骗者可以使用 AI 窃取个人身份,方法是创建真实的患者数据或生成令人信服的虚假身份来提交欺诈性索赔,从而更改其医疗身份。深度伪造技术是经过数字修改的人员视频或音频,使其看起来像是其他人,通常用于恶意或传播虚假信息。使用 AI 可以创建患者或医生的深度伪造,用于支持虚假索赔或处方。来电显示欺骗是指某人故意更改来电显示屏幕上显示的信息以隐藏其身份或冒充他人,例如医疗服务提供者、政府机构(如医疗保险或社会保障局)或甚至是您的银行。这些骗子的目的是从毫无戒心的受害者那里窃取敏感的财务和医疗信息。接到与来电显示不符的陌生号码打来的电话时,务必小心谨慎,因为这些电话可能是欺骗电话。
代理州首席风险官 Keith Briggs 撰稿 大型语言模型将改变 ChatGPT 和其他 AI 工具彻底改变电子邮件诈骗的方式 大型语言模型 (LLM) 的使用是对 AI 引擎(如 ChatGPT)进行的微调,需要将诈骗电子邮件输出集中到仅产生有效内容,从而引发新一波电子邮件诈骗。这些工具正在彻底改变网络钓鱼电子邮件中使用的内容。简而言之,写得不好的诈骗电子邮件的日子已经一去不复返了,因为这些电子邮件是由 ChatGPT 编写的。这一努力解决了任何威胁组织网络钓鱼活动中的瓶颈 — — 编写有说服力的电子邮件旨在引起潜在受害者的回应。写得好且有影响力的电子邮件会带来更大比例的受骗受害者。但 ChatGPT 的挑战在于它并不完美。即使是人工智能引擎也会胡言乱语,而且由于诈骗者通常不是他们攻击对象的母语,因此即使是使用 ChatGPT 创建的电子邮件也有可能失败。进入法学硕士 (LLM)。TechTarget 将大型语言模型定义为“一种使用深度学习技术和大量数据集来理解、总结、生成和预测新内容的人工智能 (AI) 算法。”Facebook 最近将其法学硕士 (LLM) 泄露到网上。这些法学硕士足够紧凑,整个人工智能可以在一台笔记本电脑上运行。当重点放在编写引人注目的网络钓鱼电子邮件上时,用户成为网络钓鱼内容受害者的可能性会增加
3. Anjana Samant 等人,《通过算法进行家庭监控:很少有人听说过的快速传播的工具》,《美国公民自由联盟》(2021 年 9 月 29 日),https://www. aclu.org/news/womens-rights/family-surveillance-by-algorithm-the-rapidly-spreading- tools-few-have-heard-of [https://perma.cc/545D-WNF5]。4. Karen Hao,《人工智能正在把人送进监狱——而且做错了》,《麻省理工学院技术评论》(2019 年 1 月 21 日),https://www.technologyreview.com/2019/01/21/137783/algorithms-criminal- justice-ai/ [https://www.perma.cc/F9WY-QFBQ]。 5. Erin Denniston Leach,《谨防使用人工智能招聘和雇用工具》,Snell & Wilmer(2022 年 5 月 18 日),https://blog.swlaw.com/labor- and-employment/2022/05/18/beware-of-the-use-of-artificial-intelligence-recruitment- and-hiring-tools/ [https://perma.cc/WA44-RBU2](招聘);Meta (Facebook) 解决公平住房违规指控,全国房地产经纪人协会 (2022 年 12 月 28 日),https:// www.nar.realtor/legal-case-summaries/meta-facebook-settles-fair-housing-violation- allegations [https://perma.cc/GL4W-Q9GG](住房); Hannah Bloch-Wehba,《访问算法》,88 Fordham L. Rev. 1265 (2020),https://ir.lawnet.fordham.edu/flr/vol88/iss4/2 [https://perma.cc/3TP8-UDP6](医疗补助福利)。6. Tojin T. Eapen 等人,《生成式人工智能如何增强人类创造力》,Harv. Bus. Rev.(2023 年 7 月至 8 月),https://hbr.org/2023/07/how-generative-ai-can-augment- human-creativity [https://perma.cc/WLT8-BD69](激发创造力); Michael Chui 等人,麦肯锡公司,生成性人工智能的经济潜力:下一个生产力前沿 (2023 年),https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-ai-the-next-productivity-frontier#introduction [https://perma.cc/C956-S63N](改进业务系统)。 7. Thomas Brewster,警方发现诈骗者克隆公司董事声音,案值 3500 万美元,福布斯 (2023 年 5 月 2 日上午 8:37),https://www.forbes.com/sites/thomasbrewster/2021/10/14/huge-bank-fraud-uses-deep-fake-voice-tech-to-steal- millions/ [https://perma.cc/GE26-RMC4]。8. AI 风险管理框架,美国国家标准与技术研究所、美国商务部 (2024),https://www.nist.gov/itl/ai-risk-management-framework [https://perma.cc/RUK7-J398] 第 35-37 页。9. 斯坦福大学以人为本的人工智能,2023 年人工智能指数报告 (2023 年),https://aiindex.stanford.edu/wp-content/uploads/2023/04/HAI_AI-Index-Report_2023.pdf [https://perma.cc/25JP-U442]。