University of North Carolina at Chapel Hill Chapel Hill, North Carolina Bachelor of Science with Distinction in Computer Science and Mathematics Aug 2019 – May 2023 • Honors : Graduation with Honors, Honors Carolina Laureate, Dean's List Fall 2019, Spring 2022, Fall 2022, Spring 2023 • Courses : Cryptography, Digital Logic, Computer Vision, Deep Learning, Mathematical Statistics, Real Analysis • Senior论文:端到端加密消息传递的阈值适度
提琴手是负责人AI的多合一AI可观察性和安全平台。监视和分析功能提供了一种通用语言,集中控制和可行的见解,以使生产ML模型,Genai和LLM应用具有信任。Fiddler Trust Service是该平台不可或缺的一部分,为LLM应用程序提供了质量和节制控件。由成本效率,特定于任务和可扩展的提琴手开发的信任模型(包括用于安全环境的空调部署)提供支持,它提供了行业中最快的护栏。
摘要 - 仇恨,骚扰和其他形式的在线虐待造成的危害增加,促使主要平台探索等级治理。这个想法是允许社区指定的成员承担节制和领导职责;同时,成员仍然可以将问题升级到平台。但是,这些有前途的方法仅在社区内容公开对平台的明文设置中进行了探索。目前尚不清楚如何在利用端到端加密(E2EE)消息传递隐私的大量在线社区中实现层次治理。我们提出了私人层次治理系统。这些应该使社区治理能够与明文设置相似的社区治理,同时保持未报告的内容和治理行动的加密隐私。我们设计了第一个这样的系统,采用了一种分层方法,该方法在加密消息协议之上添加了治理逻辑;我们展示了如何扩展消息层安全性(MLS)协议su ffi ces,以实现丰富的治理策略。我们的方法使开发人员能够快速原型新的治理功能,从称为Polypectkit的明文系统中获得灵感。我们构建了一个名为MLSGOV的原型E2EE消息传递系统,该系统支持基于内容的社区和平台审核,选举社区主持人,投票以删除虐待用户等等。
大型生成式人工智能模型 (LGAIM),例如 ChatGPT、GPT-4 或 Stable Diffusion,正在迅速改变我们交流、说明和创造的方式。然而,欧盟及其他地区的人工智能监管主要侧重于传统人工智能模型,而非 LGAIM。本文将这些新的生成式模型置于当前关于可信人工智能监管的辩论中,并探讨如何根据其能力量身定制法律。在奠定技术基础之后,本文的法律部分分为四个步骤,涵盖 (1) 直接监管、(2) 数据保护、(3) 内容审核和 (4) 政策建议。它提出了一种新颖的术语,通过区分 LGAIM 开发人员、部署人员、专业和非专业用户以及 LGAIM 输出的接收者来捕捉 LGAIM 环境中的人工智能价值链。我们根据价值链上的不同参与者量身定制监管职责,并提出策略以确保 LGAIM 值得信赖并部署以造福整个社会。 《人工智能法案》和其他直接监管中的规则必须与预训练模型的特性相匹配。本文主张对 LGAIM 施加三层义务(所有 LGAIM 的最低标准、高风险用例的高风险义务、沿着人工智能价值链的协作)。一般而言,监管应侧重于具体的高风险应用,而不是预训练模型本身,并且应包括(i)有关透明度的义务和(ii)风险管理。不过,非歧视条款(iii)可能适用于 LGAIM 开发者。最后,(iv)DSA 内容审核规则的核心应扩大到涵盖 LGAIM。这包括通知和行动机制以及值得信赖的举报人。
通过数据保护影响评估确定潜在风险;导航FDA是否将AI的角色归类为医疗设备;通过与AI有关药物开发中的AI相关的模棱两可的FDA指南进行操纵;与生成AI有关的版权法的模糊景观律师;遵守有关AI系统在内容审核和广告中使用的数字通信法律;确保以道德和负责任的方式完成AI系统的使用;减轻合同,电子发现,产品责任,监管和基于侵权的索赔的风险;并通过对复杂的AI平台进行投资和收购来补充其业务,并扩展到新市场。
虽然我们的讨论主要集中在英国,但一些参与者表示担心,内容审核在世界其他地区,尤其是低收入国家,甚至效果更差。许多地方缺乏公正的媒体和强大的民间社会组织,否则这些组织将驳斥错误信息并成为公民的真相来源。一些参与者认为,平台对这些国家的政治和文化背景了解不足,而且他们的算法在分析非西方语言方面效果较差。可能需要加大对技术和人力资源的投资,以减轻这些风险。
第三,跨平台的威胁规模不断增长以及生成AI的放大效果(AI的能力生成内容和扩散的能力,跨文本图像(例如文本图像))平均平台必须考虑使用内部内部和外包方法的混合,以保持弹性。例如,除了创建有害内容的风险外,生成的AI还可以通过创建合成数据来完善内容检测和节制系统3来帮助保护人类主持人,但是大多数平台不太可能具有有效的专业技能来有效地生成和确保内部的此类培训数据。伙伴关系对于确保持续的积极成果至关重要。请参阅第5C节有关未来挑战的信息,以了解有关该领域进一步风险的信息。
响应基于身份的虚假信息将需要一个可以适应不同文化背景以及平台和媒体环境的一致策略。除了从缅甸学到的教训外,组织还利用数据驱动的技术来识别和分析其他国家 /地区的基于身份的虚假信息,并提出了有希望的新政策和编程建议。44个学者和政治制造商强调并尝试了各种方法来解决在线造成基于身份危害的技术和社会动态。在其中一些建议的核心是社交媒体公司更好的内容调整能力和政策侵犯执行,并注意到将内容审核外包给vul-
2023 财年是家居装修市场经历了数年前所未有的增长之后的缓和之年。我们仍致力于加强财务管理、提高运营效率,并继续投资于员工和为客户提供差异化能力。董事会仍专注于监督我们战略的执行,包括继续消除互联购物体验中的摩擦、通过产品和服务生态系统增强专业客户或“专业”体验以及扩大门店覆盖范围,同时保持我们与客户和员工之间建立的信任和情感联系的举措。这些举措的目标是扩大我们的市场份额并为我们所有的利益相关者创造价值。