Maj Maj Bio5211遗传和基因组工程39 56 95 4 4 O 10 40 Maj Bio5212生物信息和系统生物学生物学37 51 88 4 4 A+ 9 36 Maj Bio5213环境生物技术17 27 27 44 2 2 2 2 A+ 9 18 18 18 18 18 18 18 Maj Bio5214 Maj bio Engineme and Genome Engine 5 Maj bio Engine 5 Maj bio 19 26 45 Bio bio bio bio bio bio bio bio bio bio bio bio系统生物学实验室19 29 48 2 2 O 10 20 Maj Bio52221食物生物技术17 28 45 2 2 O 10 20 Maj Bio52222食品生物技术实验室18 23 41 2 2 A + 9 18 OJT BIO5231在工作培训上A + 9 0 +
机器学习技术越来越多地被认为是可行的天气和气候预测工具,因为它们相对于传统的数值天气预测模型,其效率和竞争性能。这项研究评估了使用视觉变压器(VIT)结构和球形谐波神经操作员的机器学习模型的有效性,该模型旨在建模球形表面上的非线性混沌和动力学系统。四castnet-v2中使用的球形傅立叶神经操作员(SFNO)不仅保留了傅立叶神经操作员(FNOS)在模拟时空数据中的长距离依赖性方面的优势,而且还解决了球形坐标中学习操作员的限制。
估计隐藏状态(解码)的效率算法,用于推断出(隐藏的)状态的最可能的(隐藏)序列的序列,由Viterbi基于动态编程来描述,并且是O(n 2·T)计算复杂性的。
Aii.liiliTiut;il I .i|;liling I 卷。17.N>i。7 USPS (HXl-Wh, ISSN (IS'W-IU.X .I is piihljslKHl scvuii liiiiics per >ciir) (Biiniinlhlv CMC|H Vliiiiillily in Man.li iuul Jun'i hy VNl' Husiiw.s Modiii.Im.. 770 Bnodwjy, Nc» 伊蒂尔克。NY l(l(K)3-'W.S anl Is diMnhulcd Itw nl chiirjii- in iiKliMJuaK ui t'iniis cntiapcil m Ihc siKrcilk-.iliiin nl li^hliii)!pn«lucts m Ihc I S aiul icmumi-.. Tlic ti>M nl all .xliei suhst-nplions in IIK' L'S and ccmlnncs isSJX per ycai A one yc.ir Caitklian sul>M.n[Kn'n。|i.uahle in I'Silnlhirv >i>sis ViO ami all mpicr liiiri|;n。 S% 加拿大 I'IKI Puhlkaliins Mail Apeemeni No JUHITI^ Pcnodicab hMapc I'.ud al New ^ ori.. N^ ami jddilH ol addiCNs lo Aa^iilcciural莱赫尔姆特。PO Bo« l()(.I.Skokie.ll.«l07fvH(K.I
摘要。鉴于对最近的基于视觉模型的大规模多模式培训及其概括能力,因此了解其鲁棒性的程度对于他们的现实世界部署至关重要。在这项工作中,我们的目标是评估当前基于视觉模型的弹性,以应对不同的对象到后环上下文变化。大多数鲁棒性评估方法都引入了合成数据集,以引起对物体特征(观点,比例,颜色)的变化或实际图像上使用的图像转换技术(对抗性变化,常见的损坏),以模拟分离中的变化。最近的作品探索了利用大型语言模式和di!使用模型来产生背景变化。但是,这些方法要么缺乏对要进行的更改或扭曲对象语义的控制,从而使它们不适合任务。另一方面,我们的方法可以诱导各种对象兼容地面变化,同时保留对象的原始语义和对象的真实性。为了实现这一目标,我们利用文本对图像,图像到文本和图像对段的生成能力自动生成广泛的对象到背景的变化。我们通过修改文本提示或优化文本模型的潜伏期和Textual嵌入来引起自然和对抗背景的变化。这使我们能够量化背景上下文在理解深神经网络的鲁棒性和一般性中的作用。我们生产了各种版本的标准视觉数据集(Imagenet,Coco),将多样的和相同的背景纳入图像中,或在背景中引入颜色,纹理和对抗性变化。我们进行了彻底的实验,并对基于视觉模型的鲁棒性与对象之间的背景环境之间的鲁棒性进行了深入的分析。我们的代码和评估基准将在https://github.com/muhammad-huzaifaa/ObjectCompose上找到。
基于变压器的模型已在包括图像超级分辨率(SR)在内的低级视觉任务中取得了显着的结果。但是,在获得全球信息时,基于不重叠的窗口中依赖自我注意的早期aperach遇到了挑战。为了激活全球更多输入像素,已经提出了混合注意模型。此外,通过仅将像素的RGB损失(例如L 1)降至最低而无法捕获基本的高频降低,训练不足。本文提出了两种贡献:i)我们引入了卷积非本地稀疏注意(NLSA)块,以扩展混合变压器体系结构,以增强其接受场。ii)我们采用小波损失来训练变压器模型,以提高定量和主观性能。虽然先前已经探索过小波损耗,但在基于训练变压器的SR模型中显示了它们的力量是新颖的。我们的实验结果表明,所提出的模型在各种基准数据集中提供了状态的PSNR结果以及出色的视觉性能。
第2章始于本文档中涵盖的各种类型的生成AI模型的介绍。到目前为止,检查了单峰文本对文本模型(第2.1章)和多模式图像和视频生成器,它们以文本,图像,视频或其组合形式进行输入,并生成图像(第2.2章)或视频(第2.3章)(第2.3章)。随后,第3章概述了每种模型带来的机会,包括一般机会和与IT安全性特别相关的机会。第4章和第5章然后解决与生成AI模型以及相应的对策相关的风险。由于许多风险和对策在整个不同模态的处理或生成(例如文本,图像,视频)中类似,因此以交叉方式考虑它们以避免冗余内容。最后,第6章提供了对策的映射,以将其定位在生成AI模型的生命周期中。
在Web-scale数据集中预先训练的视觉语言模型(VLMS)在用最小数据调整时,在下游任务上表现出了显着的功能。但是,许多VLM依赖于专有数据,而不是开源数据,这限制了使用白色框的使用进行精细调整。因此,我们旨在开发一种黑匣子方法来通过自然语言提示来优化VLM,从而避免需要访问模型参数,功能嵌入甚至输出逻辑。我们采用基于聊天的LLMS来搜索VLM的最佳文本提示。特别是,我们采用了一种自动的“爬山”程序,该程序通过评估当前提示的性能并要求LLMS根据文本反馈来对其进行融合,从而将其融合到有效的提示中,所有这些程序都在没有人类的对话过程中进行了反馈。在具有挑战性的1-Shot图像分类设置中,我们的简单方法平均超过了白色框连续提示方法(COP)1。在包括Imagenet在内的11个数据集中有5%。我们的方法还优于人工工程和LLM生成的提示。我们高出了对话反馈的优势,该反馈既不是正面和负面提示,表明LLM可以在文本反馈中利用隐式“梯度”方向,以进行更有效的搜索。此外,我们发现通过我们的策略生成的文本提示不仅更容易解释,而且还以黑盒方式在不同的VLM架构上良好地转移。最后,我们在最先进的Black-Box VLM(DALL-E 3)上演示了我们的框架,以进行文本对图像优化。
引言人工智能 (AI) 的发展已展现出令人瞩目的性能,特别是在图像处理或游戏等明确定义的领域。然而,所部署的技术对于人类用户来说可能是不透明的,这引发了一个问题:人工智能系统如何提供解释 (Neerincx 等人,2018 年;Rosenfeld 和 Richardson,2019 年),并且监管框架对可解释人工智能 (XAI) 的需求日益增长。话虽如此,2017 年,谷歌的研究主管 Peter Norvig 指出,在人类可能不擅长提供“解释”的情况下期望计算机提供“解释”是具有讽刺意味的。可解释人工智能 (XAI) 的大部分工作都严重依赖于以计算机为中心的视角 (Springer,2019 年)。例如,Holzinger 等人 (2020) 假设人类和人工智能系统可以平等地访问“基本事实”。由此可见,可解释性“……突出了机器表示中与决策相关的部分……,即有助于模型在训练中的准确性或特定预测的部分。”与许多 XAI 文献一样,这并没有为人类提供任何角色,只能作为被动接受者。这意味着人工智能系统能够反省自己的过程来生成解释。然后将得到的解释呈现给用户,并描述人工智能系统的流程或它使用过的特征(“决策相关部分”)。这样,解释就只是一个建议(来自人工智能系统)加上与此相关的特征。正如 Miller (2017) 所指出的那样,这种态度的一个问题在于,它是基于设计师对什么是“好的”解释的直觉,而不是基于对人类如何响应和利用解释的合理理解。这并不能说明为什么选择某些特征,也不能说明为什么建议适合用户的关注点。它也没有将解释置于更广泛的组织中;分析师的解释可能与数据收集管理人员或接受分析师简报的经理的解释不同。对于 Holzinger 等人 (2020) 来说,情况的各个方面(定义为基本事实)被组合成一个陈述;也就是说,解释只是这个陈述的一种表达。这意味着从特征到解释存在线性插值。这类似于 Hempel 和 Oppenheim (1948) 的“覆盖定律模型”,该模型关注的是历史学家如何根据先前的原因来解释事件。然而,“基本事实”(由 Holzinger 的过程模型和覆盖定律模型假设)很少得到完全定义(导致在选择相关特征时产生歧义)。这意味着,仅仅陈述情况方面而不说明为什么选择这些方面(而不是其他方面)可能不会产生有用或可用的解释。霍夫曼等人(2018)对与解释相关的文献进行了全面的回顾。从这篇评论来看,解释涉及人类的理解(将人工智能系统的输出置于特定情境中),我们同意,考虑这一点的适当框架是数据框架的理解模型(Klein 等人,2007)。此外,理解(及其与解释的关系)依赖于认识到过程(提供和接收解释)必须是相互的、迭代的和协商的。这个过程依赖于“解释者”和“被解释者”达成一致。换句话说,解释涉及“共同点”(Clark,1991),其中理解上有足够的一致性以使对话继续进行。对话的性质将取决于提供解释的情况和被解释者的目标。例如,被解释者可能是“受训者”,他试图理解解释以学习决策标准,也可能是“分析师”,使用人工智能系统的建议作为政策。