1) Markoff J:海量数据塑造了计算的新时代。纽约时报,2009 年。https://www. nytimes.com/2009/12/15/science/15books.html (2022年1月3日阅读覧). 2)美国国家癌症研究所:第四范式:大数据如何改变科学。 2015. https://datascience.cancer.gov/news-events/events/fourth-paradigm-how-big-data-changing-science (2022年1月3日阅读覧). 3) Rosenblatt F:感知器:用于信息存储和组织的概率模型。心理学修订版 1958; 65:386-408。 4) Rumelhart DE, Hinton GE, Williams RJ : Learning representative representative of the CNNs. Nature 1986; 323 : 533-6. 5) Krizhevsky A, Sutskever I, Hinton GE : ImageNet category with deep convolutional neurons. Communications of the ACM 2012; 60 : 84- 90. 6) Gutierrez G : Artificial intelligence in the intensive care unit. Crit Care 2020; 24 : 101. 7) Gulshan V, Peng L, Coram M, et al : Development and validation of a deep learning algorithm for detection of diabetic retinopathy in retinal fundus photos. JAMA 2016; 316: 2402-10. 8) Barbieri C, Molina M, Ponce P 等:一项国际观察性研究表明,人工智能用于临床决策支持可优化血液透析患者的贫血管理。Kid- ney Int 2016 ; 90 : 422-9。9) Jayapandian CP, Chen Y, Janowczyk AR 等:基于深度学习的肾皮质组织结构分割与多种组织学染色的开发和评估。Kid- ney Int 2021 ; 99 : 86-101。10) Tomašev N, Glorot X, Rae JW 等:一种临床适用的持续预测未来急性肾损伤的方法。Nature 2019 ; 572 : 116-9。 11) Connell A,Raine R,Martin P 等:数字化护理路径的实施(第 1 部分):对临床结果和相关医疗保健成本的影响。J Med Internet Res 2019;21:e13147。12) Zhang L,Baldwin I,Zhu G 等:连续性肾脏替代治疗期间回路压力的自动电子监测:技术报告。Crit Care Resusc 2015;17:51-4。13) Kakajiwala A,Jemielita T,Hughes JZ 等:膜压可预测儿科连续性肾脏替代治疗回路的凝血。儿科肾脏病学 2017;32:1251-61。 14) Shah SJ, Katz DH, Selvaraj S 等: Phenomapping for novel category of heart Failure with Reserved Shooting Fraction. Circulation 2015 ; 131 : 269-79. 15) Komaru Y, Yoshida T, Hamasaki Y 等: Hierarchical clustering analysis for predicting 1-year
1。See generally Alec Radford, Jeff Wu, Rewon Child, D. Luan, Dario Amodei & I. Sutskever, Language Models Are Unsupervised Multitask Learners (2019) (unpublished manuscript), https://d4mucfpksywv.cloudfront.net/better-language-models/language-model s.pdf [https://perma.cc/7tud-38j5]; Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida, Carroll L. Wainwright, Pamela Mishkin, Chong Zhang, Sandhini Agarwal, Katarina Slama, Alex Ray, John Schulman, Jacob Hilton, Fraser Kelton, Luke Miller, Maddie Simens, Amanda Askell, Peter Welinder, Paul Christiano, Jan Leike &瑞安·洛(Ryan Lowe),培训语言模型遵循人类反馈的指示4,2022)(未出版的手稿),https://arxiv.org/pdf/2203.02155.pdf [https://perma.cc/myf8-28l9]。2。See Muhammad Usman Hadi , Qasem Al Tashi, Rizwan Qureshi, Abbas Shah, Amgad Muneer, Muhammad Irfan, Anas Zafar, Muhammad Bilal Shaikh, Naveed Akhtar, Jia Wu & Seyedali Mirjalili, Large Language Models: A Comprehensive Survey of Its Applications, Challenges, Limitations, and Future前景(2023年12月7日)(未发表的手稿),https://www.semanticscholar.org/paper/large-language-models%3a-a-a-comprehensial--comphermiss--compherive--susporment-of-hadi-tashi/24de-tashi [https://perma.cc/fl y8-zd2p]。3。请参阅OpenAI,GPT-4技术报告(3月1,2024)(未发表的手稿),https://arxiv.org/abs/2303.08774 [https://perma.cc/m5vx-tjlt]。4。“理解”一词在引用中,因为不给这些AI系统化拟人化并不意义地暗示它们具有类似于人类的认知能力。5。6。L. R EV。L. R EV。相反,正如本文强调的那样,LLM AI系统通过统计近似来获得其智能观察结果。确实,他们通常能够产生非常准确和类似人类的反应,但目前,他们很可能不会以与人类认知理解相当或类似的方式“理解”人类语言。因此,在这种情况下,“理解”可以被认为是说这些模型产生的统计输出在鉴于输入的响应范围内,并且经常近似于一个类似位置的人,他们确实理解了认知水平上的输入,会产生响应。即使这种产生响应迅速且显着的人类输出的能力是显着的,但考虑到当前AI模型的工作方式,人们必须注意不要暗示类似人类的认知。OpenAi,介绍ChatGpt:对话的优化语言模型,o Pen AI:B日志(2022年11月30日),https://openai.com/blog/chatgpt [https://perma.cc/8qwz-7nky]。Daniel Schwarcz和Jonathan H. Choi,《律师的AI工具:实用指南》,108 M Inn。h eadnotes 1,1(2023);乔纳森·H·乔(Jonathan H.
扩散概率模型 扩散概率模型是一类潜在变量模型,常用于图像生成等各种任务(Ho 等人,2020 年)。正式而言,扩散概率模型通过对数据点在潜在空间中扩散的方式进行建模来捕获图像数据,这是受统计物理学启发的。具体来说,它们通常使用经过变分推理训练的马尔可夫链,然后逆转扩散过程以生成自然图像。一个值得注意的变体是稳定扩散(Rombach 等人,2022 年)。扩散概率模型也用于 DALL-E 和 Midjourney 等商业系统。生成对抗网络 GAN 是一类具有自定义对抗学习目标的神经网络架构(Goodfellow 等人,2014 年)。GAN 由两个以零和博弈形式相互竞争的神经网络组成,从而生成特定分布的样本。正式来说,第一个网络 G 称为生成器,用于生成候选样本。第二个网络 D 称为鉴别器,用于评估候选样本来自期望分布的可能性。得益于对抗性学习目标,生成器学习从潜在空间映射到感兴趣的数据分布,而鉴别器则将生成器生成的候选样本与真实数据分布区分开来(见图 2)。(大型) 语言模型 (大型) 语言模型 (LLM) 是指用于建模和生成文本数据的神经网络,通常结合了三个特征。首先,语言模型使用大规模、顺序神经网络(例如,具有注意力机制的 Transformer)。其次,神经网络通过自我监督进行预训练,其中辅助任务旨在学习自然语言的表示而不存在过度拟合的风险(例如,下一个单词预测)。第三,预训练利用大规模文本数据集(例如,维基百科,甚至多语言数据集)。最终,语言模型可以由从业者使用针对特定任务(例如,问答、自然语言生成)的自定义数据集进行微调。最近,语言模型已经发展成为所谓的 LLM,它结合了数十亿个参数。大规模 LLM 的突出例子是 BERT(Devlin 等人,2018 年)和 GPT-3(Brown 等人,2020 年),分别具有 ∼ 3.4 亿和 ∼ 1750 亿个参数。提示是语言模型的特定输入(例如,“这部电影很精彩。从人类反馈中进行强化学习 RLHF 从人类反馈中学习顺序任务(例如聊天对话)。与传统强化学习不同,RLHF 直接从人类反馈中训练所谓的奖励模型,然后将该模型用作奖励函数来优化策略,该策略通过数据高效且稳健的算法进行优化(Ziegler 等人,2019 年)。RLHF 用于 ChatGPT(OpenAI,2022 年)等对话系统,用于生成聊天消息,以便新答案适应之前的聊天对话并确保答案符合预定义的人类偏好(例如长度、风格、适当性)。提示学习 提示学习是一种 LLM 方法,它使用存储在语言模型中的知识来完成下游任务(Liu 等人,2023 年)。一般而言,提示学习不需要对语言模型进行任何微调,这使其高效且灵活。情绪:“),然后选择最可能的输出 s ∈{“positive”,“negative”} 而不是空间。最近的进展允许更复杂的数据驱动提示工程,例如通过强化学习调整提示(Liu et al.,2023)。seq2seq 术语序列到序列(seq2seq)是指将输入序列映射到输出序列的机器学习方法(Sutskever et al.,2014)。一个例子是基于机器学习的不同语言之间的翻译。此类 seq2seq 方法由两个主要组件组成:编码器将序列中的每个元素(例如,文本中的每个单词)转换为包含元素及其上下文的相应隐藏向量。解码器反转该过程,将向量转换为输出元素(例如,来自新语言的单词),同时考虑先前的输出以对语言中的模型依赖关系进行建模。seq2seq 模型的思想已得到扩展,以允许多模态映射,例如文本到图像或文本到语音的映射。Transformer Transformer 是一种深度学习架构(Vaswani 等,2017),它采用自注意力机制,对输入数据的每个部分的重要性进行不同的加权。与循环神经网络 (RNN) 一样,Transformer 旨在处理顺序输入数据(例如自然语言),可用于翻译和文本摘要等任务。但是,与 RNN 不同,Transformer 会一次性处理整个输入。注意力机制为输入序列中的任何位置提供上下文。最终,Transformer(或一般的 RNN)的输出是文档嵌入,它呈现文本(或其他输入)序列的低维表示,其中相似的文本位于更近的位置,这通常有利于下游任务,因为这允许捕获语义和含义 (Siebers et al., 2022)。变分自动编码器 变分自动编码器 (VAE) 是一种神经网络,它被训练来学习输入数据的低维表示,方法是将输入数据编码到压缩的潜在变量空间中,然后从该压缩表示中重建原始数据。VAE 与传统自动编码器的不同之处在于,它使用概率方法进行编码和解码过程,这使它们能够捕获数据中的底层结构和变化,并从学习到的潜在空间中生成新的数据样本 (Kingma and Welling, 2013)。这使得它们不仅可用于异常检测和数据压缩等任务,还可用于图像和文本生成。零样本学习/小样本学习 零样本学习和小样本学习是指机器学习处理数据稀缺问题的不同范例。零样本学习是指教会机器如何从数据中学习一项任务,而无需访问数据本身,而小样本学习是指只有少数特定示例的情况。零样本学习和小样本学习在实践中通常是可取的,因为它们降低了建立 AI 系统的成本。LLM 是小样本或零样本学习器(Brown 等人,2020 年),因为它们只需要一些样本即可学习一项任务(例如,预测评论的情绪),这使得 LLM 作为通用工具具有高度灵活性。