摘要 — 早期发现脑转移瘤 (BM) 可能对癌症患者的预后产生积极影响。我们之前开发了一个框架,用于在 T1 加权对比增强 3D 磁共振图像 (T1c) 中检测小 BM(直径小于 15 毫米),以协助医疗专家完成这项时间敏感且高风险的任务。该框架利用专用的卷积神经网络 (CNN),该网络使用标记的 T1c 数据进行训练,其中基本事实 BM 分割由放射科医生提供。本研究旨在通过一种基于嘈杂学生的自训练策略来推进该框架,以利用大量未标记的 T1c 数据(即没有 BM 分割或检测的数据)。因此,该工作 (1) 描述了学生和老师 CNN 架构,(2) 介绍了数据和模型噪声机制,以及 (3) 引入了一种新颖的伪标记策略,考虑到框架学习到的 BM 检测灵敏度。最后,它描述了一种利用这些组件的半监督学习策略。我们使用 217 个标记和 1247 个未标记的 T1c 检查通过 2 倍交叉验证进行了验证。仅使用标记检查的框架在 90% 的 BM 检测灵敏度下产生了 9.23 个假阳性;而使用引入的学习策略的框架在相同灵敏度水平下导致错误检测减少约 9%(即 8.44)。此外,虽然使用 75% 和 50% 标记数据集的实验导致算法性能下降(分别为 12.19 和 13.89 个假阳性),但使用嘈杂的学生训练策略的影响不太明显(分别为 10.79 和 12.37 个假阳性)。
机器学习在研究和行业中正在迅速发展,新方法不断出现。这种速度甚至使专家要对新移民保持艰巨和艰巨。为了使机器学习神秘,本文将探讨十种关键方法,包括解释,可视化和示例,以提供对核心概念的基本理解。我曾经依靠多变量的线性回归来预测特定建筑物中的能源使用(以kWh),通过结合建筑年龄,故事数量,平方英尺和插入电器等因素。由于我有多个输入,因此我采用了多变量方法,而不是简单的一对一线性回归。该概念保持不变,但根据变量数量将其应用于多维空间。下图说明了该模型与建筑物中实际能耗匹配的程度。想象一下可以访问建筑物的特征(年龄,平方英尺等),但缺乏有关其能源使用的信息。在这种情况下,我可以利用拟合线来估计该特定建筑物的能源消耗。另外,线性回归使您能够衡量每个促成最终能量预测因素的重要性。例如,一旦建立了一个公式,就可以确定哪些因素(年龄,大小或身高)对能耗的影响最大。分类是一个基本的概念,然后再继续采用更复杂的技术,例如决策树,随机森林,支持向量机和神经网。1。2。随着机器学习的进展(ML),您将遇到非线性分类器,从而实现更复杂的模式识别。聚类方法属于无监督的ML类别,重点是将具有相似特征的观测值分组而无需使用输出信息进行培训。而不是预定义的输出,聚集算法根据数据相似性定义了自己的输出。一种流行的聚类方法是K-均值,其中“ K”代表用户为群集创建的数字。该过程工作如下:数据中的随机选择“ K”中心;将每个点分配到其最接近的中心;重新计算新的集群中心;并迭代直至达到收敛或最大迭代限制。例如,在建筑物的数据集中,应用K = 2的K均值,可以根据空调效率等因素将建筑物分为高效(绿色)和低效率(红色)组。聚类具有自己的一系列有用算法,例如DBSCAN和平均移位群集。降低性降低是另一种基本技术,用于管理具有许多与分析不相关的列或功能的数据集。主组件分析(PCA)是一种广泛使用的维度缩减方法,它通过找到最大化数据线性变化的新向量来降低特征空间,从而使其成为将大型数据集减少到可管理大小的有效工具。在具有较强线性相关性的数据集上应用维度降低技术时,可以通过选择适当的方法来最大程度地减少信息丢失。例如,T-Stochastic邻居嵌入(T-SNE)是一种流行的非线性方法,可用于数据可视化以及在机器学习任务中的特征空间降低和聚类。手写数字的MNIST数据库是分析高维数据的主要示例。此数据集包含数千个图像,每个图像都标记为0到9。使用T-SNE将这些复杂数据点投影到两个维度上,研究人员可以在原始784维空间中可视化复杂的模式。类似于通过选择最佳组件并将它们组装在一起以获得最佳性能,类似于构建自定义自行车,Ensemble方法结合了多个预测模型,以实现比单个模型本身所能实现的更高质量预测。诸如随机森林算法之类的技术(汇总在不同数据子集训练的决策树上)就是组合模型如何平衡差异和偏见的示例。在Kaggle比赛中表现最好的人经常利用集合方法,其中包括随机森林,Xgboost和LightGBM在内的流行算法。与线性模型(例如回归和逻辑回归)相比,神经网络旨在通过添加参数层来捕获非线性模式。这种灵活性允许在更复杂的神经网络体系结构中构建更简单的模型,例如线性和逻辑回归。深度学习,其特征是具有多个隐藏层的神经网络,包括广泛的架构,使得与其连续演变保持同步是一项挑战。深度学习在研究和行业社区中变得越来越普遍,每天引起新的方法论。为了实现最佳性能,深度学习技术需要大量数据和计算能力,因为它们的自我调整性质和大型体系结构。使用GPU对于从业者来说是必不可少的,因为它使该方法的许多参数能够在巨大的体系结构中进行优化。深度学习已在视觉,文本,音频和视频等各个领域中取得了非凡的成功。TensorFlow和Pytorch是该领域最常见的软件包之一。考虑一位从事零售工作的数据科学家,其任务是将衣服的图像分类为牛仔裤,货物,休闲或衣服裤。可以使用转移学习对训练衬衫进行分类的初始模型。这涉及重复一部分预训练的神经网络,并为新任务进行微调。转移学习的主要好处是,训练神经网络所需的数据较少,鉴于所需的大量计算资源以及获取足够标记的数据的困难,这一点尤为重要。在行动中的强化学习:最大化奖励和推动AI边界RL可以在设定的环境中最大化累积奖励,从而使其非常适合具有有限数据的复杂问题。在我们的示例中,一只鼠标会导航迷宫,从反复试验中学习并获得奶酪奖励。rl在游戏中具有完美的信息,例如国际象棋和GO,反馈快速有效。但是,必须确认RL的局限性。像Dota 2这样的游戏对传统的机器学习方法具有挑战性,但RL表现出了成功。OpenAI五支球队在2019年击败了世界冠军E-Sport球队,同时还开发了可以重新定位的机器人手。世界上绝大多数数据都是人类语言,计算机很难完全理解。NLP技术通过过滤错误并创建数值表示来准备用于机器学习的文本。一种常用方法是术语频率矩阵(TFM),其中每个单词频率均可在文档中计算和比较。此方法已被广泛使用,NLTK是用于处理文本的流行软件包。尽管取得了这些进步,但在将RL与自然语言理解相结合,确保AI可以真正理解人类文本并解锁其巨大潜力时仍将取得重大进展。TF-IDF通常优于机器学习任务的其他技术。TFM和TFIDF是仅考虑单词频率和权重的数值文本文档表示。单词嵌入,通过捕获文档中的单词上下文,将此步骤进一步。这可以用单词进行算术操作,从而使我们可以表示单词相似性。Word2Vec是一种基于神经网络的方法,它将大型语料库中的单词映射到数值向量。这些向量可用于各种任务,例如查找同义词或表示文本文档。单词嵌入还通过计算其向量表示之间的余弦相似性来启用单词之间的相似性计算。例如,如果我们有“国王”的向量,我们可以通过使用其他单词向量进行算术操作来计算“女人”的向量:vector('queen'')= vector('king'') + vector('king') + vector('woman'') - vector('男人')。我们使用机器学习方法来计算这些嵌入,这些方法通常是应用更复杂的机器学习算法的预步骤。要预测Twitter用户是否会根据其推文和其他用户的购买历史来购买房屋,我们可以将Word2Vec与Logistic回归相结合。可以通过FastText获得157种语言的预训练词向量,使我们可以跳过自己的培训。本文涵盖了十种基本的机器学习方法,为进一步研究更高级算法提供了一个可靠的起点。但是,还有很多值得覆盖的地方,包括质量指标,交叉验证和避免模型过度拟合。此博客中的所有可视化均使用Watson Studio Desktop创建。机器学习是一个AI分支,算法在其中识别数据中的模式,在没有明确编程的情况下进行预测。这些算法是通过试验,错误和反馈进行了优化的,类似于人类的学习过程。机器学习及其算法可以分为四种主要类型:监督学习,无监督学习,半监督学习和增强学习。这是每种类型及其应用程序的细分。**监督学习**:此方法涉及使用人类指导的标记数据集的培训机器。无监督学习的两种主要类型是群集和降低性。它需要大量的人类干预才能在分类,回归或预测等任务中实现准确的预测。标记的数据分为特征(输入)和标签(输出),教机教学机构要识别哪些元素以及如何从原始数据中识别它们。监督学习的示例包括:***分类**:用于分类数据,算法,诸如K-Neartem邻居,天真的贝叶斯分类器,支持向量机,决策树,随机森林模型排序和隐藏数据。***回归**:经常用于预测趋势,线性回归,逻辑回归,山脊回归和LASSO回归等算法,以确定结果与自变量之间的关系,以做出准确的预测。**无监督的学习**:在这种方法中,机器在没有人类指导的情况下处理原始的,未标记的数据,减少工作量。无监督的学习算法在大型数据集中发现隐藏的模式或异常,这些模式可能未被人类发现,使其适用于聚类和降低任务。通过分析数据并分组相似的信息,无监督的学习可以在数据点之间建立关系。无监督学习的示例包括自动化客户细分,计算机视觉和违规检测。基于相似性的聚类算法组原始数据,为数据提供结构。这通常用于营销以获取见解或检测欺诈。一些流行的聚类算法包括层次结构和K-均值聚类。此迭代过程随着时间的推移增强了模型的准确性。维度降低在保留重要属性的同时减少数据集中的功能数量,使其可用于减少处理时间,存储空间,复杂性和过度拟合。特征选择和特征提取是使用两种主要方法,其中包括PCA,NMF,LDA和GDA在内的流行算法。半监督学习通过将少量标记的数据与较大的原始数据结合在一起,在受监督和无监督学习之间取得了平衡。与无监督学习相比,这种方法在识别模式和做出预测方面具有优势。半监督学习通常依赖于针对两种数据类型培训的修改后的无监督和监督算法。半监督学习的示例包括欺诈检测,语音识别和文本文档分类。半监督学习:通过伪标记和传播自训练算法增强模型的准确性:这种方法利用了称为伪标记的现有的,有监督的分类器模型来微调数据集中的较小的标记数据集。伪标记器然后在未标记的部分上生成预测,然后将其添加回数据集中,并具有准确的标签。标签传播算法:在标签传播中,未标记的观测值通过图神经网络中的动态分配机制接收其分配的标签。数据集通常以一个已经包含标签的子集开始,并标识数据点之间的连接以传播这些标签。概率:IB(增加爆发)-30%此方法可以快速识别社区,发现异常行为或加速营销活动。强化学习:强化学习使嵌入在AI驱动软件计划中的智能代理能力独立响应其环境,并做出旨在实现预期结果的决策。这些药物是通过反复试验的自我训练,获得了理想的行为和对不良行为的惩罚,最终通过积极的加强来达到最佳水平。强化学习算法的示例包括Q学习和深度强化学习,这些学习通常依赖大量的数据和高级计算功能。基于神经网络和深度学习模型领域内的基于变压器的体系结构,Chatgpt利用机器学习能力来掌握和制作模仿人类之间的对话互动。