推荐 NIH 资助的哈佛医学院 AI 计算健康信息学博士后项目候选人,波士顿儿童医院,马萨诸塞州波士顿 CHIP 是波士顿儿童医院的计算健康信息学项目,是哈佛医学院的附属机构,也是其生物医学信息学系的合作项目,正在招募对利用人工智能推进医疗保健感兴趣的博士后研究员。我们寻求优秀的候选人,他们对提升获取和推理一系列数据类型的能力充满热情,从临床、流行病学、环境和社会一直到分子和基因组。我们鼓励教师和研究负责人推荐能够胜任这一角色的候选人。我们提供丰富的学术环境和优秀的导师,并嵌入顶级医院。CHIP 位于波士顿芬威街区中心 401 Park Drive 的美丽新空间内,周围有各种美食、娱乐和体育设施。重点领域包括机器学习/AI,包括临床决策支持和预测医学、可计算表型、精准医学、人口健康、真实世界证据和数据可视化。CHIP 成立于 1994 年,是一个多学科应用研究和教育项目。生物医学信息学已成为生物医学、医疗保健和人口健康的主要主题和方法,涉及高维建模和从分子到人口水平了解患者。尽管 CHIP 拥有强大的儿科研究议程,但我们的兴趣涵盖所有年龄段。我们为医疗决策、诊断、护理重新设计、公共卫生管理和重新构想的临床试验设计信息基础设施。该领域本质上是跨学科的,借鉴了传统生物医学学科、计算科学和技术、数据科学、生物统计学、流行病学、决策理论、组学、实施科学以及医疗保健政策和管理。我们的教师接受过医学、数据科学、计算机科学、数学和流行病学方面的培训。CHIP 研究亮点在这里。
导师 Dehan Kong 多伦多大学统计科学系副教授 dehan.kong@utoronto.ca 联合导师 Quan Long 卡尔加里大学生物化学与分子生物学系副教授 quan.long@ucalgary.ca 摘要 在这个项目中,候选人将参与一个关于大规模生物和医学数据中的因果推断的研究项目。关键创新在于进行表征学习以形成解开的潜变量(或分布),以减少噪音和非必要因素,从而为有效的因果推断铺平道路。将对脑部疾病的大规模组学数据进行分析,将统计方法转化为实际应用。这个跨学科项目将由 Dehan Kong 博士(多伦多大学)和 Quan Long 博士(卡尔加里大学)共同指导,Dehan Kong 博士是一位擅长因果推断、神经影像学和基因组学的统计学家,Quan Long 博士是一位医学院的计算机科学家,对脑部疾病感兴趣,可以接触到数据和领域专家。跨学科/应用经验 博士后研究员将在多伦多大学的 Kong 博士实验室和卡尔加里大学的 Long 博士团队之间分配时间。Kong 博士和 Long 博士在各种方法和应用统计研究领域拥有丰富的经验,涵盖因果推断、遗传和基因组学、神经成像和机器学习。他们的综合专业知识为研究员的培训和研究奠定了坚实的基础。 成功的候选人将沉浸在统计学和计算机科学的高度跨学科环境中。此外,候选人将与领域专家合作,他们可以从生物学和医学的角度提供解释。导师在相关领域有着长期的努力,并可以访问脑部疾病的大规模组学数据,包括阿尔茨海默氏症、帕金森氏症、自闭症、精神分裂症、双相情感障碍和抑郁症。研究小组可以使用最先进的计算设施,包括一台包含 800 个 CPU 的 CFI 支持的 HPC 服务器
可容纳可变流量,而不会损害系统可用性和响应质量。ML推理工作负载也不例外。他们可能会处理大量查询量,某些系统每天处理超过200万亿查询[4]。它们在严格的延迟约束中运行,通常在100至300毫秒之间[5]。此外,它们可能会面临不断变化的交通模式,包括可预测的变化,例如峰值和非高峰使用情况(例如,白天,夜间或季节性或季节性)以及不可预测的破坏,包括由趋势主题,一个关闭式应用程序过载或系统变化触发的数据冲刺[6,7]。要克服这些不同的负载,系统必须动态扩展资源,同时保持效率和系统稳定性(可用性和响应准确性)。
估计相互作用的人类的3D姿势和形状以及来自单个野外图像的物体对于混合现实和机器人技术很重要。由于阻塞,深度歧义和广泛变化的物体形状,这具有挑战性。现有工作通过利用身体和物体上的表面接触点并使用这些来指导3D重建来应对这些挑战。不幸的是,获得3D接触注释需要昂贵的3D地面真相或耗时的手动标签。,根据大规模获取培训数据是一个挑战。我们通过开发一种称为InteractVLM的新型模型来解决此问题,该模型利用大型视觉语言模型(VLM)的广泛视觉知识。问题是,这些大型模型并未直接“理解” 3D人类对象接触。为了解决这个问题,我们利用了3D人类对象交互的现有小型数据集来微调大型模型以了解接触。但是,这是非平凡的,因为这种模型仅在2D中“仅”,而触点是继承的3D。因此,我们引入了一个新颖的“ RenderLecalize-Lift”模块,该模块:(1)通过多视图渲染将3D主体和物体表面嵌入2D空间,(2)训练一种新型的多视图本地化模型(MV-LOC),以推断2D,
我的目标是建造可以从任务,方式和环境中不断学习新知识的机器:回答查询,推断人类的意图,并制定长时间的计划跨越小时到几天。虽然互联网规模数据收集和深度学习工具的最新进展在许多实际应用(例如视觉识别,聊天机器人和游戏代理)中取得了重大进展,但将这一成功扩展到通用代理商仍然很难。首先,收集与高度可变对象和环境的长马相互作用的数据非常昂贵;其次,这样的代理必须能够不断获得新的概念,同时能够将分布式分布到新颖的状态,目标和偏好中,这是当前端到端神经网络系统所影响的挑战。
摘要 - 作为一种公平而有效的资源分配方法拍卖机制已被广泛用于品种交易方案,例如广告,众汇和频谱。但是,除了获得更高的利润和满意度外,隐私问题还引起了研究人员的关注。在本文中,我们主要研究了针对间接推理攻击的双重拍卖市场中保存隐私问题。大多数现有作品都采用差异隐私理论来防御推断攻击,但存在两个问题。首先,差异隐私(DP)的“难以区分”无法阻止拍卖市场中持续估值。第二,尚未解决差异隐私部署中的隐私 - 实用性权衡(PUT)。为此,我们提出了一种基于攻击防御的强化钢筋学习隐私方法 - 保存实际上在双重拍卖中提供隐私保护的方法。首先,拍卖师充当防守者,为投标人的估值增加了噪音,然后充当发射推理攻击的对手。之后,拍卖师使用攻击结果和拍卖结果作为指导下一次部署的参考。上述过程可以视为马尔可夫决策过程(MDP)。国家是当前步骤下每个投标人的估值。动作是添加到每个竞标者中的噪声。奖励由隐私,公用事业和培训速度组成,其中攻击成功率和社会福利被视为隐私和效用的衡量标准,使用延迟惩罚条款来减少培训时间。利用深层确定性政策梯度(DDPG)算法,我们建立了一个参与者批评网络来解决MDP问题。最后,我们进行了广泛的评估,以验证我们提出的方法的性能。结果表明,与其他现有的基于DP
尽管数十年的研究已经在物理推理中分类了惊人的错误,但对直觉物理的兴趣复兴揭示了人类成功预测物理场景展开的非凡能力。旨在解决这些相反结果的主要解释是,物理推理招募了一种通用机制,可可靠地对身体场景进行建模(解释最近的成功),但过度人为的任务或贫穷而生态无效的刺激可以产生较差的绩效(核算早期失败)。但是,即使在自然主义背景下,也可能会有一些任务会持续构成身体的理解?在这里,我们通过引入一项新的直觉物理任务来探讨这个问题:评估结和缠结的强度。结之间无处不在的文化和时间周期,并且正确评估它们通常会拼写出安全性和危险之间的差异。尽管如此,5个实验表明,观察者在结之间的强度差异也很大。在一系列两种两种强制选择的任务中,观察者查看了各种简单的“弯曲”(结着两条线的结),并决定这需要更多的力才能撤消。尽管这些结的强度是有据可查的,但观察者的判断完全无法反映这些区别,在自然主义照片(E1),理想化的效果图(E2),动态视频(E3)中,甚至伴随着结的策划图(E3)。这些结果在物理推理中暴露了一个盲点,对场景理解的通用理论施加了新的约束。此外,尽管有准确地识别结之间的拓扑差异(E5),但这些失败仍然存在。换句话说,即使观察者正确地感知了结的基础结构,他们也无法正确判断其力量。
最近的研究表明,大语模型(LLM)作为推理模块的有效性,可以将复杂的任务解构为更加可行的子任务,尤其是应用于图像的视觉推理任务时。相比之下,本文根据LLM的推理能力介绍了视频理解和推理框架(Vurf)。我们的一种新颖的方法是在视频任务的背景下扩展LLM的实用性,并利用它们从上下文框架内的最小输入和输出演示中概括的能力。我们通过使用成对的指令及其相应的高级程序来呈现LLM来利用他们的上下文学习能力,以生成可执行的视觉程序以供视频理解。为了提高计划的准确性和鲁棒性,我们实施了两种重要的策略。首先,我们采用由GPT-3.5提供支持的反馈生成方法,以纠正利用不支持功能的程序中的错误。其次,从最新的LLM输出自我进行的著作中汲取动机,我们通过将初始输出与LLM不受含义示例的结构限制的初始输出与本应生成的输出的结构对齐,从而提出了一种迭代程序,以提高内在示例的质量。我们在几个特定于视频的任务上的结果,包括视觉质量质量检查,视频预期,姿势估计和多效QA,说明了这些增强功能在提高视频任务的视觉编程方法方面的功效。
算法推理任务涉及涉及逻辑模式的算法,例如完成Dyck语言,尽管他们最近的成功,但对大语言模型(LLMS)构成了挑战。先前的工作已使用LLM来生成程序语言,并应用了外部计算机来执行此类任务。然而,当飞行时,很难用解决方案的正确逻辑生成可执行的代码。即使这样,一个实例的代码也无法重用其他实例,尽管它们可能需要相同的逻辑来解决。我们提出了t Hink-和-e Xecute,这是一个新的框架,改善了LLMS的算法 - 固有推理:(1)在T Hink中,我们发现了在所有实例中共享的任务级逻辑,并用伪代码表达逻辑; (2)在e x -ecute中,我们将任务级伪代码量身定制为每个实例并模拟其执行。t hink-和-e xecute在算法算法推理任务中的表现优于几个强大的基线(包括婴儿床和锅)。我们表现出使用任务级伪代码而不是一一生成实例特定解决方案的优点。另外,我们表明,即使对自然语言指导进行了自然语言指导,伪代码也可以更好地改善LMS的推理。
生成AI的快速发展引起了环境问题的加剧,特别是关于碳排放的。我们的框架工作,即“ prout”,通过减少大语言模型(LLMS)中推断的碳足迹来解决这些挑战。prout介绍了“生成指令”,以指导自回归的生成过程,在生态可持续性和高质量产出之间取得了平衡。通过使用Llama模型和全球电力网格数据,在现实世界评估中,使用战略优化器进行指令分配和新颖的离线质量评估者,将生成LLM推断的碳足迹降低了40%。这项工作至关重要,因为对推理时间计算量表法律的兴趣不断增加,因此强调了对环保AI解决方案的需求。