ETH AI中心汇集了所有部门和学科的AI基础,应用和影响的研究人员。从110多个教授职位,其自己的前提和奖学金计划的参与开始,该中心在研究这一关键技术方面就加强了ETH的强大立场。中心与欧洲及以外的最佳AI研究机构合作,以加速进步,支持初创企业和行业合作,并培养下一代AI研究人员,变革型领导者和企业家。
○ 找工作 ○ 找主机 ○ 找资金 ○ 研究人员章程和守则 ○ 研究人员人力资源战略 ○ 养老金和 RESAVER ○ Science4refugees 计划
其他详细信息 根据收到的申请,申请人将被邀请于 2021 年 12 月 2 日至 3 日进行在线面试(面试具体时间将于 12 月 21 日通知)。 如果收到的申请数量较多,部分面试可能会安排在第二天。请您相应地计划。 广告不具承诺性 - 任何形式的拉票都将被取消资格。
我们描述了一种评估移动激光测量的准确性和/或精密度的新方法。这是基于城市场景的线性实体的提取和比较。配对段之间计算的平均距离(即修改后的 Hausdorff 距离)用于相对于现有参考对云进行评分。对于边缘的提取,我们提出了一种检测通过 RANSAC 算法找到的平面段之间的交叉点的方法,该算法通过相关组件的分析进行丰富。我们还在考虑一种通过同样基于线性元素的刚性配准来校正移动激光读数的方法。最后,我们研究边缘的相关性来推导移动系统外参标定的参数。我们在作为 TerraMobilita 项目一部分获得的模拟数据和实际数据上测试我们的方法。
•运营的功能集成和优化•人力资源管理•AI在员工监控和生产力评估中的道德意义。•使用AI的个性化培训和开发计划。•组织变更•AI在数字转型策略中的作用•创新过程•AI是产品和服务创新方面的共同创造者•使用AI加速创新管道。•投资流程•风险投资决策和资金分配的AI•使用AI驱动分析优化投资组合管理。•风险管理•AI检测和减轻运营和财务风险•可持续性•AI设计可持续的商业实践和模型。•AI在实现环境,社会和治理(ESG)目标中的作用•业务道德•伦理AI企业框架和管理和管理的伦理AI框架•就业影响和新工作•新工作•工作流离失所与创造:AI在劳动力市场中的双重作用
立场摘要Ifakara Health Institute(IHI)与卫生部通过国家疟疾控制计划,总统办公室,地区管理局和地方政府以及国家医学研究所(NIMR)共同实施了Malararia Malararia在Tanzania内部(MSMT2)项目的第二阶段。同时,IHI正在寻求一名精力充沛,熟练的后博士后研究员,以加入我们的团队,进行一项尖端的研究项目,专注于MSMT项目的第二阶段。成功的候选人将与多学科研究人员,公共卫生专业人员以及本地和国际利益相关者紧密合作,以增强和规模,以增强和扩展本地能力,以基于该项目的目标,以支持分子,遗传,基因组和数据分析,以支持疟疾分子监测和其他要求。该项目最终将支持政策变化,并为坦桑尼亚的疟疾控制和消除提供明智的决策。
职位标题:Ruby Ward(女性急性病房)的本地就业医生(LED)全职/兼职:全职等级和薪水:相当于FY3/CT1;与2016年TCS Nodal Point 3£49,909.00基础相一致的工资基地:Aylesbury秘书支持的Ruby Ward,Whiteleaf Center,Aylesbury秘书支持:团队管理员条款和条件:该职位由当地协议修改的国家医疗和牙科服务条款和服务条款和条件管辖。合同:固定期限至2025年8月4日,邮政介绍了一份全职LED职位,目前在Ruby Ward(17张床的急性女性住院病房)持续了三个月。后持有人将与病房顾问精神科医生,全职专科医生和多学科住院小组一起工作。Ruby Ward以及Sapphire Ward(20居急性男性住院病房)是Buckinghamshire工作年龄成人精神病的急性入学病房。此外,他们不时为老年患者接受录取,要么是因为他们对工作年龄服务的成年人开放,要么是因为他们对这些病房进行了更适当的管理。Ruby Ward拥有一支完整的多学科团队。病房附有安全地点。还有一个20张床的康复病房(蛋白石病房)。人员配备包括:
随着人工智能的快速发展,该技术已从工业和实验室环境中转移到了日常人的手中。一旦AI和机器人代理人被安置在日常家庭中,就需要考虑到人类的需求。使用诸如从人类反馈(RLHF)中学习的方法,代理可以通过学习奖励功能或直接基于其回馈来优化策略来学习理想的行为。与互联网规模数据受益的视觉模型和大型语言模型(LLM)不同,RLHF受到提供的反馈量的限制,因为它需要额外的人为努力。在本文中,我们研究了如何减少人类提供的反馈数量,以减轻奖励功能而不会降低估计值时减轻负担。我们从基于偏好的学习角度来解决反馈的信息和效率之间的基本权衡。在这方面,我们介绍了可以分为两组的多种方法,即在没有额外的人类努力的情况下提高反馈质量的隐式方法,以及旨在通过使用其他反馈类型来大幅增加信息内容的明确方法。为了暗中提高偏好反馈的效率,我们研究如何利用主动学习(AL)来通过从差异自动编码器(VAE)中从差异化表示中挑选出差异的群集来提高样品的多样性。此外,我们还利用了优先对对通过在VAE的潜在空间上插值执行数据综合之间的独特关系。虽然隐式方法具有不需要额外努力的好处,但它们仍然遭受单独提供的信息提供的有限信息。对轨迹的偏好的一个局限性是没有折扣,这意味着如果首选轨迹,则为整个轨迹是首选,导致休闲混乱。因此,我们引入了一种称为“亮点”的新形式的反馈形式,该反馈使用户可以在轨迹上显示,哪一部分是好的,哪一部分不好。此外,利用LLMS创建了一种让人通过自然语言解释其偏好的方法,以推断出哪些部分是首选的。总的来说,本论文远离了互联网规模数据的假设,并展示了我们如何从人类较少的反馈中实现一致性。
随着人工智能的快速发展,这项技术已经走出工业和实验室,进入了人们的日常生活。一旦人工智能和机器人代理进入日常家庭,它们就需要能够考虑人类的需求。借助诸如强化学习人类反馈 (RLHF) 之类的方法,代理可以通过学习奖励函数或直接基于其反馈优化策略来学习理想的行为。与受益于互联网规模数据的视觉模型和大型语言模型 (LLM) 不同,RLHF 受限于所提供的反馈量,因为它需要额外的人力投入。在本论文中,我们研究如何减少人类提供的反馈量,以减轻他们在估计奖励函数时的负担,同时又不降低估计值。我们从基于偏好的学习角度研究了反馈的信息量和效率之间的根本权衡。为此,我们介绍了多种方法,这些方法可以分为两类:隐式方法,无需额外的人力投入即可提高反馈质量;显式方法,旨在通过使用更多反馈类型来大幅增加信息量。为了隐式地提高偏好反馈的效率,我们研究如何利用主动学习 (AL),通过变分自编码器 (VAE) 从已学习表征的不同聚类中策略性地选取样本,从而提高样本的多样性。此外,我们利用偏好对之间的独特关系,通过在 VAE 的潜在空间上进行插值来执行数据合成。虽然隐式方法具有无需额外工作量的优势,但它们仍然存在偏好本身所能提供的信息量有限的问题。轨迹偏好的一个局限性是没有折扣,这意味着如果一条轨迹是偏好的,则假设整个轨迹都是偏好的,从而导致偶然的混淆。因此,我们引入了一种称为亮点的新反馈形式,让用户在轨迹上显示哪些部分是好的,哪些部分是坏的。此外,利用 LLM,我们创建了一种方法,让人类通过自然语言解释他们的偏好,以推断哪些部分是偏好的。总体而言,本论文摆脱了互联网规模数据的假设,并展示了如何通过较少的人工反馈实现一致性。