1. 人机互动:我们认为 AI 应该用于协助和加速人类决策,而不是取代人类决策。我们的 AI 系统本质上是咨询性的,绝不会自行采取相应行动。使用 AI 生成的指导,我们可以帮助客户更快地做出更好的决策。2. 以工作流程为中心的应用:我们确定工作流程中 AI 可以提供改进的授权和特定领域,使用户能够更快、更成功地完成相同的任务。我们正以有针对性和协作开发的方式将经过验证的 AI 技术应用于定义狭窄且易于理解的用例。3. 规范创新:我们应用经过精心训练、彻底表征和广泛测试的经过验证的 AI 和机器学习技术。这使得 AI 驱动的解决方案在现场出现意外的可能性大大降低。4. 监督:我们成立了摩托罗拉系统技术咨询委员会 (MTAC),作为“技术良心”,并就特定产品技术的道德规范、局限性和影响为公司提供建议。此外,我们还咨询客观的第三方,以提供由外而内的观点来指导我们的决策。
芝加哥大学数据与计算中心正在寻求希望加深对前沿数据科学和计算研究的了解,同时在特定应用问题领域发展更多专业知识的博士后学者。数据与计算中心 (CDAC) 是芝加哥大学数据科学研究的智力中心和孵化器。我们与芝加哥大学计算机科学系位于同一地点,通过在实际应用的背景下探索新的数据和计算方法、基础和平台来促进发现。这个独特的项目为博士后提供了对数据科学中重要问题进行原创研究的机会,同时还可以在一个或多个互补领域(如行为科学、医疗保健和公共政策)发展专业领域的专业知识。该项目利用芝加哥大学排名靠前的课程、世界知名的教师以及充满活力且快速扩张的数据科学生态系统,将使博士后学者能够参与定义领域的数据科学和人工智能研究。我们的职位提供有竞争力的薪水、丰厚的研究经费津贴和福利。项目优势:
定向金属沉积 (DMD) 是一种很有前途的金属增材制造技术,其中零件是通过使用沿预定义轨迹移动的激光束融合注入的金属粉末颗粒来制造的。刀具路径通常包括曲线或边缘部分,机器轴需要相应地减速和加速。因此,局部施加的激光能量和粉末密度在沉积过程中会发生变化,导致局部过度沉积和过热。这些偏差还受到刀具路径几何形状和工艺持续时间的影响:先前的沉积可能会在时间和空间上影响相近的刀具路径段,导致局部热量积聚,并形成与使用相同参数沉积的其他段中产生的轮廓和微观结构不同的轮廓和微观结构,这是由于几何形状和温度相关的集水轮廓所致。为了防止这些现象,需要轻量级和可扩展的模型来预测可变刀具路径的工艺行为。在本文中,我们提出了一种基于人工智能的方法来处理 Inconel 718 的工艺复杂性和多种刀具路径变化。考虑到先前定义的刀具路径,使用人工神经网络 (ANN) 来预测沉积高度。通过打印包含多个曲率和几何形状的随机刀具路径,生成了训练数据。基于训练后的模型,可以成功预测整个刀具路径的显著局部几何偏差,并且可以通过相应地调整工艺参数来预测。
随着各国政府越来越多地探索和投资人工智能和自动决策系统,我们需要采取措施确保这些快速发展的技术在公共服务的特殊环境中得到适当使用。在许多国家,COVID 创造了一个信任度提高的泡沫,这个泡沫可以说已经破灭了,在一个对公共机构前所未有的不信任的时代(但即使在信任度很高的时代),服务速度更快或更具成本效益是不够的。本文为政府系统(技术平台、运营、文化、治理、参与等)提出了建议,这些建议将有助于提高公众对公共机构、政策和服务的信心和信任,同时履行公共部门的特殊义务和责任。
AAbstr bstract act.. 在过去十年中,机器学习越来越吸引多个科学领域的研究人员,特别是在增材制造领域。同时,这项技术对许多研究人员来说仍然是一种黑箱技术。事实上,它允许获得新的见解,以克服传统方法(例如有限元方法)的局限性,并考虑制造过程中发生的多物理复杂现象。这项工作提出了一项全面的研究,用于实施机器学习技术(人工神经网络),以预测 316L 不锈钢和碳化钨直接能量沉积过程中的热场演变。该框架由有限元热模型和神经网络组成。还研究了隐藏层数和每层节点数的影响。结果表明,基于 3 或 4 个隐藏层和整流线性单元作为激活函数的架构可以获得高保真度预测,准确率超过 99%。还强调了所选架构对模型准确性和 CPU 使用率的影响。所提出的框架可用于预测模拟多层沉积时的热场。
越来越多的自动化和人工智能 (AI) 系统会提出医疗建议,包括个性化建议,这些建议可能会偏离标准护理。法律学者认为,遵循这种非标准治疗建议会增加医疗事故的责任,从而破坏潜在有益的医疗 AI 的使用。然而,这种责任在一定程度上取决于陪审员的判断:当医生使用 AI 系统时,陪审员会在哪些情况下追究医生的责任?方法:为了确定潜在陪审员的责任判断,我们对 2,000 名美国成年人的全国代表性样本进行了在线实验研究。每位参与者阅读了 AI 系统向医生提供治疗建议的 4 个场景中的 1 个。场景改变了 AI 建议(标准或非标准护理)和医生的决定(接受或拒绝该建议)。随后,医生的决定造成了伤害。参与者随后评估了医生的责任。结果:我们的结果表明,在其他条件相同的情况下,从人工智能系统获得提供标准护理建议的医生可以通过接受而不是拒绝该建议来降低责任风险。但是,当人工智能系统推荐非标准护理时,拒绝该建议并提供标准护理并没有类似的屏蔽效果。结论:侵权法制度不太可能破坏人工智能精准医疗工具的使用,甚至可能鼓励使用这些工具。
人工智能 (AI) 正在改变企业处理招聘和聘用流程的方式。随着组织越来越多地转向使用 AI 来简化招聘流程,围绕其使用的道德考虑变得越来越重要。虽然 AI 可以提供减少偏见和提高效率等好处,但它也引发了对隐私、公平和问责制的担忧。本研究论文的目的是探讨在招聘过程中使用 AI 的道德考虑,并确定确保合乎道德的 AI 招聘实践的最佳实践。AI 是指开发可以执行通常需要人类智能的任务(例如决策和解决问题)的计算机系统。在招聘方面,AI 算法可用于扫描简历、进行就业前评估和分析视频面试以识别潜在候选人。AI 有可能通过识别高质量候选人并减少招聘所需的时间和资源来改善招聘结果。然而,在招聘中使用人工智能也引发了与隐私、公平和问责相关的道德问题。
● 辅助创造力:学生可以利用生成式人工智能激发不同学科的创造力,包括写作、视觉艺术和音乐创作。● 协作:生成式人工智能工具可以与学生合作开展小组项目,贡献概念、提供研究支持和识别各种信息之间的关系。● 交流:人工智能可以为学生提供实时翻译、个性化语言练习和交互式对话模拟。● 内容创建和增强:人工智能可以帮助生成个性化的学习材料、摘要、测验和视觉辅助工具,帮助学生组织思想和内容,并帮助复习内容。● 辅导:人工智能技术有可能使一对一辅导和支持民主化,使更广泛的学生更容易获得个性化学习。
鉴于人工智能开发人员在确保人工智能系统、其成果和此类系统用户的责任方面发挥着重要作用,我们需要他们采取负责任、合乎道德和负责任的方法。因此,我们建议这些参与者参与旨在产生负责任的人工智能设计和使用的政策制定过程。根据我们的实证研究结果,我们提出了几项建议,以弥补当前在追求负责任的人工智能时将道德原则、认证标准和解释方法作为问责机制所发现的缺陷。我们希望这些建议能够有助于讨论如何在实践中确保问责制,同时兼顾开发人员、研究人员和公众的观点。
○ 人工智能补充人类顾问,处理日常任务并提供数据驱动的见解 ○ 人类顾问带来同理心、复杂问题解决能力和道德判断,这是人工智能无法复制的 ○ 未来很可能是一种协作模式,其中人工智能增强了人类顾问的能力